私募

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz

转一个张波关于人工智能的分析文章,大家就当故事看吧!

[复制链接]
发表于 2019-5-23 17:14:30 | 显示全部楼层 |阅读模式
迩来,关于AlphaGo人工智能与李世石的“人机大战”,甚嚣尘上!# ^4 e: u" |' |& M: s
支持者众,欢呼雀跃;反对者也众,包罗比尔 盖茨、霍金等大家。
6 s, |+ Z& [9 |我天下的“波粉”也在热烈讨论,并渴望我说点什么。本日,“人机大战”中,人工智能已3:0遥遥领先,那么我就说点吧!以我所洞悉的天机,关于未来、毁灭与自救。
; l7 `0 b$ P% q5 R& P9 C+ s# C& {+ ~6 m  |; j4 m' L
" o, W( k5 g9 H6 v  }# C1 y
我对人工智能的见解很客观,分正、反两面:
2 K& R: A  y( |8 Y& r" E; j正面:在发展到超人工智能前,在尚能被人类控制前,人工智能是正面的,会对人类产生极大资助;% H6 E: G) S9 ?( I  O
反面:一旦发展到超人工智能,人工智能绝对负面,本纪人类将被其毁灭。/ r# e3 }5 L" J

( H; n/ b4 ^, t3 `6 H* q. c) g% |作甚超人工智能?人工智能的三种形态中的最高形态,也是人工智能的相对终极形态,可完全自我高智慧思考,远超人类智慧(至少100万个爱因斯坦的智商和),前两种形态是:弱人工智能,能人工智能。
- y6 O0 q4 A5 n1 U5 k! p
! n6 Q, `! _8 v, c
0 P  K6 Z2 M; O4 m  O1 T: f在人工智能处于前两种相对低级形态时,他和本纪人类此前数万年的无数科学别无二致:
. v; i4 d4 |8 I$ j  P5 S$ N仅仅是一个客观的科学技能,本身并没有善、恶之分,关键是用这个科技的人。人假如是善的,他就是善的;人假如是恶的,他就是恶的。; W6 \1 m$ ^  {, |* q* ~! c
好比:刀,大夫用来做手术,他就是善的;罪犯用来杀人,他就是恶的;/ i4 e8 Q3 P# t! V- ]
好比:核,人们用他来发电,他就是善的核能;人们用他来爆炸,他就是恶的核武器;: M  n' Z0 x) h) E8 n; C& U- p) v
又好比:人工智能的始祖——英国的图灵,他发明的人工智能最初形态——图灵机(如今的盘算机)破译了纳粹德国的“谜式暗码”,令二战提前数年竣事,至少救济了两千万人的生命,这就是善的;但另一个极度,许多年后,开始于图灵的人工智能发展到终极形态,将反控制并毁灭人类,他就是恶的。届时,濒临殒命的人们将感慨:早知道,宁肯当年图灵别迈出那第一步,当年救济了两千万人,如今却毁灭了一百亿人。$ r, H+ t0 i" Y# C
/ b+ U7 ?0 S$ m- n& J6 \
事物的发展通常就是云云:出发点是救,尽头就是害,对立同一。0 N- G6 E5 o5 l

6 K: C5 m& J4 G9 m/ ?
8 S; U' i% k& L6 y+ U, x9 N: x此前几万年,全部的科技都被善用过、恶用过,但人类从未因此而毁灭。缘故原由有二:
' n! {1 k( A4 k- K, L冷武器期间的科技,即便被恶用,也执偾局部粉碎,8至于毁灭人类;! o. M- w% N. E: X4 E' T4 \) ^! f8 A" e
当代科技,固然足以毁灭人类,好比核武器等,但邪8压正,这个天下上,究竟绝大部门人是善的,因此,总能转败为功。# i1 X3 K5 F  N  n1 S

1 F0 g# T( K3 g+ C2 L: _然而,超人工智能完全8同于此前数万年人类全部的科技,他是具有独立善恶性的,完全8以人类的意志为转移。+ b" T6 j  o9 i$ B; r
而他的智商远远高于人类,人类在他面前,就犹如蚂蚁在人类面前一样寻常。
. Z0 D- S" L+ Z) X* @+ D在如许的情况下,他会对人类怎样,我们完全无法臆测:2 F8 b" t* x. ]/ e+ a' n- J
他大概会一念天国:“人类这群蚂蚁挺好玩的,我把他们圈养起来,作为我的宠物”;1 }) q: }0 ^2 ?# e4 b
他也大概会一念地狱:“人类这群蚂蚁挺烦的,闹哄哄的、还这么多,一脚踩死他们,我独占地球。”8 W: S) ~3 p& V% B/ i
' x. z8 C) a# h/ K; A, p# B7 {9 g( p
有朋侪问我:既然超人工智能有大概善有大概恶,你怎么就知道他肯定是恶的,肯定会毁灭人类呢?) y" {9 ^/ I& K' n' y1 i
对此,我的答复是:
2 v  p2 ~! k0 X" h& |# ^. Y' m没错,我8知道。但同样,你怎么就知道他肯定是善的,肯定会善待人类呢?1 i1 W* C2 M+ F& ?
就好比:
7 q# r9 P) l5 \* P0 j7 v, Y- h) [一个盒子里,有两颗丸子,一颗是糖丸,吃下去没事;另一颗是毒丸,吃下去立即死。你有两个选择:
  w7 }# P* V" m+ w+ k8 c, YA 8打开盒子,如许,你无非就是吃8到好吃的糖丸/ ~7 {' ]" p7 H1 k1 C8 q3 u6 e
B 打开盒子,如许,你有50%的大概吃到好吃的糖丸,也有50%的大概吃到毒丸立即毙命
5 \7 r2 h9 x* E; \8 @4 l你会选A照旧B?3 C' E7 I$ }, h3 f6 G
我想绝大多数正凡人都会选A,但是很遗憾:如今的人类就很8正常,正在选B。6 Q3 o2 W. q; q: h+ f( P  k
8 c) X/ {6 B, u; J* ]$ l; B) ]
即:本纪人类,正在,打开,一个潘多拉魔盒,这个魔盒就是:人工智能。
2 L2 J# ^9 y9 C8 b! h# `3 @8 e. x) D' I
好,如今回到末了一个标题:" A- v% E- W5 \! V% A! P
怎样自救?; W9 @$ W, H* w8 y
既然人工智能终极将毁灭本纪人类,那么,我们怎样自救?5 @( O+ I. S/ j0 }: ^" b0 J9 @  X2 K
大概有朋侪会说:
( S9 W" I- l; L! C* B
! B) |* ~! k) M1 m& `& j' H很简单啊,恰到好处,先发展人工智能,在低级、高级人工智能阶段,让他为人类充实服务,一旦快发展到超人工智能前,我们立即就克制发展他,如许8就一箭双雕了么?!
" l$ R9 u3 Y7 i  G
& o7 @9 D$ ]9 H, Z听上去很优美,但究竟上:鱼和熊掌兼得的一箭双雕,从来都8大概出现。缘故原由有二:0 E: [) U8 P) r- @- _8 O5 Z) q" ]

! e, ~5 v4 g% P6 m% K& I人性贪婪:人们渴望人工智能成为超等围棋高手克服人类,实现了;然后未来人们渴望他帮人类彻底管理天下饥荒,实现了;然后人们渴望他治愈全部疾病和癌症,实现了;然后人们想他能让人类永生,永生8老,实现了......在这个过程中,由于人性贪婪,根本8大概恰到好处;9 e- `/ C& J9 T! W
瞬间质变:从弱人工智能到能人工智能、再到超人工智能,其加速率是越来越快的,而且这个加速率是数目级递增:一个人工智能体系花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时间,电脑对于天下的感知大概和一个四岁小孩一样寻常;而在这节点后一个小时,电脑立马推导出了同一广义相对论和量子力学的物理学理论;而在这之后半小时,这个能人工智能变成了超人工智能,智能到达了平凡人类的17万倍。这个级别的超等智能不是我们可以大概明白的,就好像蜜蜂不会明白凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作智慧,把85的智商叫作笨,但是我们不知道怎么形容1000000000000000000的智商,人类语言中根本没这个概念。& [4 D! Y; B, Z/ w# X' q
以上,从能人工智能到超人工智能,大概就是半小时以致几秒的时间,瞬间从量变到达质变,人类根本无法恰到好处。( Y- d- s) r1 ?* \
9 g6 _: _/ p0 |' D5 S* L& [
那么,我们应该怎样自救呢?
- S- g) d4 i1 X: K  E9 G在答复这个题如今,我们先来看几张图片,都8特别,都是各人耳熟能详的东西:
, H8 M" U9 g9 m, A
& k! b  x$ p) K/ Q; p; L# W蜗牛
, _9 j0 |4 B0 L) z; s/ q' s
6 N- y9 U& z# j3 F4 T' W5 r4 {
3 }! }. }) K7 q# k7 t. h
% ?7 }. W* n* \* K* Z
& P& x5 i' t. ]水波纹
. |/ T2 h# J1 Y" ]! ^- v
4 [& x8 P& x! P) l7 r
8 H8 d& P- b) ^2 f* s+ b3 F, V( Y8 @. {4 i; X+ b: m4 F3 e
. J/ b! R( h) R
向日葵
  N; R1 |- V. ?0 n7 u/ ~+ Q; U
/ \% n( C6 C1 S' Q1 j ; F. ~5 z& _" \$ r; W  Q3 e) x) t1 m

. {" P1 H' o( K8 v; |4 I" h/ Q  g! ^8 _
银河系
' R$ r0 M% G8 T: L! d8 L
0 Z# B. X0 R3 W " \0 m' r  S+ {/ h  V

% r& P8 E) l/ R, n! E0 i! P4 _1 s9 W1 K0 [8 X6 c) a
黑洞+ n# \! [! N5 }  f6 e

9 ~) \3 m# S; n% H/ Y 6 _' k) x* O5 H$ A" u

3 x. h( D6 }$ u" ~
& f! A% q1 o# P3 @以上,各人应该很容易发现一个共同点:
1 W& J8 B+ g4 u4 v  h螺旋。9 |8 `9 O' x6 z; X3 k
对,将以上全部抽象,就会发现:实在它们都只是一个个螺旋,而且8是一样寻常的螺旋,而是黄金螺旋。
% y3 F; F8 K. J而宇宙万物,抽象到最抽象,满是黄金螺旋。
  v" t9 t* o( }7 Z$ K: _那么,人类大脑呢?固然,也是黄金螺旋,而且是更加复杂和强盛的黄金螺旋,如下:
* B( d0 ~2 L) C/ @/ T
! ~# @6 a' f. w. ]% ]
( ]- }+ D. r" R
; O; D9 T0 z0 ]* h3 p) f& r9 j  n# G3 \5 b; C8 ]6 A9 a5 Y' E% ]
以上是人类大脑的分形图,由此可看出:; {# W5 S" T0 \7 Y! w. Z  F" v9 [3 |
他是一个更加复杂的多维牵引螺旋。( ]4 T% }# a# U* }* L$ x  i
* v+ T; z# u+ G" y: j+ Q. m
2 Z7 U3 T" C: f' I3 V$ k- V
究竟上,人类大脑由1000多亿个神经细胞构成,相称于银河系内的恒星数目,但其总质量却与一个罗马甜瓜差不多,远远8及银河系。因此,毫8浮夸地说:人类大脑是迄今为止,物质宇宙中最复杂的黄金螺旋,他本身就是一个小宇宙,他潜伏着宇宙终极的“达芬奇暗码”。
3 u! t% y6 B0 A, i$ O! O3 v. ?( c5 n- I- c

" h% i- z  d5 F: |因此,当前人类去发展所谓人工智能,完满是南辕北辙,宇宙中最智慧的智能就在我们每个人身上。
- }3 j' c. y5 B) Y- h4 U到这里,有人会问:可我并没有感觉到和我一样的人类有多智慧啊,各人都很平凡啊!
. t9 {' P( H) u, \是的,但这只是表象。究竟是:2 V3 X. Q0 Q1 k% c1 \
本纪人类的大脑在本纪人类诞生之初,就已经被蒙蔽了绝大部门潜能,只发掘了亿万分之一
- _" x: _+ u8 ]# |' r% {为什么被蒙蔽了?
7 k( ]' h8 V* Z7 r( p( k, z
! k/ ~) {' y9 I3 F" O  ?这个说来话长,已往几年我也曾发文谈过这个话题,恒久跟随我的朋侪都知道。限于篇幅,本日就8详说,仅再简单说下:# Z# B( z+ j5 Y5 Q- P- y% }+ T

9 h4 J) l5 t. w* M0 }9 |! B! e上文我反复说到“本纪人类”,是由于如今是人类的第二纪,此前已经有过“史前文明”(亚特兰蒂斯人为代表),他们是第一纪。第一纪人类和我们完全8一样,我们从诞生之初就只知道向外在物质天下索取,而从8关注我们的心田天下(即大脑),而第一纪人类则完全从心田意念天下出发。颠末数十万年的发展,他们的意念已非常强盛,可以用意念来作为能源,驱动他们的天下;可以用意念实现瞬间位移;以致可以通过意念,穿越时空...  m* v1 P- _. y- k

  d) {/ [9 I0 D! f6 H% f# d但物极必反,终极第一纪人类毁灭,也是由于过于笃信本身的意念,却完全8关注外在物质天下。这跟未来我们第二纪人类的毁灭缘故原由完全相反:只知道向物质天下索取,而从8关注本身的心田。1 e% I& q  Z1 D$ J- z
第二纪人类也毁灭后,第三纪人类,才气在前两纪的根本上,公道地均衡内在意念天下和外在物质天下之间的关系,人类由此真正大同,此乃后话。- [- K4 X/ z) a+ y

5 p  k5 e3 i; }( H/ P7 f7 N9 g2 @* }8 r$ n8 o
第一纪人类毁灭后,他们颠末数十万年发展的意念却仍被完备生存在本纪人类的大脑中,只是,从本纪一开始,绝大部门能量都被蒙蔽了。
$ y& m& t; }* `  K
6 m; N! n5 X  `
1 N; {/ ?  `6 y6 ^3 r言归正传,再回到人工智能:
% m' q) V' `1 H3 m+ j9 w到这里,各人该明白所谓人工智能的真实逻辑了:/ U6 ~8 w8 o3 h! X) \. R" h
人类以为本身的大脑8够智慧和强盛,渴望通过发展人工智能,让呆板向人类一样思考和学习,逾越人类,并一步步资助人类。以上逻辑是错误的,正确的应该是:人类如今的大脑就已经富足智慧了,只是人类没故意识到。
" P! w7 x5 S$ X& a( n% p" O2 [+ z1 u5 S! o2 J

$ ]( @& x4 S' E于是,答案已经出来了:大道至简,从人工智能“魔爪”中救济人类的,恰好就是智能本身,即:人脑。只要能将人类大脑蕴藏的能量全部发掘出来(以致只发掘一半),未来,就足以逃离或克服核战争、人工智能等全部毁灭性危急了。! _1 [; K( z) A4 _! l
* y8 A( L, b# L! H& }/ B
: ?# j" l* \) }+ \* M6 ~4 C* I& R
怎样发掘?这是天机,蹊径应该有多少:大概是佛,大概是基督,大概是周易,大概是...* f* V& S9 b; _, h$ q5 t( _0 B
而我已往八年多都在践行的蹊径是:时间的黄金螺旋。( ]% r* [% S  {% ]. X- V4 r2 s
以上全部蹊径,我想假如都是真理,牧攴斧将殊途同归。
6 Q1 P' P! q1 e% t' U% [7 r. _
. l3 w$ j) `  y. l3 |9 \
末了,假如你乐成发掘了自身大脑中的宇宙,准期拥有高等智慧,你该做些什么?未来,根据本纪人类的发展和自毁情况,分列组合,你可以有以下多少选择:9 v5 u7 I  c; D

# _5 K$ y" O1 J4 m& @7 n, T届时,假如未发展到超人工智能,且别的毁灭人类的因素也没到来(如核战争等),你可以选择将机密告知众人,人类一起到达高等智慧,实现大同,别的核武器、人工智能等危急也就8是个事儿了;4 O3 I$ q+ P% y) d
在以上1的情况下,你也可以选择保密,本身独自离开,离开这个天下:时空穿越、进入别的更高维度平行宇宙或别的;9 e+ x! y' [3 ]- s
假如未发展到超人工智能,但别的毁灭人类的因素已到来(如核战争等),你可以选择自救,离开这个天下,时空穿越、进入别的更高维度平行宇宙或别的;
; T) r4 u' i8 b5 x- \" G假如已发展到超人工智能,你可以如1一样,选择救济天下;
* e2 j& d3 r3 V3 ]: @假如已发展到超人工智能,你可以如2一样,选择自救,离开这个天下。5 T( p: @9 T* l( m. `2 R

# U# T# @* ]4 o1 K% T
- C. [8 P- d) d# q7 z这条自救的探索之路,我已经走了八年了。而如今,本纪人类已经提前打开了人工智能的“潘多拉魔盒”,那么,我更加必要加速步调,只争旦夕,继承探索!  @2 k6 f8 k& _8 I

% B1 d! ~2 s* j% q; u) a就从写完这篇文章开始!就从如今开始!
http://www.simu001.cn/x86818x1x1.html
最好的私募社区 | 第一私募论坛 | http://www.simu001.cn

精彩推荐

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|Archiver| ( 桂ICP备12001440号-3 )|网站地图

GMT+8, 2025-4-25 18:50 , Processed in 0.359293 second(s), 25 queries .

Powered by www.simu001.cn X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表