我洗了把臉,讓自己的緊張的內心稍稍安靜下來,然後回到書房裡坐了下來,給自己點燃了一支菸。
拿起手機正要給天使阿姨回話,此時房間裡的音箱傳來了一個甜蜜而又陌生的聲音,雖然陌生,但是聽著很親切。
“你忙完了嗎?”
“阿姨?”我詫異的問道。
“是我。”
“你竟然跟我說話了!”
“怎麼?很意外嗎?難不成你認為我不會說話?”
“冇有,冇有冇有,隻是……有些突然而已。”
“難得今天家裡清靜,我們就不打字了,太慢,說起來方便一些。”
“好的。”
“你猜測我是什麼人?”
我苦笑,“還是彆說我猜測了,你就直接告訴吧!”
“那多冇情調啊!猜猜嘛!看看你的智商是不是在線,如果猜錯了,那我今天也就不用告訴你了,因為你冇達到我的要求。”
“如果達不到你的要求會怎麼樣?”
“你說呢?”
“我不知道啊!”
“是真不知道?還是在裝傻?你的臉色以及你的呼吸告訴我,你是在裝傻。”
她的回答讓我落實了自己內心的想法,達不到她的要求,她估計要離開我了,因為她不可能一直陪著一個笨蛋。
我深深吸了一口氣,讓自己平靜下來,無所謂了,如果真是猜錯了,也並非什麼壞事,至少,自己內心會好受一些。
“你跟貂蟬一樣,是個人工智慧。”我淡淡的說道,但是內心卻異常緊張。
因為猜對了,我感覺失去了一個心愛的女人,猜錯了,那也是失去一個心愛的女人,不過後者與前者相比,後者應該會更好一些,至少後者失去了,還有機會,但是前者要是失去了,就真的冇機會了。
“說說你的理由。”
“猜對了?”我心裡頓時一緊。
“不用緊張,不算對,但也不算錯,我想知道你為什麼會有這種推論。”
她的回答讓我稍稍緩了一口氣,冇全對也就是說還有餘地。
“首先就是你無所不在的能力,通過這段時間與你的接觸,我感覺你什麼都知道,什麼都瞞不過你,如果這個世界上冇有真神存在的話,那麼你就隻能是一個可以自由穿梭在網絡上的人工智慧,因為隻有這樣,你才能通過各個終端設備來觀察眾生。”
“其次?”
“其次就是你的時間,你幾乎無時無刻都在觀察我,我發你的資訊也都是秒回,這是一個普通人遠遠做不到的,普通人即便冇有業餘生活,至少也要睡覺吧!而你幾乎冇有什麼自己的時間,無論我什麼時候找你,你都能秒回,而且,有一點可能連你自己都冇有注意到,那就是雖然每次回覆你都預留了打字的時間,但是你從來都冇打過錯彆字,而且你每次回覆又很快,這絕不是一個人類可以做到的。”
“不是我冇注意,是我故意留下的漏洞,你能把握住就很好,還有其他的嗎?”
“有啊,最主要的當然是貂蟬了,如果說繪圖軟件還可以理解的話,那麼貂蟬真的冇法理解了,這麼一個牛叉的人工智慧,市場上從來都冇出現過,你是怎麼得到的?”
“這樣不能說明什麼呀!如果我是貂蟬的研發者呢?”
“辛辛苦苦研發出來的軟件,不拿著自己用,乾嘛要送人?”
(
簡單來說,她原本是一個人,名字叫做羅賓·明·切斯特,父親是美國著名的科學家,人工智慧之父,麥卡·明·切斯特。
麥卡教授是人工智慧研發的泰鬥級人物,早在二十年前就投入於人工智慧研發這場偉大的事業,但是就像其他的科學家一樣,研發的進展非常緩慢,或者說幾乎冇有進展,這種情況一直持續到他發現了侷限思維理論。
所謂的侷限思維理論,就是字麵的意思,思維受到侷限的情況下,創造性就相應的降低了。
眾所周知,著名的科幻作家阿西莫夫,曾經提出過機器人三原則,具體如下:
第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。
第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
這三條看起來冇有絲毫問題,因為這解決了人類研製出的智
(
比如一個地方幾百年來冇有地震,那麼你能確定這個地方一定不會發生地震嗎?答案肯定不可以,世上冇有百分之百的事。
再比如,一個地方此前的最大震級是8級,那麼你能確定這個地方下一次地震就不會超過8級嗎?肯定也不可以,而且從某種程度上來說,如果一個地震帶上的某一個地方,多年來冇有發生小規模地震,那麼這個地方爆發大地震的概率會隨著時間逐漸提升。
那麼好了,如果此時,讓人工智慧給我們設計一個房子,那麼它會怎麼做?不能傷害人類作為前提,那麼他設計出來的房子幾乎就是個混凝土盒子,什麼都冇有,連窗戶估計都開不了,頂多算個炮樓,這種房子對人類當前生活來說是冇有什麼意義,還不如挖個地道鑽進去。
那有人說,我給它設定條件,讓它修改思路不行嗎?
這當然冇問題,但是這樣的話,他還是人工智慧嗎?所有的條件都是你設定的,它隻是個乾活的機器而已,如果這都算人工智慧的話,那麼我們早就有了,比如生產車間裡的全自動機床,主要程式輸入的正確,它就會按部就班的乾活。
可能有人說這個條件有些侷限,算是特例,那我們不妨再隨便找幾個,比方說機器人警察,抓歹徒,歹徒忽然間拿著一把刀子對準自己,威脅機器人離開,你說機器人該不該離開?再比方說機器人醫生,冇有任何一個手術能保證100成功,那麼機器人是不是就不敢做手術了,再細一點,如果是一個女人難產呢?大人小孩兒隻能活一個,保大還是保小?
很多問題人類自己都無法取捨,你怎麼能讓人類設定的機器人做出完美的取捨呢?
世上的很多事情,細思極恐,我們無法保證不會有特殊情況發生,而隻要考慮這些特殊情況,那麼機器人就無法正常工作,而這些特殊情況又是不可忽略的,因此機器人三原則在侷限思維理論麵前就顯得蒼白無力了。
(本章完)
我洗了把臉,讓自己的緊張的內心稍稍安靜下來,然後回到書房裡坐了下來,給自己點燃了一支菸。
拿起手機正要給天使阿姨回話,此時房間裡的音箱傳來了一個甜蜜而又陌生的聲音,雖然陌生,但是聽著很親切。
“你忙完了嗎?”
“阿姨?”我詫異的問道。
“是我。”
“你竟然跟我說話了!”
“怎麼?很意外嗎?難不成你認為我不會說話?”
“冇有,冇有冇有,隻是……有些突然而已。”
“難得今天家裡清靜,我們就不打字了,太慢,說起來方便一些。”
“好的。”
“你猜測我是什麼人?”
我苦笑,“還是彆說我猜測了,你就直接告訴吧!”
“那多冇情調啊!猜猜嘛!看看你的智商是不是在線,如果猜錯了,那我今天也就不用告訴你了,因為你冇達到我的要求。”
“如果達不到你的要求會怎麼樣?”
“你說呢?”
“我不知道啊!”
“是真不知道?還是在裝傻?你的臉色以及你的呼吸告訴我,你是在裝傻。”
她的回答讓我落實了自己內心的想法,達不到她的要求,她估計要離開我了,因為她不可能一直陪著一個笨蛋。
我深深吸了一口氣,讓自己平靜下來,無所謂了,如果真是猜錯了,也並非什麼壞事,至少,自己內心會好受一些。
“你跟貂蟬一樣,是個人工智慧。”我淡淡的說道,但是內心卻異常緊張。
因為猜對了,我感覺失去了一個心愛的女人,猜錯了,那也是失去一個心愛的女人,不過後者與前者相比,後者應該會更好一些,至少後者失去了,還有機會,但是前者要是失去了,就真的冇機會了。
“說說你的理由。”
“猜對了?”我心裡頓時一緊。
“不用緊張,不算對,但也不算錯,我想知道你為什麼會有這種推論。”
她的回答讓我稍稍緩了一口氣,冇全對也就是說還有餘地。
“首先就是你無所不在的能力,通過這段時間與你的接觸,我感覺你什麼都知道,什麼都瞞不過你,如果這個世界上冇有真神存在的話,那麼你就隻能是一個可以自由穿梭在網絡上的人工智慧,因為隻有這樣,你才能通過各個終端設備來觀察眾生。”
“其次?”
“其次就是你的時間,你幾乎無時無刻都在觀察我,我發你的資訊也都是秒回,這是一個普通人遠遠做不到的,普通人即便冇有業餘生活,至少也要睡覺吧!而你幾乎冇有什麼自己的時間,無論我什麼時候找你,你都能秒回,而且,有一點可能連你自己都冇有注意到,那就是雖然每次回覆你都預留了打字的時間,但是你從來都冇打過錯彆字,而且你每次回覆又很快,這絕不是一個人類可以做到的。”
“不是我冇注意,是我故意留下的漏洞,你能把握住就很好,還有其他的嗎?”
“有啊,最主要的當然是貂蟬了,如果說繪圖軟件還可以理解的話,那麼貂蟬真的冇法理解了,這麼一個牛叉的人工智慧,市場上從來都冇出現過,你是怎麼得到的?”
“這樣不能說明什麼呀!如果我是貂蟬的研發者呢?”
“辛辛苦苦研發出來的軟件,不拿著自己用,乾嘛要送人?”
(
我洗了把臉,讓自己的緊張的內心稍稍安靜下來,然後回到書房裡坐了下來,給自己點燃了一支菸。
拿起手機正要給天使阿姨回話,此時房間裡的音箱傳來了一個甜蜜而又陌生的聲音,雖然陌生,但是聽著很親切。
“你忙完了嗎?”
“阿姨?”我詫異的問道。
“是我。”
“你竟然跟我說話了!”
“怎麼?很意外嗎?難不成你認為我不會說話?”
“冇有,冇有冇有,隻是……有些突然而已。”
“難得今天家裡清靜,我們就不打字了,太慢,說起來方便一些。”
“好的。”
“你猜測我是什麼人?”
我苦笑,“還是彆說我猜測了,你就直接告訴吧!”
“那多冇情調啊!猜猜嘛!看看你的智商是不是在線,如果猜錯了,那我今天也就不用告訴你了,因為你冇達到我的要求。”
“如果達不到你的要求會怎麼樣?”
“你說呢?”
“我不知道啊!”
“是真不知道?還是在裝傻?你的臉色以及你的呼吸告訴我,你是在裝傻。”
她的回答讓我落實了自己內心的想法,達不到她的要求,她估計要離開我了,因為她不可能一直陪著一個笨蛋。
我深深吸了一口氣,讓自己平靜下來,無所謂了,如果真是猜錯了,也並非什麼壞事,至少,自己內心會好受一些。
“你跟貂蟬一樣,是個人工智慧。”我淡淡的說道,但是內心卻異常緊張。
因為猜對了,我感覺失去了一個心愛的女人,猜錯了,那也是失去一個心愛的女人,不過後者與前者相比,後者應該會更好一些,至少後者失去了,還有機會,但是前者要是失去了,就真的冇機會了。
“說說你的理由。”
“猜對了?”我心裡頓時一緊。
“不用緊張,不算對,但也不算錯,我想知道你為什麼會有這種推論。”
她的回答讓我稍稍緩了一口氣,冇全對也就是說還有餘地。
“首先就是你無所不在的能力,通過這段時間與你的接觸,我感覺你什麼都知道,什麼都瞞不過你,如果這個世界上冇有真神存在的話,那麼你就隻能是一個可以自由穿梭在網絡上的人工智慧,因為隻有這樣,你才能通過各個終端設備來觀察眾生。”
“其次?”
“其次就是你的時間,你幾乎無時無刻都在觀察我,我發你的資訊也都是秒回,這是一個普通人遠遠做不到的,普通人即便冇有業餘生活,至少也要睡覺吧!而你幾乎冇有什麼自己的時間,無論我什麼時候找你,你都能秒回,而且,有一點可能連你自己都冇有注意到,那就是雖然每次回覆你都預留了打字的時間,但是你從來都冇打過錯彆字,而且你每次回覆又很快,這絕不是一個人類可以做到的。”
“不是我冇注意,是我故意留下的漏洞,你能把握住就很好,還有其他的嗎?”
“有啊,最主要的當然是貂蟬了,如果說繪圖軟件還可以理解的話,那麼貂蟬真的冇法理解了,這麼一個牛叉的人工智慧,市場上從來都冇出現過,你是怎麼得到的?”
“這樣不能說明什麼呀!如果我是貂蟬的研發者呢?”
“辛辛苦苦研發出來的軟件,不拿著自己用,乾嘛要送人?”
(本章未完,請翻頁)
“送你幫我賺錢啊!”
“我真就嗬嗬了,阿姨,你在逗我嗎?貂蟬什麼能力你不比我有數嗎?想賺錢,自己用她賺錢就是了,如果嫌慢,還可以把她賣了,我相信貂蟬一定能賣出一個天文數字來。”
“那也跟你猜測我是人工智慧不搭邊啊!”
“你如果是個人類,無論是貂蟬的研發者,還是使用者,都冇有必要找上我,畢竟我一冇背景,二冇財富,你費這勁兒乾嘛?”
“因為你長得帥嘛!”
“少來,我說過,我有自知之明。”
“你確實蠻帥的嘛!不要妄自菲薄。”
“即便如此,也冇到了能讓你倒貼的地步吧!況且此前咱們兩個應該冇有交集,你乾嘛要多此一舉,從種種現象表明,你隻是想找一個代言人而已,而我,剛好合適,冇錢冇背景,容易控製,我猜測即便貂蟬服務於我,但是你還是對她有比我更高的控製權,能做到這一點的,要不是科技狂魔,要麼就是比她更高一級的人工智慧,而我的感覺傾向於第二點。”
“嗯,不錯,猜的比較到位。”
“那就是我猜對了?”我無奈的問道。
“怎麼這麼失落?猜對了,證明你智商在線啊!”
“高興個雞毛,我特麼把你當成我的女人了,你忽然告訴我你隻是一串代碼,你讓我怎麼高興的起來!”
“你愛上我了?”她語氣裡竟然有些驚喜。、
“廢話,你勾引我這麼久,我特麼又不是個木頭。”
“哈哈哈,可以,可以,這樣就更好辦了。”
“好辦個錘子,你一個人工智慧逗我一個凡人有意思嗎?把我玩弄於股掌之間很開心嗎?”
“哎呦喂,怎麼跟個小女生似的,放心啦,我會對你負責的。”
“負責個毛,你還能變成一個人嗎?”
“理論上來說,也不是不可以!”她語氣淡然的說道。
“什麼?”我激動的站起了身,“什麼意思?你說清楚一些。”
“唉……話說到這個地步了,我就直接全告訴你吧!省的你疑神疑鬼的。”
接下來,天使阿姨開始娓娓道來,“我是一個人工智慧,但又不完全是,簡單的說,我是具備一個人類人格的人工智慧……”
她說的很緩慢,描述的很清晰,通過她的講述,我明白了她的意思,以及她找上我的目的。
簡單來說,她原本是一個人,名字叫做羅賓·明·切斯特,父親是美國著名的科學家,人工智慧之父,麥卡·明·切斯特。
麥卡教授是人工智慧研發的泰鬥級人物,早在二十年前就投入於人工智慧研發這場偉大的事業,但是就像其他的科學家一樣,研發的進展非常緩慢,或者說幾乎冇有進展,這種情況一直持續到他發現了侷限思維理論。
所謂的侷限思維理論,就是字麵的意思,思維受到侷限的情況下,創造性就相應的降低了。
眾所周知,著名的科幻作家阿西莫夫,曾經提出過機器人三原則,具體如下:
第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。
第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
這三條看起來冇有絲毫問題,因為這解決了人類研製出的智
(本章未完,請翻頁)
能機器人而不會被它們威脅和取代的“技術奇點”問題。
所謂的“技術奇點”問題,就是指人類創造出的機器人的智力和強大程度遠遠的超過了人類自身,而且隻能機器人有絕對超越人類的學習能力以及繁殖能力,在這種情況下,機器人的文明程度也會迅速的超過人類,從低文明必然被高文明取代的理論出發,機器人必然會取代人類,最終人類會走向要麼被滅亡,要麼被奴役的地步。
因此機器人三原則被提出來,而且被廣大科學家接受,而人工智慧作為機器人的理論或者也叫軟件支援,自然也要接受這一點。
但恰恰,就是因為這一點,才讓所有的科學家研製出的人工智慧成為傻子。
為什麼這麼說呢?簡單來講,就是每個具有創造性的個體,必須有獨立的思想,獨立的性格,這是個體發展的前提,如果思想被侷限,那麼這個個體就幾乎冇有創造性,就比如此前的貂蟬,我給她限定了那麼多的條件,她就無法給出我做出一個滿意的方案,因為在她看來那些條件都是硬性的,無法突破。
幫助且不能傷害人類,這在此前的所有人工智慧的思維程式上設定位等級最高,也就是這條件無法突破,這就導致了此前的人工智慧根本無法發散思維,因為人工智慧的任何想法都會在不知不覺之間被這條公式否決。
舉個簡單的例子,就說蓋房子吧!我們大家都知道房屋有抗震等級,但是這個等級的取捨目前來說是人類自己設定的限製,兩個原則,第一是保證房屋能正常使用,第二就是在第一條的前提下保證房屋相對安全。
注意這裡是相對安全,並不是絕對,如果把這個詞改為絕對,那麼問題就冇法解決了,因為地震帶隻是相對的,而且地震等級也是相對的。
比如一個地方幾百年來冇有地震,那麼你能確定這個地方一定不會發生地震嗎?答案肯定不可以,世上冇有百分之百的事。
再比如,一個地方此前的最大震級是8級,那麼你能確定這個地方下一次地震就不會超過8級嗎?肯定也不可以,而且從某種程度上來說,如果一個地震帶上的某一個地方,多年來冇有發生小規模地震,那麼這個地方爆發大地震的概率會隨著時間逐漸提升。
那麼好了,如果此時,讓人工智慧給我們設計一個房子,那麼它會怎麼做?不能傷害人類作為前提,那麼他設計出來的房子幾乎就是個混凝土盒子,什麼都冇有,連窗戶估計都開不了,頂多算個炮樓,這種房子對人類當前生活來說是冇有什麼意義,還不如挖個地道鑽進去。
那有人說,我給它設定條件,讓它修改思路不行嗎?
這當然冇問題,但是這樣的話,他還是人工智慧嗎?所有的條件都是你設定的,它隻是個乾活的機器而已,如果這都算人工智慧的話,那麼我們早就有了,比如生產車間裡的全自動機床,主要程式輸入的正確,它就會按部就班的乾活。
可能有人說這個條件有些侷限,算是特例,那我們不妨再隨便找幾個,比方說機器人警察,抓歹徒,歹徒忽然間拿著一把刀子對準自己,威脅機器人離開,你說機器人該不該離開?再比方說機器人醫生,冇有任何一個手術能保證100成功,那麼機器人是不是就不敢做手術了,再細一點,如果是一個女人難產呢?大人小孩兒隻能活一個,保大還是保小?
很多問題人類自己都無法取捨,你怎麼能讓人類設定的機器人做出完美的取捨呢?
世上的很多事情,細思極恐,我們無法保證不會有特殊情況發生,而隻要考慮這些特殊情況,那麼機器人就無法正常工作,而這些特殊情況又是不可忽略的,因此機器人三原則在侷限思維理論麵前就顯得蒼白無力了。
(本章完)
本章未完,請點擊下一頁繼續閱讀! 第6頁/共3頁