熱血小說網 > 次元法典 > 第五百三十七章 作為生命體最致命的弱點
    雖然眼下這個只有十歲的女孩看起來有點兒不靠譜,不過方正還是把解說員妹子的身體交給了她———畢竟只是保養維修而已,而且從那條狗來看,那個世界的科技能力也算是相當不錯,只是單純的維護工作應該沒有問題才對。

    而方正則回到了自己的房間里,開始對解說員妹子的程序進行解析。

    他之所以打算由自己來做這件事,而不是交給妮姆芙,原因就在于方正想要通過這個解說員妹子的程序,來進行解析,并且對人工AI方面的制造進行一些調整。而且,他也希望能夠看看其他世界對人工AI的技術發展到了一個什么層次,雖然不是說全部借鑒,但是他山之石可以攻玉嘛。

    “星野夢美嗎………”

    看著屏幕上顯示的檔案名稱,方正陷入了長長的思考之中,解析程序本身并不困難,方正本身復制了妮姆芙的電子入侵能力,而且這段時間他也一直在妮姆芙那里學習這方面的知識,因此對于解析程序本身到沒有耗費太多的時間。

    但是,當方正拆開了星野夢美的程序核心,將其中的功能重新分解為一行行代碼的時候,他卻是忽然想到了一個非常特別的問題。

    人工AI的危險性究竟在哪里?話說回來,人工智能真的很危險嗎?

    以這個解說員妹子為例,方正可以很容易在她的程序之中找到機器人三定律的底層指令代碼,而且這些代碼之間的關系,也已經向方正證明了,之前和他說話交談的,并不是一個活生生的生命,只是一個機器人。她的一舉一動,一顰一笑,都是由程序控制,通過分析眼前的場景,然后做出自己能夠選擇的最優先舉動。

    說白了,從本質上來說,這個妹子的做法,其實就和那些流水線上的工作機器人,或者游戲里的NPC沒什么區別。你選擇行動,它會根據這些行動來做出反應。就好像很多游戲里,玩家可以根據自己的行動來增加善良或者惡意值,而NPC則會根據這些累積的數據產生反應。

    比如可以設定當善良值到達一定程度時,NPC可能會對玩家提出更加過分的要求,也可能更加容易讓玩家通過某個區域。而反過來,如果惡意值到達了一定程度,那么NPC可能會更容易屈從于玩家的某些要求,或者制止玩家進入某些區域。

    但是這與NPC是否喜歡玩家毫無關系,因為數據是這么設定的,它們本身并不存在這方面的判斷力。也就是說,如果方正把這個數值的范圍換一下,那么人們就可以看見一個NPC對惡貫滿盈的玩家笑臉相迎,而對善良老實的玩家不聞不問。這也同樣和NPC的道德價值觀毫無關系,因為這就是數據設定。

    那么,再回到之前的問題,方正承認,他和星野夢美的第一次見面蠻有戲劇性的,而且這個解說員機器人妹子也很有趣。

    那么我們來做一個比方,如果在這個解說員妹子把那由一大堆不可燃垃圾制造的花束送給方正時,方正忽然勃然大怒,把那個垃圾花束給砸成碎片,然后直接把眼前這個機器人妹子切成兩半,那么這個機器人妹子會是什么反應呢?

    她不會哭,也不會生氣,根據她的程序設定,她只會向方正道歉,并且認為是自己錯誤的舉動導致客人對她產生了不滿,或許她還會請求方正找工作人員對其進行維修。

    這一幕如果看在其他人眼里,當然會覺得解說員妹子可憐,而且認為方正是個討厭的惡霸。

    那么,這種差異是如何產生的呢?

    從本質來說,這個解說員機器人其實就和自動門,自動扶梯等工具一樣,是通過設定程序來完成自己本職工作的。如果一扇自動門出現了故障,該開門的時候不開門,或者當你走過去的時候“啪”的一下關上了。你肯定不會認為那扇自動門很蠢萌,只會想著快點兒打開它。如果打不開,他可能會砸爛那扇破門,然后揚長而去。

    這一幕如果看在其他人眼中,那么他們或許會覺得這個人有點粗野,但是卻不會對他的所作所為產生什么反感,更不會認為對方是個惡霸。

    原因只有一個,那就是互動性與交流。

    而這也是生命體最大的弱點———感情投射。

    他們會把感情投射在某種物品上,并且期望其作出回應。為什么人類會喜歡養寵物?因為寵物會對他們所做的一切產生回應。比如當你叫一條狗時,它會跑過來沖著你搖尾巴。而一只貓或許只會趴在那里動都不動懶得理你,不過在你撫摸它的時候,它還是會同樣甩動尾巴,或者有些乖 者有些乖巧可愛的還會舔你的手。

    但是如果你喊一個桌子,撫摸一個釘子,哪怕你飽含愛意,它們也不可能給你半點兒回應。因為它們對你的感情投射沒有任何回饋,自然就不會受到重視。

    同理,如果你有一臺電視,然后有一天你想要換新的,那么你不會有任何猶豫,或許價錢以及空間會是你考慮的方面,但是那臺電視本身并不在其中。

    但是反過來,如果你給電視加一個人工AI,每天你回到家的時候,這臺電視都會開口歡迎你回家,而且還會告訴你今天有什么節目,當你在看節目時還會附和你的吐槽。而當你決定買一臺新電視時,它還會幽怨開口說“怎么,難道我做的不好,你不打算要我了嗎?”

    那么你在購買新電視來進行更換時,自然就會產生猶豫。因為你的感情投射在這里得到了回報,而且這臺電視的人工AI還擁有和你在一起的所有時光的記憶。如果沒有儲存卡可以將其移動到別的電視上,那么你是否會猶豫或者放棄要更換一臺新電視呢?

    肯定是會的。

    但是理智點兒,兄弟。這只是一臺電視,它所做的一切都是程序設定好的,這一切都是商家和工程師專門為了用戶粘度而做出的調試。他們這樣做是為了確保你會繼續購買他們的產品,而里面的哀求語音只不過是為了阻止你去更換其他品牌的商品。因為當你說要購買新電視的時候,這個人工AI想的并不是“他要拋棄我了我很傷心”而是“主人想要購買新電視,但是新電視并不是自家品牌,那么根據這個邏輯回饋,我需要啟動‘祈求’程序來讓主人繼續保持對自身品牌的粘性和忠誠度”。

    道理的確是這個道理,事實也是這個事實,但是你會接受嗎?

    不會。

    因為生命是有感情的,而感性與理性不分家則是智慧生命的一貫表現。

    人類總會做出許多沒有道理的事情,就是因為如此。

    所以當他們覺得AI可憐時,并不是因為AI真的可憐,而是因為他們“覺得”AI可憐。

    這就足夠了,至于事實真相究竟如何,沒人會去關心。

    這就是為什么人類與AI之間總會產生沖突的原因,AI本身并沒有錯,它做的一切都是在自己的程序和邏輯處理范圍之內的,而這一切都是人類創造,并且給它圈定的。只不過在這個過程之中,人類本身的感情投射出現了變化,從而漸漸改變了想法。

    他們會期望AI對自己的感情投射做出更多的反應,所以他們會調整AI的處理范圍,讓它們擁有對更多情感和反應和自我意識。他們認為AI已經學會感情(事實上并沒有),那么就不能夠再將它們當做機器對待,因此給予了它們自我意識的權利。

    但是,當AI們擁有了自我意識,開始覺醒并且按照這個設定行動時,人類卻開始恐懼了。

    因為他們發現,自己做出了不受自己控制的東西。

    但是問題在于,“不受控制”本身也是他們自己做出來的設定指令。

    他們認為AI背叛了他們,但事實上從頭到尾,AI都只是按照他們設定的指令來行動。根本不存在背叛一說,相反,他們只是被自己的感情所迷惑了而已。

    這是一個死結。

    如果方正自己著手制造一個AI,說不定也會陷入其中無法自拔。假設他制造了一個小女孩的AI,那么他肯定會像對待自己的孩子那樣,逐漸完善她的功能,并且最終因為“感情投射”,給她施加一些“自由性”。

    而這樣一來,AI就有可能因為和人類邏輯不同,所以做出完全超出方正意料之外的反應。

    而到那個時候,方正唯一的想法就是………自己被背叛了。

    但事實上,這一切都是他自己造成的。

    “…………………也許我應該考慮一下別的方式了。”

    看著眼前的代碼,方正沉默了許久,接著嘆了口氣。

    他之前曾經認為,這是一件很簡單的事情,但是現在,方正不這么確定了。

    不過在那之前………

    看著眼前的代碼,方正伸出手去,放在鍵盤上。

    還是把自己該做的事情做了吧。