雖然眼下這個隻有十歲的女孩看起來有點兒不靠譜,不過方正還是把解說員妹子的身體交給了她———畢竟隻是保養維修而已,而且從那條狗來看,那個世界的科技能力也算是相當不錯,隻是單純的維護工作應該沒有問題才對。
而方正則迴到了自己的房間裏,開始對解說員妹子的程序進行解析。
他之所以打算由自己來做這件事,而不是交給妮姆芙,原因就在於方正想要通過這個解說員妹子的程序,來進行解析,並且對人工ai方麵的製造進行一些調整。而且,他也希望能夠看看其他世界對人工ai的技術發展到了一個什麽層次,雖然不是說全部借鑒,但是他山之石可以攻玉嘛。
“星野夢美嗎………”
看著屏幕上顯示的檔案名稱,方正陷入了長長的思考之中,解析程序本身並不困難,方正本身複製了妮姆芙的電子入侵能力,而且這段時間他也一直在妮姆芙那裏學習這方麵的知識,因此對於解析程序本身到沒有耗費太多的時間。
但是,當方正拆開了星野夢美的程序核心,將其中的功能重新分解為一行行代碼的時候,他卻是忽然想到了一個非常特別的問題。
人工ai的危險性究竟在哪裏?話說迴來,人工智能真的很危險嗎?
以這個解說員妹子為例,方正可以很容易在她的程序之中找到機器人三定律的底層指令代碼,而且這些代碼之間的關係,也已經向方正證明了,之前和他說話交談的,並不是一個活生生的生命,隻是一個機器人。她的一舉一動,一顰一笑,都是由程序控製,通過分析眼前的場景,然後做出自己能夠選擇的最優先舉動。
說白了,從本質上來說,這個妹子的做法,其實就和那些流水線上的工作機器人,或者遊戲裏的npc沒什麽區別。你選擇行動,它會根據這些行動來做出反應。就好像很多遊戲裏,玩家可以根據自己的行動來增加善良或者惡意值,而npc則會根據這些累積的數據產生反應。
比如可以設定當善良值到達一定程度時,npc可能會對玩家提出更加過分的要求,也可能更加容易讓玩家通過某個區域。而反過來,如果惡意值到達了一定程度,那麽npc可能會更容易屈從於玩家的某些要求,或者製止玩家進入某些區域。
但是這與npc是否喜歡玩家毫無關係,因為數據是這麽設定的,它們本身並不存在這方麵的判斷力。也就是說,如果方正把這個數值的範圍換一下,那麽人們就可以看見一個npc對惡貫滿盈的玩家笑臉相迎,而對善良老實的玩家不聞不問。這也同樣和npc的道德價值觀毫無關係,因為這就是數據設定。
那麽,再迴到之前的問題,方正承認,他和星野夢美的第一次見麵蠻有戲劇性的,而且這個解說員機器人妹子也很有趣。
那麽我們來做一個比方,如果在這個解說員妹子把那由一大堆不可燃垃圾製造的花束送給方正時,方正忽然勃然大怒,把那個垃圾花束給砸成碎片,然後直接把眼前這個機器人妹子切成兩半,那麽這個機器人妹子會是什麽反應呢?
她不會哭,也不會生氣,根據她的程序設定,她隻會向方正道歉,並且認為是自己錯誤的舉動導致客人對她產生了不滿,或許她還會請求方正找工作人員對其進行維修。
這一幕如果看在其他人眼裏,當然會覺得解說員妹子可憐,而且認為方正是個討厭的惡霸。
那麽,這種差異是如何產生的呢?
從本質來說,這個解說員機器人其實就和自動門,自動扶梯等工具一樣,是通過設定程序來完成自己本職工作的。如果一扇自動門出現了故障,該開門的時候不開門,或者當你走過去的時候“啪”的一下關上了。你肯定不會認為那扇自動門很蠢萌,隻會想著快點兒打開它。如果打不開,他可能會砸爛那扇破門,然後揚長而去。
這一幕如果看在其他人眼中,那麽他們或許會覺得這個人有點粗野,但是卻不會對他的所作所為產生什麽反感,更不會認為對方是個惡霸。
原因隻有一個,那就是互動性與交流。
而這也是生命體最大的弱點———感情投射。
他們會把感情投射在某種物品上,並且期望其作出迴應。為什麽人類會喜歡養寵物?因為寵物會對他們所做的一切產生迴應。比如當你叫一條狗時,它會跑過來衝著你搖尾巴。而一隻貓或許隻會趴在那裏動都不動懶得理你,不過在你撫摸它的時候,它還是會同樣甩動尾巴,或者有些乖巧可愛的還會舔你的手。
但是如果你喊一個桌子,撫摸一個釘子,哪怕你飽含愛意,它們也不可能給你半點兒迴應。因為它們對你的感情投射沒有任何迴饋,自然就不會受到重視。
同理,如果你有一台電視,然後有一天你想要換新的,那麽你不會有任何猶豫,或許價錢以及空間會是你考慮的方麵,但是那台電視本身並不在其中。
但是反過來,如果你給電視加一個人工ai,每天你迴到家的時候,這台電視都會開口歡迎你迴家,而且還會告訴你今天有什麽節目,當你在看節目時還會附和你的吐槽。而當你決定買一台新電視時,它還會幽怨開口說“怎麽,難道我做的不好,你不打算要我了嗎?”
那麽你在購買新電視來進行更換時,自然就會產生猶豫。因為你的感情投射在這裏得到了迴報,而且這台電視的人工ai還擁有和你在一起的所有時光的記憶。如果沒有儲存卡可以將其移動到別的電視上,那麽你是否會猶豫或者放棄要更換一台新電視呢?
肯定是會的。
但是理智點兒,兄弟。這隻是一台電視,它所做的一切都是程序設定好的,這一切都是商家和工程師專門為了用戶粘度而做出的調試。他們這樣做是為了確保你會繼續購買他們的產品,而裏麵的哀求語音隻不過是為了阻止你去更換其他品牌的商品。因為當你說要購買新電視的時候,這個人工ai想的並不是“他要拋棄我了我很傷心”而是“主人想要購買新電視,但是新電視並不是自家品牌,那麽根據這個邏輯迴饋,我需要啟動‘祈求’程序來讓主人繼續保持對自身品牌的粘性和忠誠度”。
道理的確是這個道理,事實也是這個事實,但是你會接受嗎?
不會。
因為生命是有感情的,而感性與理性不分家則是智慧生命的一貫表現。
人類總會做出許多沒有道理的事情,就是因為如此。
所以當他們覺得ai可憐時,並不是因為ai真的可憐,而是因為他們“覺得”ai可憐。
這就足夠了,至於事實真相究竟如何,沒人會去關心。
這就是為什麽人類與ai之間總會產生衝突的原因,ai本身並沒有錯,它做的一切都是在自己的程序和邏輯處理範圍之內的,而這一切都是人類創造,並且給它圈定的。隻不過在這個過程之中,人類本身的感情投射出現了變化,從而漸漸改變了想法。
他們會期望ai對自己的感情投射做出更多的反應,所以他們會調整ai的處理範圍,讓它們擁有對更多情感和反應和自我意識。他們認為ai已經學會感情(事實上並沒有),那麽就不能夠再將它們當做機器對待,因此給予了它們自我意識的權利。
但是,當ai們擁有了自我意識,開始覺醒並且按照這個設定行動時,人類卻開始恐懼了。
因為他們發現,自己做出了不受自己控製的東西。
但是問題在於,“不受控製”本身也是他們自己做出來的設定指令。
他們認為ai背叛了他們,但事實上從頭到尾,ai都隻是按照他們設定的指令來行動。根本不存在背叛一說,相反,他們隻是被自己的感情所迷惑了而已。
這是一個死結。
如果方正自己著手製造一個ai,說不定也會陷入其中無法自拔。假設他製造了一個小女孩的ai,那麽他肯定會像對待自己的孩子那樣,逐漸完善她的功能,並且最終因為“感情投射”,給她施加一些“自由性”。
而這樣一來,ai就有可能因為和人類邏輯不同,所以做出完全超出方正意料之外的反應。
而到那個時候,方正唯一的想法就是………自己被背叛了。
但事實上,這一切都是他自己造成的。
“…………………也許我應該考慮一下別的方式了。”
看著眼前的代碼,方正沉默了許久,接著歎了口氣。
他之前曾經認為,這是一件很簡單的事情,但是現在,方正不這麽確定了。
不過在那之前………
看著眼前的代碼,方正伸出手去,放在鍵盤上。
還是把自己該做的事情做了吧。
而方正則迴到了自己的房間裏,開始對解說員妹子的程序進行解析。
他之所以打算由自己來做這件事,而不是交給妮姆芙,原因就在於方正想要通過這個解說員妹子的程序,來進行解析,並且對人工ai方麵的製造進行一些調整。而且,他也希望能夠看看其他世界對人工ai的技術發展到了一個什麽層次,雖然不是說全部借鑒,但是他山之石可以攻玉嘛。
“星野夢美嗎………”
看著屏幕上顯示的檔案名稱,方正陷入了長長的思考之中,解析程序本身並不困難,方正本身複製了妮姆芙的電子入侵能力,而且這段時間他也一直在妮姆芙那裏學習這方麵的知識,因此對於解析程序本身到沒有耗費太多的時間。
但是,當方正拆開了星野夢美的程序核心,將其中的功能重新分解為一行行代碼的時候,他卻是忽然想到了一個非常特別的問題。
人工ai的危險性究竟在哪裏?話說迴來,人工智能真的很危險嗎?
以這個解說員妹子為例,方正可以很容易在她的程序之中找到機器人三定律的底層指令代碼,而且這些代碼之間的關係,也已經向方正證明了,之前和他說話交談的,並不是一個活生生的生命,隻是一個機器人。她的一舉一動,一顰一笑,都是由程序控製,通過分析眼前的場景,然後做出自己能夠選擇的最優先舉動。
說白了,從本質上來說,這個妹子的做法,其實就和那些流水線上的工作機器人,或者遊戲裏的npc沒什麽區別。你選擇行動,它會根據這些行動來做出反應。就好像很多遊戲裏,玩家可以根據自己的行動來增加善良或者惡意值,而npc則會根據這些累積的數據產生反應。
比如可以設定當善良值到達一定程度時,npc可能會對玩家提出更加過分的要求,也可能更加容易讓玩家通過某個區域。而反過來,如果惡意值到達了一定程度,那麽npc可能會更容易屈從於玩家的某些要求,或者製止玩家進入某些區域。
但是這與npc是否喜歡玩家毫無關係,因為數據是這麽設定的,它們本身並不存在這方麵的判斷力。也就是說,如果方正把這個數值的範圍換一下,那麽人們就可以看見一個npc對惡貫滿盈的玩家笑臉相迎,而對善良老實的玩家不聞不問。這也同樣和npc的道德價值觀毫無關係,因為這就是數據設定。
那麽,再迴到之前的問題,方正承認,他和星野夢美的第一次見麵蠻有戲劇性的,而且這個解說員機器人妹子也很有趣。
那麽我們來做一個比方,如果在這個解說員妹子把那由一大堆不可燃垃圾製造的花束送給方正時,方正忽然勃然大怒,把那個垃圾花束給砸成碎片,然後直接把眼前這個機器人妹子切成兩半,那麽這個機器人妹子會是什麽反應呢?
她不會哭,也不會生氣,根據她的程序設定,她隻會向方正道歉,並且認為是自己錯誤的舉動導致客人對她產生了不滿,或許她還會請求方正找工作人員對其進行維修。
這一幕如果看在其他人眼裏,當然會覺得解說員妹子可憐,而且認為方正是個討厭的惡霸。
那麽,這種差異是如何產生的呢?
從本質來說,這個解說員機器人其實就和自動門,自動扶梯等工具一樣,是通過設定程序來完成自己本職工作的。如果一扇自動門出現了故障,該開門的時候不開門,或者當你走過去的時候“啪”的一下關上了。你肯定不會認為那扇自動門很蠢萌,隻會想著快點兒打開它。如果打不開,他可能會砸爛那扇破門,然後揚長而去。
這一幕如果看在其他人眼中,那麽他們或許會覺得這個人有點粗野,但是卻不會對他的所作所為產生什麽反感,更不會認為對方是個惡霸。
原因隻有一個,那就是互動性與交流。
而這也是生命體最大的弱點———感情投射。
他們會把感情投射在某種物品上,並且期望其作出迴應。為什麽人類會喜歡養寵物?因為寵物會對他們所做的一切產生迴應。比如當你叫一條狗時,它會跑過來衝著你搖尾巴。而一隻貓或許隻會趴在那裏動都不動懶得理你,不過在你撫摸它的時候,它還是會同樣甩動尾巴,或者有些乖巧可愛的還會舔你的手。
但是如果你喊一個桌子,撫摸一個釘子,哪怕你飽含愛意,它們也不可能給你半點兒迴應。因為它們對你的感情投射沒有任何迴饋,自然就不會受到重視。
同理,如果你有一台電視,然後有一天你想要換新的,那麽你不會有任何猶豫,或許價錢以及空間會是你考慮的方麵,但是那台電視本身並不在其中。
但是反過來,如果你給電視加一個人工ai,每天你迴到家的時候,這台電視都會開口歡迎你迴家,而且還會告訴你今天有什麽節目,當你在看節目時還會附和你的吐槽。而當你決定買一台新電視時,它還會幽怨開口說“怎麽,難道我做的不好,你不打算要我了嗎?”
那麽你在購買新電視來進行更換時,自然就會產生猶豫。因為你的感情投射在這裏得到了迴報,而且這台電視的人工ai還擁有和你在一起的所有時光的記憶。如果沒有儲存卡可以將其移動到別的電視上,那麽你是否會猶豫或者放棄要更換一台新電視呢?
肯定是會的。
但是理智點兒,兄弟。這隻是一台電視,它所做的一切都是程序設定好的,這一切都是商家和工程師專門為了用戶粘度而做出的調試。他們這樣做是為了確保你會繼續購買他們的產品,而裏麵的哀求語音隻不過是為了阻止你去更換其他品牌的商品。因為當你說要購買新電視的時候,這個人工ai想的並不是“他要拋棄我了我很傷心”而是“主人想要購買新電視,但是新電視並不是自家品牌,那麽根據這個邏輯迴饋,我需要啟動‘祈求’程序來讓主人繼續保持對自身品牌的粘性和忠誠度”。
道理的確是這個道理,事實也是這個事實,但是你會接受嗎?
不會。
因為生命是有感情的,而感性與理性不分家則是智慧生命的一貫表現。
人類總會做出許多沒有道理的事情,就是因為如此。
所以當他們覺得ai可憐時,並不是因為ai真的可憐,而是因為他們“覺得”ai可憐。
這就足夠了,至於事實真相究竟如何,沒人會去關心。
這就是為什麽人類與ai之間總會產生衝突的原因,ai本身並沒有錯,它做的一切都是在自己的程序和邏輯處理範圍之內的,而這一切都是人類創造,並且給它圈定的。隻不過在這個過程之中,人類本身的感情投射出現了變化,從而漸漸改變了想法。
他們會期望ai對自己的感情投射做出更多的反應,所以他們會調整ai的處理範圍,讓它們擁有對更多情感和反應和自我意識。他們認為ai已經學會感情(事實上並沒有),那麽就不能夠再將它們當做機器對待,因此給予了它們自我意識的權利。
但是,當ai們擁有了自我意識,開始覺醒並且按照這個設定行動時,人類卻開始恐懼了。
因為他們發現,自己做出了不受自己控製的東西。
但是問題在於,“不受控製”本身也是他們自己做出來的設定指令。
他們認為ai背叛了他們,但事實上從頭到尾,ai都隻是按照他們設定的指令來行動。根本不存在背叛一說,相反,他們隻是被自己的感情所迷惑了而已。
這是一個死結。
如果方正自己著手製造一個ai,說不定也會陷入其中無法自拔。假設他製造了一個小女孩的ai,那麽他肯定會像對待自己的孩子那樣,逐漸完善她的功能,並且最終因為“感情投射”,給她施加一些“自由性”。
而這樣一來,ai就有可能因為和人類邏輯不同,所以做出完全超出方正意料之外的反應。
而到那個時候,方正唯一的想法就是………自己被背叛了。
但事實上,這一切都是他自己造成的。
“…………………也許我應該考慮一下別的方式了。”
看著眼前的代碼,方正沉默了許久,接著歎了口氣。
他之前曾經認為,這是一件很簡單的事情,但是現在,方正不這麽確定了。
不過在那之前………
看著眼前的代碼,方正伸出手去,放在鍵盤上。
還是把自己該做的事情做了吧。