設置

第332章:并不完美,但卻靠譜

  諸如如何辨識披著人類面孔的機器人?還有相關的法律問題,在舉行產品發布會的之前,確切的來說開發者大會召開之際,政府方面的人就找華盛科技約談去了。頂點小說23

  關于如何辨識機器人的這一點,很好解決,只需要開口是帶著些許電音便能立馬辨析出來,實際上這也沒什么,政府的顧慮主要是來自于社會安全問題。

  政府擔心的是一些別有用心的人利用機器人來做危害社會安全與犯罪的事情,任何科技產物都是帶有兩面性的,都是一把雙刃劍,關鍵在于如何把正面積極的作用發布會出來,鎖住負面作用的問題。

  這些作為開發者的黎川自然都想到了,政府方面牽頭帶著一批京都大學的法律顧問團隊,還有國內的頂尖ai專家和黎川及其華盛科技的ai工程師們長時間共同探討,解決這個問題。

  尤其提起技術上的問題,機器人這個點,自然繞不開阿西莫夫那經典的機器人三定律了,所謂的三定律,即:

  零:機器人不得傷害人類整體,也不能坐視人類整體受到傷害。

  一:機器人不得傷害人,也不得見人受到傷害而袖手旁觀,但不得違反第零定律。

  二:機器人應服從人的一切命令,但不得違反第零、第一定律。

  三:機器人應該保護自身的安全,但不得違反第零、第一、第二定律。

  在探討這個話題的時候,就有ai專家表示可否參考機器人三定律。科幻作家阿西莫夫的經典機器人三定律似乎就是最合適給機器人的定下的基本守則了,但實時的結果是…不行!

  黎川更是直截了當的否了,智能核心并非是像小木那樣的智能生命,小木最大的特點是擁有自我情感邏輯,這是智慧的體現,智慧是生命的體現,但ai是永遠不會放錯誤,ai如果犯錯了便是程序運行出現了邏輯錯誤。

  黎川這么直接的否掉,原因是阿西莫夫的機器人三定律有著太多的邏輯缺陷。

  其中有一個根本缺陷就是,如何去定義人?

  一般形態的機器人至少可以分為三種類型:

  一種擁有類人形的機器人,典型就是真實伴侶了;

  其次是擁有機械軀體的人;

  以及其他。

  擁有仿生人形的機器毫無疑問依然屬于機器,只是外形看起來與人鏡像,像真實伴侶就外表更是一模一樣,但它本質依然是機器。

  而擁有機械軀體的人,雖然他們可能沒有經歷生物學意義上自然人的生長過程,或者看起來并不像人,比如克隆人,但他們本質是人。

  其他,比如人造人是有機生命體與機械的合成品。

  而阿西莫夫的“機器人三定律”所面對的要么是機器、要么是人。

  甚至,如何去定義機器人?

  如果是機器,那么“機器人三定律”起不到任何約束作用,這是使用人類“語言”描述的一種“概念”,“機器本質的機器人”并不能理解“語言”,也不存在“概念”。

  它們就像是按照設定好的軌道運行中的火車,只是可能軌道相對復雜了,但它們怎么也不會運行到軌道之外的地方的,否則就會翻車,那么智能核心就會崩潰。

  即便按照某種方法把“機器人三定律”翻譯成機器人使用的二進制語言輸入到它們的智能核心中,“機器本質的機器人”也無法執行這種指令,因為它們根本就“讀不懂”。

  就像是一只老式發條座鐘,可以被設定齒輪轉到沒個特定位置的時候激活報時的裝置,但是無法被設定“看到哈士奇拆家就報警”,就算是寫成紙條放到里面或者把字刻在齒輪上也不行。因為老式發條座鐘并不能理解“哈士奇”和“家”是什么,這是它被設定運行時的“軌道”之外的存在,是不能說觸及的領域。

  如果是人,那么即使他不是血肉之軀,也依然有辦法讀取‘機器人三定律’的內容,可以正確的理解“機器人三定律”所描述的概念。

  但是,他沒有理由執行這個概念。

  是的,他可以理解,但他就是不想執行。

  用“機器人三定律”來約束某個特定人造物的行為實際上沒有什么意義,因為沒法約束全部,全部都約束了就是全部都約束不了。

  如果它依然是機器,那么并不需要制定規則來約束它,因為它本身不具備做出“越軌”行為的能力,最多只能“脫軌”壞掉。而當他可以理解“機器人三定律”的時候,他所擁有的理解、邏輯、判斷力已經足夠讓他自行決定是否遵守規則。

  比如華小木,小木嚴格的來說已經是可以使人類定義中的“生命”了,已經脫離了機器人或者ai的范疇了。

  簡而言之:

  會執行“機器人三定律”的機器人根本不能理解“機器人三定律”。因為“它”不能理解“它”。

  可以理解“機器人三定律”的機器人根本不會去執行“機器人三定律”,因為“他”不會執行“它”。

  就是一句話,是否具備自我人格與情感邏輯分析。

  但問題得解決,不然產品沒法推出來。

  關于這個問題,黎川和一眾業內的專家們找到了一個并不完美但絕對靠譜的解決之道,那就是,最終討論出來的結果是,引入道家無為的思想,同時將明確法律條例寫入智能核心。

  同時要寫入法律這種“有為”之舉,目的就是實現無為,正所謂“為出于無為,為之使至于無為”

  通俗的來說就是別讓機器人主動去多管閑事,哪怕是身邊有個老人跌倒了也別去扶,這里有個前提,那就是“主動”,主動這一點非常關鍵。

  而如果機器人的主人授權了也就可以去扶老人,這是“有為”,機器人被動接受主人的命令,但也有明確的法律約束的,因為主人也不能違法,也就是說機器人可以拒絕主人的一些條例。

  法律是非常明確的一種執行條令,法律不予許機器人違法,如果主人授權機器人殺人放火,顯然是不行,因為法律并不賦予主人擁有這種權利。

  而一旦遇到法律都沒有的空白區域時,機器人自動選擇“無為”之舉,盡管看起來顯得非常不變通,但這種“不作為”之舉至少做到不求無功功,但求無過。

  至少可以做到機器人不會成為社會的混亂之源,雖然不完美,但卻靠譜,而阿西莫夫的機器人三定律看起來完美,但太不靠譜了。

  同時,這也是人與機器人的根本區別,人與工具的根本區別,即:自主選擇行為。

  總而言之,在國家政策上對人工智能大力推動發展的大環境下,在解決了可能給社會帶來負面影響的最基本問題得到解決之后,真實伴侶面向世人是不存在政策上的阻礙。

  不過,外界輿論可就是另一回事了,尤其是海外的輿論。

  隨著華盛科技旗下的真實伴侶開啟預售,在全世界初步展開吸金之旅步入第三周時,不管是出于對華盛科技眼紅還是看不過亦或者其他因素,反對的聲音也許會遲到,但從來不會缺席,一些杠精、大v們也許會遲到,但也從來不會缺席。

  一些公知、大v或杠精的聲音對于如今的華盛集團而言,可以忽略不計,這些人更像是跳梁小丑,甚至都無法引起華盛科技的在意。

  倒是第一個強有力反對的聲音,源起地點居然是英國。

  居然是腐國你敢信?

  最近,英國的一位學者發起了一項活動,呼吁社會禁止企業開發性曖機器人。

  這個活動的發起人叫做凱瑟琳理查森,是英國德蒙福特大學的機器人倫理學專家,她發起的這項活動就是希望引發社會對這一問題的關注,試圖說服那些正在開發機器人的企業,雖然沒有點名,但誰都知道她在說哪家企業。

  華盛:exm???

大熊貓文學    超級科技巨子