Life 3.0 一書中,大膽的挑戰人工智慧替代人類的議題,請大家好好思考第三類 "生命" 的可能性,對於前面的1.0 或 2.0,差別在於軟體,生物大半把資訊存在DNA,蜘蛛管結網,螞蟻管築穴,交換軟體對他們來說,基本上不存在。人類開車、打字,基本上軟體存於體外,出生後慢慢學就可以了。而Life 3.0 ,連肉身都不要了,直接把軟體上傳雲端,交給機器人去完成就可以了,AI 正是這樣的生命。
軟體就是一切啊!剩下的美貌或是表情,交給機器人就好了。人工意識 電影中的Eva就是這樣的存在。
( 圖片:機械終將騙過人類!《人造意識》詭譎實驗:不是人類還會愛她嗎? )
基本上,這類軟體論,聽來驚人,其實與鬼魂附身的議題一樣,重要不是要附身到超人身上,只要那個 Ghost 夠聰明就可以,這種論調,就像把Apple的 ios 隨便種到 PC 上,就能化身超級 Mac,聽來省錢又美好。其實軟體還漏了時間的因素,因為可以慢慢算,可能答案出來時,即便正確,已經是宇宙時間的盡頭了。我順著這樣的邏輯,來聊聊 AI 浪潮上的幾個誤解。首先,軟體論通常建立在程式或演算法的突破,這點Ray Kurtzweil 克茲威 (Google Brain 創辦人) 有提到,其實摩爾定律下的硬體進步,使得很多問題本來無解,卻可以運作正常。例如:下圍棋對電腦是海量資訊,但是人類本身會下圍棋,於是利用演算法,過濾不可能的棋步,讓運算量下降,就能打敗棋王。然而,這樣的進步有時而窮,只能下降到一定程度,然後再度受限於硬體的運算極限,Alpha Go 即便演算法改良了,對戰時,Google 還是開放了雲端GPU 支援,才能在人類反應時間內,下出棋步,不需要等半小時。有人要抗議了,硬體界還有黃仁勳定律,兩年就能增加兩倍的元件密度,不須擔心,問題在於,不能樂觀的認為摩爾定律和黃仁勳定律沒有上限,只能說人類的努力,一直打破這方面的限制,勉強趕上這樣的進度。釐清了AI 進展的邊界,下一段才能回頭談人類失業危機。
自從Alpha Go 和後續的 Chat GPT面世,替代論甚囂塵上,其實,簡單的想,人類一直被汽車,或更早的馬匹替代,長跑者的快遞功能,早就被替代了,至於上面的那個駕駛人,算不算是某種失業,也可以討論,因為,的確拿到的報酬會被汽油產業分走,幸好,維持生活的下限存在,是很人道的考量,運輸價格不會因為成本降低,司機薪水會被無限制的壓低。然而,這樣的替代,目前面臨一個比較嚴峻的課題,腦袋的替代,使用人工腦,也就是自駕車取代駕駛的概念。這時,社會學上場,資訊科技退場,什麼?等等,未來的世界GAFA 說了算 (Apple, Google, Facebook, Amazon,還有個宗教味道很濃的別稱,四騎士) ,哪時輪到公民和政府講話了,的確,書的開頭提到了,某個AI 個體,在電玩業、媒體業掀起浪潮,甚至跟政府簽訂條約,接管世界。且不管是否天方夜譚,本身對於 "能力" 的想像,相當正確,如果能超越全人類,這樣的 AI 的確得嚴加控管,問題時,要先做得出來,這時,上一段提到的時間壁壘,就能好好的思考了,至少,知道人類有多少時間應變,以下我引用我在無國界的一段留言:
關於A I 救世A I毁滅人類,都值得思考,不過AI 發展類似超音波牆壁(飛機超音速時撞牆),會造成多久的時間延遲,討論的人就少非常非常的多,但對目前活著的人來說,這才是真正有意義的問題,是否在有生之年能看到?就像基因科技,迅速突破帶來的意義。
我提到了目前活著的人類的有生之年,以一個兩歲嬰兒,還有80年餘命來算,就是要在60年內達成,對,兩、三百年後的願景,對她來說,意義不大,及早應變好像也顯得很荒謬。這時,就不能笑科技業者太樂觀,立馬想拯救世界。畢竟,企業界能不能研究下去,可不是科技突破就能決定,投資人把金流一斷,AI研究馬上夭折,60年代的人工智慧寒冬,就是進展緩慢造成的悲觀看法,幸好有辛頓 Hinton 這類的學者堅持,也才有Google Deep Mind 這類的突破,關於Hinton 把自己和研究助理打包成一間公司,拍賣的過程,可以當電影看,美中科技巨頭的諜對諜,該用哪家的伺服器來投標,又會不會偷看投標價格,有興趣,高徒可以改天聊聊。既然考慮的活著時的社會環境,顯然我們開始限制人工智慧,還來得及。
首先,要不要交出基本生存準備,可以討論,我想先提戰爭,有限度戰爭提供了各國的生存機會,過去常常討論的AI 掌握核武,其實不是怪談,歐盟各國,也對自己無法發展火控系統,核彈使用Mac 啟動,很有疑慮。當然,留有美國政府後門的微軟,一定不能用,不然射Washington的核彈,一定打不中。 其次,水、電或能源,也還是會不考慮成本的加派人類管制員,也有最終的關機權,不用和AI 比,誰先拔槍,只要人類一決定,強制壓過AI 的決定。這時候,有一條反人類罪是很有想像力的,劉欣慈 在 三體 一書大膽地提出,強調以消滅為人類為目標的犯罪,不管立意良善,為了後代子孫、為了糧食夠吃,總之,一律死刑。也就是,這類控制員,也像AI 一樣受到限制,必須先忠於人類,不能為了活下去,先向AI投降。近日重讀 Life 3.0,(2023.10.20重新閱讀) 作者也提到了類似基本收入的概念,就是以人類生存,而非人機競爭的角度看事情。
談到這裡,有人又說,高徒畢竟是讀人文科系的,不理會強權就是公理這一套,其實強權能成立,在於大家的姑息,我在高中公民課,也曾大膽的講到電腦接管世界的情況,討論槍口調轉的危機,雖然我當時的思慮不太成熟,社會學先於科技的想法沒改變過,不管制的能力,就是暴力,這點在法國大革命出現過,在希特勒席捲歐洲時也出現過,這個"奧地利人' "和平的"佔領奧地利時,就有很多當地社會菁英站出來反對,事後希特勒秋後算帳,明知會受害,仍然仗義執言,證明人類不是只相信強權,如果連人造的 AI ,出來接管世界,身為人類的我們都不敢發表意見,那擁有 AI 又能言善辯的企業家站出來,我們就更不敢說話了。"人家那麼有錢,又那麼聰明,哪能等到你來思考未來啊?" 千萬別抬頭 電影中的那位 執行長,活脫脫是Jobs的翻版, 就是這樣的角色,自作聰明的放彗星來撞地球,反而消滅了全人類。
回歸開頭的失業狂潮,以及接續而來的基本生存津貼,我覺得兩者都忘了主體---人類,若是AI 真的能接替一切勞動,包括腦力勞動,為何不能均分給所有人,當作僕人呢?這類先例有很多,例如﹔疫苗,或者創造家用汽車的Ford 車廠,創始人自然可以收取合理的報酬,並未直接接掌交通部長。人工智慧不需去煩惱要不要拯救人類,人類的責任就是拯救自己,這也就是政治學上唯一的權力來源:何謂權力,就是責任。我相信AI 是最佳的僕人,也是最糟糕的主人,Life 3.0 也許我在有生之年幸運的碰不到,我的確希望實現時,它會屬於全人類,而非希特勒之類的野心家。
高徒
2023.6.11 養心居
編輯
2024.7.1
一年之後讀來,那時的高徒,不但沒被更新的ChatGPT4o嚇到,反而更堅信,這類AI 應該為人類服務,其實聊天機器人,只是開始“講話”,有了語氣,脫離機械唸稿的階段。
好嗎?/好嘛!對於現在的AI終於不一樣的。
留言列表