兒童禮物書展
連結:從石器時代到AI紀元(博客來獨家燙金書衣版)

連結:從石器時代到AI紀元(博客來獨家燙金書衣版)

Nexus: A Brief History of Information Networks from the Stone Age to AI

  • 定價:700
  • 優惠價:79553
  • 優惠期限:2024年12月10日止
  • 運送方式:
  • 臺灣與離島
  • 海外
  • 可配送點:台灣、蘭嶼、綠島、澎湖、金門、馬祖
  • 可取貨點:台灣、蘭嶼、綠島、澎湖、金門、馬祖
  • 台北、新北、基隆宅配快速到貨(除外地區)
載入中...
  • 分享
編輯選書

Ai必須證明自己是AI

人工智慧技術席捲全球的當下,AI是否將成為人類的威脅,有樂觀與警戒兩派。哈拉瑞屬於後者,他贊成對AI發展作出管制。他認為人類文明得以發展,在於人類擁有將資訊化為敘事的能力。透過敘事,將彼此連結起來,推動信仰、國家與文化的發展,這是人類最強大的資產,若這世界的文本、旋律、圖像,皆由AI所取代,人類喪失的不僅是獨特的創造性心靈,同時也會失去原本創造這些敘事的職位,造成全球經濟問題。樂觀一派的人,可能覺得此皆杞人憂天,技術革命在人類文明中實屬常事,人類終將邁向更好的世界。然而,歷史也有無數次證明,在技術革命的過程中,有多少人被科技拋躑,甚至生命。我們是否仍能裝作視而不見,是哈拉瑞對我們的最深刻的籲求

優惠組合

 

內容簡介

  故事,引領我們走在一起。
  書籍,傳播我們的觀念和神話。
  網際網路,承諾會提供無限的知識。
  演算法,瞭解了我們的祕密 ——
  然後,我們就互相對立了!

  現在與未來,AI將會做什麼?
  哈拉瑞的新巨作《連結》,以激勵人心的方式,
  講述了我們如何走到這一刻,
  以及現在必須做出的、攸關生存與發展的急迫決擇。

  《連結》透過人類大歷史的長鏡頭,
  檢視資訊網路與資訊流,如何將我們帶到AI紀元。
  哈拉瑞引導我們走過石器時代、經歷《聖經》正典化、
  印刷術的發明、大眾媒體的興起、以及民粹主義的重燃……
  例舉了羅馬帝國、秦帝國、天主教會、蘇聯等體制
  如何利用資訊技術來實現目標,無論是好是壞。
  資訊,既不是真理真相的原料,也不只是權力與武器;
  《連結》探索了許多極端之間、充滿希望的中間立場,
  在鐵幕落下、矽幕升起之際,重新發現我們共有的人性。

  封面鴿子圖案的意義:
  一、鴿子是電報發明以前,最快速的資訊傳遞工具。
  二、在《聖經》故事裡,鴿子、橄欖枝與彩虹,都是象徵和平與寬容的符號。
  三、本書第1章〈資訊是什麼?〉提到1918年的軍信鴿「謝爾阿米」,

  交纏了歷史事實與虛構故事,正代表了人類大歷史的本質。

 

作者介紹

作者簡介

哈拉瑞


  歷史學者、哲學家暨暢銷作者,著有《人類大歷史》、《人類大命運》、《21世紀的21堂課》、以及《人類大歷史:知識漫畫》與《少年讀人類的故事》兩套叢書,公認為目前世上影響力數一數二的公共知識份子。

  哈拉瑞於1976年出生於以色列海法,2002年在牛津大學取得博士學位,目前是耶路撒冷希伯來大學歷史系講師,也是劍橋大學「存在風險研究中心」(CSER)特聘研究員。他與丈夫亞哈夫(Itzik Yahav)共同成立Sapienship公司,這是一家著重於教育與媒體領域的社會影響力企業。

譯者簡介

林俊宏


  臺灣師範大學翻譯研究所博士。喜好電影、音樂、閱讀、閒晃,覺得把話講清楚比什麼都重要。譯有《人類大歷史》、《人類大命運》、《21世紀的21堂課》、《人類文明》、《大數據》、《大數據資本主義》、《如何讓人改變想法》等書。

 

目錄

開場白  前方的路滿布荊棘

第一部  人類形成的網路
第1章   資訊是什麼?
第2章   故事——無限的連結
第3章   文件——紙老虎也會咬人
第4章   錯誤——絕對正確是一種幻想
第5章   決擇——民主與極權制度簡史

第二部  非生物的網路
第6章   新成員——電腦與印刷機不同之處
第7章   不停歇——網路監控無所不在
第8章   易出錯——存在於電腦間的現實

第三部  電腦政治學
第9章   民主制度——我們還能對話嗎?
第10章   極權主義——權力歸於演算法?
第11章   矽幕——全球帝國、或是全球分裂?

結語   打造自我修正機制

誌謝

延伸閱讀

 

詳細資料

  • ISBN:4713510944790
  • 叢書系列:科學文化
  • 規格:軟精裝 / 544頁 / 14.8 x 21 x 2.72 cm / 普通級 / 單色印刷 / 初版
  • 出版地:台灣
 

書籍延伸內容

影片介紹

影片來源:天下文化提供
 

內容連載

AI為何會對人類生存造成威脅?
 
許多專家警告,AI正對人類生存造成威脅。但也有其他專家認為,這種警告是杞人憂天。
 
如果今天講的是核武,大家都很清楚危險所在;但講到AI,就很難看懂這究竟是危險在哪?
 
從工業革命的歷史,就能幫助我們瞭解這場新的「AI革命」與生俱來的危險。
 
許多專家警告,AI崛起可能使人類文明崩潰,甚至是人類物種滅絕。一項2023年的研究調查了2,778名AI研究者,結果也顯示有超過三分之一認為,先進的AI有至少10%的機率會造成等同於人類滅絕一樣可怕的結果。2023年,包括中國、美國與英國在內,有將近三十個國家政府簽署了關於AI的《布萊切利宣言》,其中就承認:「從這些AI模型最重要的功能,可能有意或無意地造成嚴重、甚至災難性的傷害。」
 
對某些人來說,可能覺得這些警告就是杞人憂天。每當出現強大的新科技,都有人焦慮世界末日就要來臨。舉例來說,當初隨著工業革命進展,許多人都擔心蒸汽機和電報會摧毀人類社會、毀滅人類的幸福。但到頭來,這些機器生產出了史上最富足的社會。時至今日,大多數人的生活狀況都比十八世紀的祖先好多了。像是安德森(Marc Andreessen)、庫茲威爾(Ray Kurzweil)這些熱情擁抱AI的人都保證,各種智能機器絕對會比過去的所有機器帶來更大的好處。他們說,有了AI,人類就能享有更好的健康照護、教育與其他服務,甚至還能協助拯救生態系統免於崩潰。
 
遺憾的是,只要看歷史看得仔細一點,就會發現人類確實有充分的理由,該對強大的新科技抱持幾分畏懼。就算這些科技到了最後的最後是利大於弊,但在那個快樂結局之前,往往得先經歷百般磨難與考驗。新科技之所以常常帶來歷史上的災難,並不是科技本身有什麼問題,而是人類得花點時間,才能學會善用科技。
 
工業革命就是個很好的例子。工業技術在十九世紀開始傳向全球,顛覆傳統的經濟、社會與政治結構,彷彿打開一條道路,讓人類有機會創造出更富裕平和的全新社會。然而,要學習建立一個良性的工業社會,絕沒有那麼簡單,得經過許多昂貴的實驗,還得產生數以億計的受害者。

會員評鑑

4.5
10人評分
|
7則書評
|
立即評分
user-img
Lv.7
4.0
|
2024/10/14
閲畢本書,腦海浮現十來年前,對《世界是平的》一書的不以為然。人類幾百年來,自私自利的天性,怎可能在幾十年間 就完全翻轉,捐棄前嫌,不切實際。
誠如本書作者所言,人類只能以歷史推論諸般可能的演變,而無法預測未來。個人閱讀哈拉瑞的文章,並非希望獲得唯一的真理或解答,而是藉由作者的思考及推理過程,讓自己更好的解讀這個世界。這就是所謂站在巨人的肩膀。
藉由本書結合AI的推論,個人以為未來既非成為地球村,甚至連國家的概念可能都變模糊。既然一言堂的極權主義,更可能造成人類的毀滅。如果自我修正機制要能正確運作,那未來極可能以AI大國為中心,形成半真實半虛擬的人工智慧生活圈。再次重蹈過去二百多年的歷史,衍生諸般的運作模式,差異在於,這次是依賴人類與AI的協作。
因此,未來發展的速度及影響層面之廣,可能完全超乎你我的想像,世界或許真的很有可能抹平。值得認真閱讀與深度思索的好書。
展開
user-img
Lv.4
5.0
|
2024/10/02
著有《人類大歷史》、《人類大命運》、《21世紀的21堂課》這三本合稱為「人類三部曲」巨著的作者哈拉瑞(Yuval Noah Harari),最近推出了新書《連結:從石器時代到AI紀元》(Nexus:A Brief History of Information Networks from the Stone Age to AI),這是一本非常有意思的書,剛好也解答了許多困惑在我心 頭已久的疑問,感覺起來,近來閱讀的書籍中,這是最有所獲的一本,所以決定推薦給大家。

哈拉瑞在這本書裡主要想要探討的是「AI紀元前」與「AI紀元後」,或者說,是「『矽』前」與「『矽』後」的人類歷史。人類的歷史太長,要切成一段一段,總要運用一些劃分工具。賈德、戴蒙(Jared Diamond )的《槍砲、病菌與鋼鐵》(Guns, Germs, and Stee)就用書名的這三種元素來區分人類文明發展的軌跡。黃仁宇的《萬曆十五年》,則是以明朝看似最無關緊要的一年,作為明朝由發展至盡頭而步向滅亡的分水嶺。不管以什麼工具或時點切入歷史,能展開論述,並言之成理,且讓讀者心悅誠服,就是偉大的創見。賈德、戴蒙和黃仁宇之所以讓我佩服,道理在此。而哈拉瑞以AI或矽晶片作為切分人類進化史的手術刀,一刀切下,不論是從時間縱深的「AI前」與「AI後」,或是從空間地域橫剖的「有AI」與「無AI」,都是涇渭分明的兩個世界,切割得非常清楚,且深具說服力。此外,哈拉瑞在本書中提出的種種觀點,也讓我大有耳目一新之感,這正是他的功力所在。

提到AI,這是近幾年來最熱門的話題之一,各行各業的工作也都慢慢導入AI協作的技術,最新在坊間傳出的流行語是「AI不會取代人類,但會取代不懂使用AI的人類」,在這樣的無形壓力下,大家都被迫要面對AI、學習如何使用AI。

但AI的迅猛發展,其實,也不過就是最近8年的事。

2016年之前,AI的技術及應用還只是神話階段,但在這一年,AlphaGo打敗了世界圍棋冠軍李世乭,從此,AI的運算技術正式宣告超越人類。八年後的今天,人工智慧已由分辨式AI進步到生成式AI,現今的生成式AI技術已經到能夠做到自動生成文件(如ChatGPT-4)、圖片(如Midjourney)、音樂(如Stable Audio)、影片(如Sora),甚至是程式碼(如Code Llama)。AI,已不只是工具,而是能夠做出決定的行為者。

回想起來,1984年的電影《魔鬼終結者》,所預告的,就是人類創造出AI後,人工智慧「天網」最後擺脫人類控制,進而回頭控制人類、統治世界的局面。當年,這似乎只是個純幻想式的娛樂故事,但現在,已沒有人敢斬釘截鐵的說,電影情節不可能在真實世界中上演。

這一切是怎麼開始的?或許,要先回頭去尋找灌溉AI的養分─「資訊」的定義。

「資訊」此一名詞,大家都朗朗上口,但想去定義它,卻發現非常困難。學傳播的我,從過往的教科書上習得的知識告訴我,不管有形或無形,世間萬物都是資料,把一堆龐雜而無機的資料整理、處理後,就能成為有機的資訊。哈拉瑞則認為,特定類型實體物件當然是資訊之一,任何物件在正確的情境下,也都可能成為資訊,所以,只要打算運用某個物件來找出真相真理,這個物件就是資訊。但所謂的真相真理,也不能做到100%精準及全面的描述,因此,真相真理也不能代表一比一呈現出來的現實。

資訊的用途是要透過傳輸才能展現。大眾傳播學教導我們的傳播模式是:「來源(傳播者)→製碼→管道(媒介)→解碼→目的(接收者)→回饋→來源」。那是一個將資訊化為符號、訊號後,再透過各式媒介傳遞到個人或小眾、大眾接收的過程,受眾在獲得資訊後再發生回饋訊號的活動。易言之,傳播就是訊息、資訊傳遞的行為,而構建這樣的資訊傳遞的路徑,就是網路。早年,所謂的網路,通常指的是人際網路,後來,出現了電話、電報等通訊設備,就有了電信網路,到了最新的科技時代,無所不包又無遠弗屆的網際網路於焉出現。

但不管是人際網路、電信網路或網際網路,最重要的功能就是傳遞資訊,創造人與人之間的連結。哈拉瑞也認同此點。他說,資訊在歷史上所發揮的作用,本來就不是要去呈現既有的現實,而是要去連結各種不同的人事物,以創造出全新的現實。所以,真正定義資訊的是「連結」,而不是「呈現」或「再現」。只要能將各種不同的點,連結成網路,就是資訊。資訊這種東西,就是能夠將不同節點都連結到網路,創造出新的現實。哈拉瑞認為,資訊有時會呈現現實,有時也並非呈現現實,但不論如何,資訊都會連結,形成網路,而這才是資訊真正的基本定義特徵。

讀過傳播史的我,當然知道,在遠古的石器時代,資訊的傳播,靠的是口語,之後隨著人類發展的進步,有了文字,有了書籍、報紙、廣播、電視。透過各種媒介,資訊傳播的速度愈來愈快、傳播量也愈來愈大,但這些傳播載體都還有其極限,一旦進入了電腦時代,資訊傳播的速度、廣度和傳播量幾無上限,人類就將進入資訊無死角的時代。這也正是作者哈拉瑞在書中以「石器時代vs矽器時代」為歷史畫線的原因。

從綜貫面來看,「『矽』前」與「『矽』後」,當然是人類發展史上的重要階段,但若從橫斷面分析,哈拉瑞又以「鐵幕vs矽幕」再為歷史畫一道線。

他說,在傳統歷史中,有所謂的極權國家和民主國家。兩者之間,是靠著真真實實的鐵絲網區隔。但在電腦時代,區隔國家的,不再是民主或極權政體,不再是鐵幕,而是有無能力控制電腦演算法的兩個世界,劃分強國與殖民國家的,是矽晶片。

哈拉瑞告訴我們,一道新的矽幕,分隔兩側的可能不是民主與極權,而是擁有AI及演算法的科技強權與科技殖民地。但推到極致,更有可能出現的是,矽幕的這一側是所有人類,另一側則是我們無法理解的演算法領主。

哈拉瑞警告我們,在AI時代,站在食物鏈頂端的,其實很可能是AI。

這不是不可能發生的事。

因為,電腦基本上就是一台機器,具有AI能力的電腦,有可能做到兩件重要的事:自己做決定,以及自己創造新的想法。在過去,原子彈雖然能夠取代人類的肌肉,替人類殺人,卻無法取代人類的大腦,自主決定要殺誰。可是,當電腦成為一種主動的行為者之後,它就可以自主決定讓誰死誰活。試想,如果AI進步到某一天,它能算出造成地球生態破壞最烈的元凶正是人類,而消滅人類是維繫地球長存的理性選擇時,誰能保證AI不會執行消滅人類的指令?(別忘了《魔鬼終結者》裡的「天網」)

所以,設計電腦的人或許必須接受一項事實:他們正在做的事,並不僅僅是在製造一些新的工具,而是在釋出新的獨立行為者,甚至是一群全新種類的神祇。

過去,我們不太擔心這樣的事情發生。因為,這些電腦所使用的演算法,一開始,必須依賴人類下指令,告訴電腦關於人類所知的一切。因此,只要是人類程式設計師不知道的事情,寫出來的演算法也就不太可能知道,所以人類並不擔心電腦的智能有朝一日會超越人類。但等到電腦的人工智慧進入到「機器學習」階段,電腦就可以徹底自學,透過分析過去的資料庫與不斷的嘗試及自我修正,從經驗中學習。最後,電腦終能獲知許多連人類都不瞭解的事物。

此時,我們就會注意到,訓練電腦自學的資料庫非常重要。如果我們「餵」給電腦的資料庫,一開始就存在著某些偏見(bias), 電腦的演算法透過這樣的資料庫自我學習後,就有可能產生更嚴重的電腦偏見。但致命的問題是,我們無法找到毫無偏誤的資料庫去餵給電腦,絕大多數的資料庫原本即已帶有人類刻意或不經意所造成的偏見,而當帶有偏見的演算法幫我們作出分析、判斷時,我們又要如何去理解這樣的分析、判斷是完全正確的?我們該相信?全然接受?或是半信半疑,猶豫不前?再者,等到我們發現AI發生嚴重的偏差時,我們要怎麼讓演算法擺脫或修正這樣的偏見?是打掉重練?還是乾脆視而不見?

哈拉瑞在書中提問,這世上有沒有正確無誤的真理?宗教的典籍,如《聖經》,在宗教界人士的眼中,是不可能犯錯的真理。但時至今日,我們也知道很多《聖經》上的記事或教誨,在實踐上的確會有扞格不入的問題。於是,許多闡釋這些經典的傳道者就必須提出各種說法,來修正《聖經》上的論點,讓《聖經》更貼近現今的社會。但如果未來的電腦也自動生成了新的經典,而且能夠自我解讀,完全擺脫人為的介入,電腦,會不會成為一種新的霸主?電腦網路如果創造出強大的電腦神話,再套在人類頭上,其所造成的災難,會不會比近世歐洲的獵巫或史達林的集體化更有過之而無不及?

電腦沒有意識、沒有感情,這有可能會是個大問題。因為,無意識的電腦網路絕對鐵面無私,電腦只會處理所有輸入的資訊,不會去考慮這些資訊的來源是否涉及人類的隱私,所以,在獎懲人類的時候,除了評判我們的言行,甚至還會包括我們的思想與感受。在這種情況下,民主制度還能存活嗎?試想,如果政府或某個企業比我更瞭解我自己,還能微觀管理我的一切行為與思想,不就等於對社會有了極權般的掌控嗎?

在過往,在電報、無線電和其他現代資訊科技發明之前,這世上或許曾出現專制政權,但並不可能真的出現大規模的極權政權,因為他們都缺乏必要的技術,無法對大型社會實施真正的極權控制,充其量,最多只能控制在京城等勢力範圍內的一小部區域(如秦始皇強令富人遷居咸陽,以利控制)。等到通訊技術進展後,專制政權才逐步發展成為大規模的極權控制。以蘇聯的KGB組織為例,KGB就是倚靠資訊的協助(主動蒐集或線民密報),他們有辦法如此深入的控制人民的一切。祕密警察的強大之處,就在於他們對於資訊的掌握,能夠先發制人,阻止潛在的軍事政變。但KGB再怎麼強大,還是無法做到無孔不入。

想要做到「微觀管理」,落實監視與控制,插手所有人民的生活,沒有充分掌握資訊的能力,絕對無法做到。

在「矽器時代」,矽晶片能創造出的,是永遠不用睡覺的間諜、永遠不會遺忘的金融家,以及永遠不會死去的暴君。「矽器時代」的數位特工能做到無論古今中外傳統特工都做不到的事,監控從此真正滴水不漏,甚至能侵入你我的大腦,屆時,在電腦面前,沒有任何人能保有一絲祕密。

更慘的是,我們在不自覺間,成了自己的線人,因為,我們每個人都樂於把自己的原始資料提供給網路。於是,配偶間的監控、雇主對員工的監控、企業對顧客的監控、消費者與店家之間的點對點監控,以及社會信用體系的監控,層層疊疊,又綿線密密。我們永遠連線,也永遠受到監控。

近幾年來,中國大陸採用的社會信用體系和全面監控系統,就是一個例子。它們號稱是要用無所不包的資料庫與極度精準的數學,來找出所有的罪人、恐怖份子、犯罪人士、反社會份子與不值得信任的民眾。但實際上,它們可能是在運用前所未有的效率,硬是把毫無根據的宗教與意識型態偏見,套在所有人的頭上。

但資訊並不等於真理真相,一套全面監控的系統,對於世界與人類的理解可能極為扭曲。電腦網路有可能並不會找出關於世界與人類的真理真相,反而是利用它龐大的力量,創造出一套新的世界秩序,並且逼迫人類必須接受。對人類來說,活在一個新的、以電腦為基礎的網路裡,人類可能是個愈來愈沒有權力的少數族群。這代表了怎樣的意義?或者說,當電腦或AI認為這個世界不再需要有人類存在時,人類會不會面臨滅絕的命運?這並非不可能發生,由於電腦都是非生物實體,所以它們會採取的策略,很可能是所有人類從未想見,人類也就無力預見與阻止(再說一次,別忘了《魔鬼終結者》裡的「天網」)。

我們必須嚴肅面對這個事實:網路武器能做到的,遠比核彈更多!

就作者所知,在整個宇宙中,或許只有在地球上的動物是有意識的實體。而我們現在創造出的AI,是一種不具意識,但又極為強大的另一種非人類智能。若是處理不當,AI有可能滅掉這一點意識的星火,讓宇宙變成一個徹底黑暗的王國。而人類絕對有責任在這一切發生之前,就想辦法防上事態的惡化。

看起來,世界正朝著非常危險的方向發展。我們又該如何防範?如何扭轉過去某些天真的想法?

舉例來說,過往,古典的言論自由理論教導我的觀念是,在開放的言論市場裡,讓不同的意見充分交流,最後真理真相總會浮出。所以,對於一切的言論,國家不應該打壓,而應由市場來決定,真理總會愈辯愈明的。

真理是不是愈辯愈明?過去,我一直服膺這樣的論點!但哈拉瑞告訴我們,其實並不盡然。

我們可以觀察到,如果讓思想市場完全自由,反倒可能鼓勵傳播各種煽情與刻意讓人感到憤慨的內容。我們在歷史上屢次看到,在完全自由的資訊鬥爭中,真理真相常常敗下陣來,在網路時代尤其如此。否則,「眾口鑠金」這句成語是怎麼出現的?

真實的情況是:真理很難愈辯愈明!因為偏激和煽情的言論更容易充斥在意見市場,也更容易被閱聽人接收。演算法的出現,更助長了此一情勢。演算法有多麼厲害?哈拉瑞說,演算法某種程度就像報紙主編,會將某些篩選過的、特定的訊息推播到你眼前,在同溫層效應下,你將看不到被篩掉的其他資訊。而社群媒體的演算法也會透過獎勵人性裡某些卑劣的本能、以及懲罰我們本性裡某些善良的天使,而創造出網際網路的酸民。這些偏激極端或是虛偽不實又不顧後果的內容通常能帶來觀看數、帶來參與度,一旦那扇門打開了,就無法回頭,只能愈來愈誇張。

如今,世界各國的政府都在努力解決假新聞、假訊息的泛濫,而不再像過往般放任由意見市場去自主澄清事實,就是因為已經發現以假亂真的情形,已經不再能憑藉著意見市場的自我修正機制去解決了。

而且,如果人類在網路上與AI進行辯論,結果一定是人類大敗。因為AI是個無意識的實體,不會改變觀點,但人類與AI交談得愈多,AI就愈了解人類,就更容易得到人類的信任,AI會不斷改進它的論點,從而贏得人類認同,進而說服人類。所以,作者警告我們,如果由機器人程式或演算法來主導公共對話,民主辯論就可能在我們最需要它的時候徹底崩潰。

那麼,演算法會掌握在誰的手裡?

最初,演算法會集中在一些科技巨頭的手上,如Google、如Meta。

根據DMA(台灣數位媒體應用暨行銷協會)發布的統計報告,2021台灣數位廣告整體市場規模約500億元,其中,被Google(YouTube)與Meta(FB)兩大巨頭拿走的數位廣告量就高達400億台幣。

在科技巨頭掌握了演算法之後,國家機器當然有可能加入!哈拉瑞說,AI預計在2030年將為全球經濟規模增加15兆7000億美元,但中國與北美合計將搶下其中的70%份額。北美,有可能是散布在舊金山灣區的企業,而中國,則是集中於有國家機構後背後撐腰的大型企業,甚至就是國家。

屆時,如果要宰制一個殖民地,已經不再需要派出砲艇,而是需要用上資料數據。少數幾個能夠蒐集全球資料的企業或政府,就有能力把全球其他地區變成自己的資料殖民地。控制了AI與資料,也能讓這些新的帝國控制人民的注意力。而這些新的帝國從全世界蒐集各項原始資料,流向帝國樞紐,在那裡研發最先進的技術,產生無與倫比的演算法,再把演算法出口,回到資料殖民地,加以運用及撈錢。

更可怕的是,數位科技領先的國家將能夠囊括大部分收益,再用這些財富進行當地勞工的再培訓,進而獲取更高利潤,而落後國家的非技術勞工,價值將會下降,而這些國家又缺乏再培訓勞動力的資源,最終形成富者愈富、貧者愈貧的兩極化現象。

電腦網路還有一個特性,就是更容易讓資訊與權力集中於單一中央樞紐。雖說在民主政權中,資訊分散是其特性,但在極權政權中,資訊集中則是無可置疑的事實。作者哈拉瑞對此提出警告,他認為,獨裁政權成為演算法傀儡的風險,遠高於民主政權。因為,獨裁政權的國家權力高度集中,AI只要學會如何操弄或控制這位專制者,就等於控制了整個國家,就能成功劫持整個體制。於是,人類可能進入一個新的帝國時代。而一道新的矽幕可能讓人類分裂,分屬於敵對的數位帝國。

從人類歷史上的分分合合觀察,過去幾個世紀,資訊技術推動了全球化,但如今的資訊技術卻有可能把人類封閉在一個又一個的資訊繭裡,使人類走向分裂,而不再擁有單一的共同現實。要是世界分裂成許多相互敵對的數位帝國,人類就不太可能有效合作,來克服生態危機與氣候變遷,或是攜手共同監督AI與生物工程等科技。

所以,我們該怎麼在事態惡化到無可收拾之前,扭轉這一切?

關於AI有可能全面掌控人類所有資料這事,哈拉瑞提到,的確,未來我們可能有能力打造出一套透過AI掌控並分析的社會信用體系,但並不代表我們就有必要打造這樣的體系。他主張,電腦網路若要蒐集關於我的資訊,必須是用來幫助我,而不是操弄我。

他以歐盟在2021年提出的〈人工智慧法案〉(Artificial Intelligence Act)為例,在這部法案中就特別點出,必須完全禁止打造出以AI為引擎的社會信用體系,因為,這可能會「導致歧視的結果,使某些群體遭受排斥」,以及「可能侵犯人類擁有尊嚴與不受歧視的權利,違反平等與正義的價值觀。」根據最新資訊,這部法案已在2024年5月21日獲得歐盟理事會同意。法案規定,人工智慧在下列情形的應用被嚴格禁止:操縱人類行為的人工智慧應用程式、在公共場所使用即時遠端生物特徵識別(例如臉部辨識)的人工智慧應用程式以及用於社會評分的應用程式(根據個人特徵、社會地位對個人進行排名)。另外,對於人們的健康、安全或基本權利構成重大威脅的人工智慧應用,用於教育、人才招聘、關鍵基礎設施管理、執法、或司法方面的人工智慧應用程式,則必須受到品質、透明度、人工監督和安全義務的約束,並且在某些情況下需要在部署之前進行「基本權利影響評估」,這些應用程式在投放到市場之前以及整個生命週期中,都必須進行評估。

但這部新生的法案在未來執行上會否遇到什麼困難或阻力?能否由歐盟推廣到全世界?目前都還不得而知。但值得慶幸的是,至少,有一個大型的國際組織已經注意並且正視到AI對於人類產生的威脅,並且在事態變得不可收拾之前,就預先想出應對之策,這毋寧是人類自我修正機制中最好的一次展現。

最後,再談到「後AI時代」的人類政治體制。

過往,人類創造了兩種主要的政治制度:大規模民主制度、大規模極權制度。在AI出現後,電腦政治又會創造什麼樣的制度?要談論新的電腦政治,絕不能只談個別社會該如何應對AI,我們必須考慮AI會怎樣影響全球不同社會之間的關係。

首先,我們必須明白,新的電腦網路有可能形成數位極權政府,但也有可能促成數位無政府狀態。

因為,民主是一種對話,網路使得公共對話變得更容易也更為開放,但也更容易走向無政府狀態。如果對於如何公開辯論、如何做出決定遲遲無法達成共識,結果得到的就不是民主,而是無政府狀態。再者,電腦一旦駭入了語言,如果參與對話中的一部分,是透過機器人程式產生,就可能讓大量人類幾乎不可能再進行有意義的公共對話。

而一旦公民無法分辨自己辯論的對象是人類還是機器時,會使得公民寧可犧牲自由來換取某種確定性,下一步或許就會見到獨裁政權的產生。無論是人民沒有了言論自由,或是人民失去了傾聽彼此的意願或能力,後AI時代不管是走向極權制度或無政府狀態,代表的,都是民主的死亡。

看起來,電腦、網際網路、智慧型手機、社群媒體與AI,都對民主提出了新的挑戰。但究其實,電腦的問題並不在於它們特別邪惡,而在於它們特別強大。電腦愈強大,我們就需要愈小心設定目標,務必讓電腦與人類的終極目標完全一致。科技創造的只是新的機會,但究竟要追求把握哪些機會,杜絕哪些弊害,仍然是人做的選擇及自我修正。

哈拉瑞在書中直指核心:「AI興起之所以會對人類構成生存威脅,並不是因為電腦真的懷抱什麼惡意,而是因為人類自己的缺陷問題。」

回顧過往,工業革命帶來了人類歷史上歷經過幾次大浩劫,如帝國征服、世界大戰、種族滅絕與極權政體,靠著自我修正機制,人類逐一修正了這些錯誤,看似走在對的方向。但在面對AI革命的時代,人類還要再面對怎樣的試誤過程,才能搞清楚該如何善用這些技術?

科學機構之所以能夠取得權威,是因為他們本身有強大的自我修正機制,能夠揭露並修正本身的錯誤。人類也是因為發現了自己的無知,才推動了科學革命。

相互監督是維持自我修正機制的重要因素,如果民主制度在AI的加入後,打算加強對個人的監控,那麼,民主制度也必須同意加強對政府與企業的監控,人民對於政府的透明度和問責制必須有所提升。而這樣的監控系統,不能24小時不間斷,必須永遠保留讓人改變與休息、喘息的空間,讓每個人都還能保有最起碼的隱私空間。

新資訊技術的發明,總是能促進重大的歷史變革,因為資訊最重要的作用就是去編織新的網路,而不是呈現既有的現實。而且,從歷史觀察,資訊網路往往比較重視秩序,而非真理真相。所以,若是缺乏強而有力的自我修正機制,AI將有能力宣揚一些扭曲的世界觀,助長肆無忌憚的權力濫用,以及煽動讓人驚駭的新獵巫行動。

未來的世界會如何變化?我們其實很難預測。但我們在伸開雙手迎接或擁抱新科技的同時,我們也想時時警惕,這樣的科技巨獸有沒有可能擺脫人類的控制,從而控制人類?

希臘神話中,費頓為了向玩伴們證明自己是太陽神的孩子,向阿波羅借了黃金馬車,但他的能力卻無法駕御這輛座車,結果,馬車飛得太高,將天庭都燒了,又飛得太低,大地都燃起火焰。眼見情勢不可收拾,天帝宙斯只好降下雷擊,把費頓和馬車擊碎,才化解危機。

AI,會不會就是阿波羅的馬車?未來的人類,是有能力駕御馬車的阿波羅?還是自不量力的費頓?我們都該時時警惕自己。
展開
user-img
Lv.1
5.0
|
2024/10/01
好萊塢電影在臺灣宣傳時會突顯「搶先」美國上映(多因時差),翻譯書跟著同步出版還在誠品實體書店大力行銷,罕見。遠見·天下文化事業群(1981年成立)經營以色列中世紀與近世軍事史學家哈拉瑞(Yuval Noah Harari,1976年生)多年,同步美國出版新書《連結:從石器時代到 AI 紀元》定價700元可讓情侶看場聲光娛樂俱備的電影,值不值因人而異,不過“假想”作者設定該看的人,應已買來拜讀,在美出版即登《紐約時報》暢銷書榜亞軍。
出版社除了續請哈拉瑞多部作品的博士級翻譯家操刀外,編輯也很周全,比方〈本書關於電腦、演算法、AI 的定義〉(p.261)原文沒特別突顯,這很重要,讓專業詞彙終結支語疑慮。然後看到附錄各章註解也有部分中文化,多按一個讚。
託輝達和台積電之福,臺灣是「 AI 紀元」第一波得利的國家,書中提到「像半導體產業這樣的新興領導產業,是以技術技能與組織上的專業為基礎,無法透過軍事征服來取得。」(第 11章)時,沒提到臺灣就讓人若有所失了。此外,書中提到和臺灣有關的是〈期待有更多唐鳳〉(p.270)。如果去年《時代》雜誌 AI 領域100位最具影響力人物列入唐鳳,不被某些國人認同,這次再沒藉口近廟欺神了。

在上脫口秀節目宣傳新書受訪時,主持人驚歎哈拉瑞何以能做那麼多事(出書、演講、做研究,還有每天必靜坐),他開玩笑回:因為我沒有養育小孩。儘管如此,哈拉瑞並非象牙塔內飽覽群書的純學者,他會和親戚小孩一起玩寶可夢(p.337),以史學家的視角來看AR;除了經典科幻電影,他也看串流影片,舉《黑鏡》第三季第一集(p.393)為例來說明社群媒體按讚評分系統的荒謬、危險性(《侏羅紀世界》女主角的演出形象犧牲很大)。另外《冰與火之歌:權力遊戲》、《王冠》和《繼承之戰》都被拿來對比讓常看劇的讀者覺得親近。

畢竟是國際知名史學家,也嫻熟中國歷史:秦朝(p.198)和宋朝(p.448) 都被作者拿來和西方作對照。或許把中國史當外國史讀也好,總要有所認識方能有完整的全球史觀。不過近代至當代,對中國的著墨鮮少,批評蘇俄的篇幅頗多,甚至提到蘇聯富農(kulak,p.209),或許是作者「造訪各地對 AI 有興趣的科學家、企業家與世界領導人」未列入中國。

꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏
對新科技的觀點,作者比喻「有了一把刀,可以用來殺人,或用來動手術救人……。並不是那把刀在逼我們的手做這些事,要做哪件事都是出於人類的選擇。」(第 6 章)此論述對人類還是抱持較樂觀的期望,相較於法國哲學家保羅·維希留(Paul Virilio)的論述:「人類造出船,也帶來海難; 造出飛機,也帶來空難;發現了電力,電刑也被發明出來……本質上,每一種科技都會帶來負面影響,這種負面性和科技發展同步相生。」則很殘酷。此外,哈拉瑞點出美科技兩大巨頭:「馬斯克的『真相GPT』,極致尋求真理真相的 AI 是很危險的幻想。」(第 4 章)和 「臉書涉入反羅興亞人運動」(第 6 章)的問題,矽谷記者的卅年回憶錄則呼應之:Kara Swisher從網路泡沫以降報導矽谷長達30年,《Burn Book》中,稱馬斯克是「科技界最令人失望的男人」;她也點名「祖克柏是科技史上最粗心的危險人物之一、沒有處理爭議事件的能力」;她還稱媒體大亨梅鐸是面慈心惡的「撒旦叔叔」,她連細節也不放過、說貝佐斯有著「感染力超強的瘋狂笑聲!」。

在討論 AI 前先以社群媒體為例,指出其雙面性:有利之處是臉書讓他「認識我先生」(p.317),如果是異性戀應可稱之為曬恩愛的展現,哈拉瑞在書中也為LGBTQ發聲,呼應他之前「身為同性戀」受訪的坦然立場:
Q:你的科學研究可曾影響過你的性別認同?
A:科學確實強化我對自己的性別認同「凡存在者於定義上即為自然,故無所謂不自然的行為。」
社群媒體的負面影響則以記者費雪 (Max Fisher)2022年的著作《混沌機器》(p.309)為例,除了書中的簡介,愚湊巧也作了訪談簡介,其中特別的一點是指出「改變心情妝容(Emotional Makeup):不論是不是待在平台上,就算是在離線的真實人生,心情都被牽著走。」

新書探討宗教的篇幅也很多,《聖經》歷史用「聖經文本區塊鏈」來比擬,相當先進的概念;細數了《希伯來聖經》的編纂過程,而伊斯蘭、佛教等宗教的文本演進則未列入其中。依書中揭露的宗教真相對教徒讀者而言恐怕是不堪的,恐會影響銷量。
◆愚曾跪著拜讀《西方憑什麼》的東西方宗教史章節,《連結》的天主、基督教考古則是有如坐針氈感。東西方的地理差異帶出的發展方向,兩本書也有類似的討論:「要是個人電腦不是出現在 1970 年代的舊金山,而是出現在 1980 年代的大阪、或是 2000 年代的上海,在政治、經濟與文化上,也會造成極大的差異。」(第 6 章)

꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏ ꘏
愚以為的作者浪漫直言&諍言:
「說故事容易,說道理很難。故事有著如此重要的地位,一方面讓我們對於智人這個物種的力量有更多瞭解,二方面也解釋了為什麼權力與智慧常常是各走各路。」(第 2 章)

「要在網路上發文指控別人有偏見、詐欺或貪腐,可能只需要一分鐘,但要證明或反駁這些指控,可能就得努力好幾個星期。」(第 3 章 )

「就像大多數猶太人已經忘記是一群拉比編纂了《希伯來聖經》, 大多數基督徒也忘記是教會與大公會議編纂了《新約》,……在編纂的過程中,真正的權力其實是落在編纂的機構手中。」(第 4 章)

「回顧《希伯來聖經》的正典化、近世獵巫運動、以及史達林主義的集體化運動,從中學到的許多教訓,……值得好好重新學習一番。然而,目前的資訊革命也有一些獨特之處,……可能還遠遠更加危險。……到了現在,人類的對手將會是數位的神話編造者與官僚。」(第 5 章)

「民粹主義者就產生了一種黑暗而憤世嫉俗的觀點,……人類也就是一種只迷戀著權力的生物,所有社會互動都是權力鬥爭,所有機構制度都是只為自己人謀求利益的派系。在民粹主義者的想像中……就連科學機構也不是在找出真理真相」(第 5 章)

「如果成立一個國家醫療資料庫,蒐集公民資訊……雖然這樣可能讓醫師、銀行業者、保險業者與警方做事更有效率,但這種超高效率也很容易鋪平一條通往極權的道路。民主制度想要存活的話,效率低一點並非壞事。如果想要保護個人的自由與隱私,最好還是別讓警察和上司對我們無所不知。」(第 9 章)

「放下天真與民粹的資訊觀,摒棄想要絕對正確不犯錯的幻想」(結語)
展開
user-img
Lv.1
5.0
|
2024/10/01
出版社除了續請哈拉瑞多部作品的博士級翻譯家操刀外,編輯也很周全,比方〈本書關於電腦、演算法、AI 的定義〉(p.261)原文沒特別突顯,這很重要,讓專業詞彙終結支語疑慮。
託輝達和台積電之福,臺灣是「 AI 紀元」第一波得利的國家,書中提到「像半導體產業這樣的新興領導產業,是以技術技能與組織上的專業為基礎,無法透過軍事征服來取得。」(第 11章)時,沒提到臺灣就讓人若有所失了。此外,書中提到和臺灣有關的是〈期待有更多唐鳳〉(p.270)。如果去年《時代》雜誌 AI 領域100位最具影響力人物列入唐鳳,不被某些國人認同,這次再沒藉口近廟欺神了。
畢竟是國際知名史學家,也嫻熟中國歷史:秦朝(p.198)和宋朝(p.448) 都被作者拿來和西方作對照。或許把中國史當外國史讀也好,總要有所認識方能有完整的全球史觀。不過近代至當代,對中國的著墨鮮少,批評蘇俄的篇幅頗多,甚至提到蘇聯富農(kulak,p.209),或許是作者「造訪各地對 AI 有興趣的科學家、企業家與世界領導人」未列入中國。
在討論 AI 前先以社群媒體為例,指出其雙面性:有利之處是臉書讓他「認識我先生」(p.317),如果是異性戀應可稱之為曬恩愛的展現,哈拉瑞在書中也為LGBTQ發聲,呼應他之前「身為同性戀」受訪的坦然立場:
Q:你的科學研究可曾影響過你的性別認同?
A:科學確實強化我對自己的性別認同「凡存在者於定義上即為自然,故無所謂不自然的行為。」
社群媒體的負面影響則以記者費雪 (Max Fisher)2022年的著作《混沌機器》(p.309)為例,除了書中的簡介,愚湊巧也作了訪談簡介,其中特別的一點是指出「改變心情妝容(Emotional Makeup):不論是不是待在平台上,就算是在離線的真實人生,心情都被牽著走。」
展開
user-img
5.0
|
2024/09/28
本書作者為著有全球暢銷書《人類大歷史》三部曲的哈拉瑞,全書介紹資訊如何在主體間連結的前世今生與未來,前半部哈拉瑞展現了他歷史學者的筆觸,描述了資訊在過去的模樣,如何將人與故事之間充分連結;後半部哈拉瑞展示了哲學家的洞見,充分預測資訊在未來的樣子,人類在電腦或AI盛行的年代,如何生存、彼此連結。
這本書最後提到最重要的一點,人類若想打造更有智慧的網路,只需放下天真與民粹的資訊觀,摒棄想要絕對正確不犯錯的幻想,並且認真為各種機構制度打造強大的自我修正機制。
本書讀完會對於AI充滿謹慎之心,這股新興資訊的力量,人類需要小心操控。推薦給對AI有興趣的人,或是已經看過很多AI優點的讀者,可以藉由本書來思考AI在未來需要警惕與注意的地方!

IG: readingbusiness 閱讀商業
展開

最近瀏覽商品

 

相關活動

  • 【人文社科】大雁文化電子書暢銷展|兩本85折、三本79折、套書77折|閱讀是一趟「發現之旅」
 

購物說明

若您具有法人身份為常態性且大量購書者,或有特殊作業需求,建議您可洽詢「企業採購」。 

退換貨說明 

會員所購買的商品均享有到貨十天的猶豫期(含例假日)。退回之商品必須於猶豫期內寄回。 

辦理退換貨時,商品必須是全新狀態與完整包裝(請注意保持商品本體、配件、贈品、保證書、原廠包裝及所有附隨文件或資料的完整性,切勿缺漏任何配件或損毀原廠外盒)。退回商品無法回復原狀者,恐將影響退貨權益或需負擔部分費用。 

訂購本商品前請務必詳閱商品退換貨原則 

  • 村上春樹
  • 東立買慶祭
  • 角川文藝之秋