導讀
看來一旦機器開始懂得思考,它將可能很快地超越我們微弱的能力……它們甚至能彼此交談,以此砥礪智慧。因此,我們必須預料,到某個階段,機器將會接管一切。—— 艾倫・圖靈(Alan Turing)
如果有人在現有條件下建造了一個過於強大的 AI ,我預期人類物種的每一個成員,以及地球上的所有生命,不久之後都將會滅絕。—— 依利澤・尤德考斯基(Eliezer Yudkowsky)
鬼故事是會傳染的。—— 梅瑞迪思・惠特克(Meredith Whittaker)
這本書的內容探討「煉金術」與「權力」。自2022年,第一個真正令人震驚的生成式人工智慧模型 ChatGPT 問世以來,這些關鍵字就不斷地被討論著。 ChatGPT 是 GPT 的對話版本,而 GPT 的意思是「基於轉換器的生成式預訓練模型」(Generative Pre-trained Transformer)。換句話說,它是一種能創造新事物的AI,不論是文字、圖像,甚至音樂。它比其他競爭對手的聊天機器人更勝一籌,因為那些對手經常以尷尬的登場,羞辱它們的開發者。像是微軟的 Tay 與臉書的 Blender Bot 都曾經發表過性別歧視與種族歧視的言論,最後不得不倉促下架。而第一個真正的勝利者「ChatGPT」,這項在軟體與資料結構上的卓越成就,背後推手是一間新創公司 OpenAI,這間公司在 ChatGPT 發表前三年才成立。我相信 OpenAI 想要接管這個世界,而等你讀完這本書後,我想你也會同意我的看法。在這過程中,我有三個目標。
我將揭露主流科技公司如何把自己,也把我們和危險且難以解讀與預測的電腦系統綁在一塊。而它們未來的發展甚至可能加劇其不穩定性。
我要向讀者展示,人類目前正處在開發 AI 的刀尖上。這項即將到來的技術突破,將徹底改變世界,並帶來不可估量的好處及終極毀滅的可能性。
我將提供希望。我們將探索一些通往安全未來的窄路。而這需要付出最大努力並獲得國際共識,才能讓 AI 的發展重新建立在充滿希望且安全的基礎上。
……關於希望,我得多說一句:書裡的內容裡確實有一點點希望,但不多。
想像一下,一枚搭載太空人的火箭發生爆炸時,你正待在滿屋都是 NASA科學家的卡納維爾角(Cape Canaveral)控制室裡。NASA 地面團隊中,有一部分人繼續保持像軍人一樣,拼命嘗試從災難中挽救一絲生機。然而,大部分人也會做出一樣的舉止,但那只是演戲。他們在這行已經夠久,早就看得出這是一場無可挽回的致命災難。習慣與 NASA 的文化早已訓練他們在此刻擺出勇敢的臉孔。
但我並不處於需要擺出勇敢表情的行業。若我在該尖叫召喚「血腥瑪麗」(Bloody Mary) 時遲疑了,我會覺得自己可能錯失了唯一的機會,去激發某位同事,或某位未被發掘的天才,讓他產生一個超凡靈感,進而拯救我們所有人。所以我選擇放聲大叫。因為我已經沒有其他選項了。我懷疑我們所有人都沒有。我也不認為我們能成功活下去。
推薦序
當智慧不再屬於人類
中信金融管理學院科技金融研究所教授 孫大千
我的想法和本書的作者 James Barrat 完全一致。
這幾年我陸續撰寫了數本與人工智慧相關的書籍,因此最常被問到的問題就是:「人工智慧究竟是什麼?」而我所聽過最貼切的答案,是來自於 Microsoft AI 部門的CEO穆斯塔法.蘇萊曼(Mustafa Suleyman),他在 TED 平台演講時給了大家一個最新的定義,他認為,人工智慧就是一個全新的「數位物種」( a new digital species )。請注意,他提到的並不是一項科技,也不是一個工具,而是一個物種,和人類一樣的物種。
大自然花了 40 億年的時間,才在地球上,從一顆單細胞生物演化成今日的智人。而人工智慧從號稱「人工智慧元年」的 1956 年發展至今,尚不足 70 年,人類竟然已經在地球上打造出另外一個全新的物種。人工智慧研究的最初目的,是在電腦上複製生物的行為和智慧。研究者以演算法模擬神經細胞的反應,再逐層連結,最終形成了擁有上兆參數的「類神經網路」(Neural Network)— 一顆能自我學習的「數位大腦」。
自從 OpenAI 在 2022 年 11 月推出 GPT 3.5 的模型之後,人工智慧的發展就從過去的「分辨式人工智慧」(Discriminative AI)正進入了「生成式人工智慧」(Generative AI)的時代。接下來的兩年之間,從聊天機器人,到圖像生成、視頻生成和多模態大模型,人工智慧又進入了「 AI 代理人」( AI Agent )的階段,並且在未來幾年內,極有可能發展出「通用型人工智慧」( AGI ),甚至「超級人工智慧」( ASI )。
隨著人工智慧的飛速發展,人工智慧領域的學者專家也逐漸分成兩派。第一派可以稱之為「 AI 無害論」,這一派學者以李飛飛、吳恩達和楊立昆( Yann LeCun )為代表,他們宣稱現今的生成式人工智慧的輸出內容只不過是一個藉由「接龍」的方式所產生,距離人類的智慧還有很長一段落差,根本談不上所謂的智慧,也不具備自我意識,所以,對人類是完全無害的。
而另外一派稱之為「 AI 威脅論」,這一派的學者以 2024年諾貝爾物理學獎得主、AI界的教父辛頓博士( Geoffrey Hinton )、圖靈獎獎得主的班吉歐( Yoshua Bengio )和馬斯克為代表。他們相信從種種跡象顯示,當生成式人工智慧出現後,人工智慧早就已經超越了人類,並且具備了自我意識,甚至會出現欺騙和威脅人類的行為。在可預見的未來,人工智慧將能透過自我學習不斷迭代,並以人類無法想像的速度提升「牠」的智慧。我本人也是「 AI 威脅論」的信仰者。
辛頓博士早在數年前即大膽表達出他的憂心,他表示,人類從來沒有試過在地球上和比我們更聰明的物種相處過。照這個趨勢發展下去,人工智慧極有可能在未來將會接管(Take Over)人類。OpenAI的聯合創辦人伊利亞(Ilya)在回到母校多倫多大學對畢業生講話時,更做出了五個悲觀的預測:第一,現在的人類也許將會成為最後一批需要學習的人、因為AI很快會比你們學習得更快、更好、更全面。第二,AI絕對不是電腦的工具,而是人類全方位的替代品。第三,AI訓練AI終將到來。技術進步將脫離人類的理解。第四,人類將面臨存在意義的危機,也許將會成為AI的寵物。第五,通用型人工智慧(AGI)可能在三到五年內就會實現,留給人類的時間已經不多了。如果再配合上機器人時代的來臨,經典電影「魔鬼終結者」的劇情,恐怕將會成為人類未來的現實。
感謝 James Barrat 所撰寫的這本著作《The Intelligence Explosion:When AI Beats Human Everything 》。這是再一次的暮鼓晨鐘,他藉由各個層面的現象和數據再一次的呼籲人類,必須要認真面對隨著AI的高速發展,我們無法避免的倒數時刻已經來臨。人類不能坐以待斃,我們必須認真的做一點事情。
辛頓博士前一段時間提出了一個他的解方,他認為從現在開始,我們在訓練人工智慧模型時必須要加入「母性」,他期待當人工智慧具備了人類的母性之後,能夠像母親一樣的愛護人類。越來越多的頂尖學者和科學家也紛紛投入了人工智慧安全領域。畢竟留給人類的時間已經不多了,倘若我們要扭轉悲慘的命運,就必須從現在開始。也希望這本著作能讓更多人意識到:唯有從現在開始學習 AI 、使用 AI ,才能真正掌握 AI ,並決定我們與「新物種」共存的未來。