AI的極限:五大名言深入解析

Peter Chang
8 min readJun 18, 2023

--

2023年的今天,當我每天工作需要打開多個視窗 例如 ChatGpt、Bard、Bing、Midjourney 等,我開始感到新時代的來臨。

AI的邊界:五大名言深入解析

人工智能已經成為我們技術努力的核心,它塑造著行業,改變著生活,挑戰著我們對智能本身的理解。這是一個科幻小說日益成為現實的領域,使這些名言在我們當今時代的背景下更加相關和發人深省。

本文將探討5個前人所著的 AI 名言,研究一下AI對人的倫理、含義、共鳴和發展的理解。

1-圖靈測試 The Turing test

如果一台計算機能夠欺騙人類相信它是人類,那麼它就應該被稱為智能計算機。 — Alan Turing

A computer would deserve to be called intelligent if it could deceive a human into believing that it was human. — Alan Turing

這是我最愛的一個名言,也是我大學時期聽過(Computer Science)很啟發我對電腦的理解。

艾倫·圖靈(Alan Turing 1912–1954)被廣泛認為是計算機科學之父,於 1950 年發表了一篇論文,在其中提出了回答「機器能思考嗎 can machines think?」這個問題的最佳方法。

他認為,要改變這個問題本身才能找到答案,因為「思考」這個詞無法被明確定義。

相反,他提出了「模仿遊戲-the imitation game」,即我們今天所稱的圖靈測試。

模仿遊戲是一種由三個參與者進行的問答遊戲。審問者(代號 C)向代號 A 或代號 B 提問,例如:「請寫一首關於福斯橋主題的十四行詩」或「 34957 加 70764」。代號 A 的目標是讓審問者誤以為自己是代號 B。舉例來說,如果代號 A 是男性而代號 B 是女性,則男性必須盡力讓審問者相信自己是女性。

基於這個框架,圖靈把問題改成「當計算機在這個遊戲中扮演代號 A 的角色時會發生什麼?」我們可以用一台通用數字計算機來測試它的認知能力,如果計算機能夠成功地欺騙審問者讓其認為它是人類,那麼它就可以被稱為智能。

圖靈測試的重要性在於它提供了評估計算機智能的一種標準,即通過模仿人類行為和回答問題來判斷是否具有智能。

2-人工智能的未來

未來將取決於, 深深質疑我所說過的話的大學生。— 杰弗裡·辛頓

The future depends on some graduate student who is deeply suspicious of everything I have said.— Geoffrey Hinton

人工智能科學家 Geoffrey Hinton(出生1947),他是深度學習領域的先驅之一。這句名言表達了他對於人工智能的未來的看法,強調了開發這一領域的貢獻者,必須要有不斷「否定」和「批判」能力。

Hinton提到的「大學生(Graduate)」代表了新一代研究者,他們對現有的觀點持懷疑態度。這表明了科學領域中不斷產生的新思想和挑戰,這些思想和挑戰推動著領域的進步。Hinton強調了保持懷疑和批判性思維的重要性,這將驅使新一代研究者不斷質疑現有的理論和方法,並為領域帶來新的突破。

Hinton 他一直試圖在幾乎沒有其他人的情況下讓人工神經網絡 (ANN) 發揮作用。當時,專家們認為聯結主義人工智能是一條死胡同,即使大腦是由生物神經網絡構成的。但 Hinton 一直認為“要讓人工智能發揮作用,我們必須以類似於人腦的方式進行計算。”

然而,深度學習不像大腦那樣工作。即使 ANN 的名稱來自神經科學,但它們在最基本的意義上不同於生物神經網絡。人工神經元是一種超級簡化的結構,仿照生物神經元構建,但假設它們只是“基礎數學的愚蠢計算器”。然而,已經表明“單個神經元可能能夠計算真正複雜的函數。例如,它本身可能能夠識別一個物體。”

3- 有意識的人工智能 Conscious AI

根本沒有人知道如何建造一台有意識的機器。 — 斯圖爾特·拉塞爾

No one has a clue how to build a conscious machine, at all. — Stuart Russell

這句名言來自於知名人工智能學者 Stuart Russell(生於 1962)。他指出目前對於如何建構有意識的機器,我們毫無頭緒。

該名言反映了人工智能領域在意識這個主題上的困難和挑戰。意識是人類獨特的心智狀態,包括自我意識、感知、情感和主觀體驗等層面。儘管我們對於大腦的運作和神經科學的研究有了很多進展,但目前仍無法準確解釋和模擬意識的本質。

有些人擔心我們會建立有意識的人工智能。如果我們真的這樣做了,其影響將遠遠超過建立無意識的一般智能。

這就是為什麼有術語來區分兩者:AGI,通常指的是不一定有意識的人類水平的智能 — — Russell 認為這是人工智能研究的最終目標。

另一個術語是 Strong AI,這是John Searle創造的一個概念,指的是同樣具有意識的人類級別的 AI。如果我們要構建強人工智能,我們就需要徹底重新思考社會。

4- 人工智能的危險

全人工智能的發展可能預示著人類的終結。[…] 它會自行起飛,並以不斷增加的速度重新設計自己。受限於緩慢的生物進化的人類無法競爭,並且會被取代。— 史蒂芬霍金

The development of full artificial intelligence could spell the end of the human race. […] It would take off on its own, and re-design itself at an ever-increasing rate. Humans, who are limited by slow biological evolution, couldn’t compete, and would be superseded. — Stephen Hawking

這句名言來自於著名的物理學家 Stephen Hawking (1942–2018),他提出了人工智能發展所帶來的危險。

他認為足夠智能的人工智能將能夠擺脫我們的控制。即使我們設法將 AI 設計成符合我們的價值觀,最輕微的偏差也可能導致更下游的災難性後果。一旦人工智能達到了足夠的智能水平,它將超越人類,並以愈來愈快的速度自我重塑。

這句名言反映了人工智能發展所引發的一些潛在危機和問題。其中一個主要關注點是超級智能的出現,即超越人類智能並擁有遠遠超過人類的能力。這可能引發一系列問題,包括人工智能的目標和價值觀、對人類的影響以及人類在面對超級智能時的地位和控制權等等。

5- AI 我們最後的發明

“機器智能將會是人類做出的最後一項發明。”

“Machine intelligence is the last invention that humanity will ever need to make.”

尼克·博斯特羅姆 (Nick Bostrom) 是牛津大學的一位哲學家,著有《超級智能:路徑、危險、策略》一書,他在書中指出,超級智能 遠遠高於人幣,以至於我們相比之下,再也不能自稱聰明了。而且超級智能將會出現,我們應該盡一切可能為事件做好準備。

一旦我們成功創造出具有高度智能的機器,它們將能夠超越人類的能力,並在各個領域繼續進化和創新。

Bostrom 認為,一旦 AGI,ASI(人工超級智能)出現在世界言。這樣的智能將能夠完成比人類多出更多 — 到時我們就像螞蟻一樣試圖解開人類文明的運作方式。

因此它將能創造一切可以創造的東西(符合尤德科夫斯基論證 Yudkowsky argument)。

對於 Bostrom 來說,這個未來可能會以兩種相反的形式出現:要麼 ASI 是仁慈的,對人類有益,因為我們已經設法讓它與我們完美地結合在一起,要么不是,也不會只是“最後的發明”人類將永遠需要創造,”但我們將創造的最後一項發明。

了解名人科學家對於人工智能的看法對我們非常重要。他們是該領域的權威人物,他們的觀點和意見提供了深入的洞察力,幫助我們理解人工智能的發展趨勢、挑戰和潛在風險。

了解其他科學家、哲學家對於AI的看法,激發了我的思考,並讓我們更有參與感地參與到人工智能的發展和應用中去。

--

--