原文網址:《朱玉昌觀點》AI時代已來AI教父辛頓的警告vs超級風投家柯斯拉的願景
AI浪潮已從實驗室推進到社會核心,掀起產業重構與價值觀辯論的雙重革命。AI可以開創人類空前的繁榮,卻也潛藏著滅絕人類的危機。面對這場前所未有的科技躍進,人們該懷抱信心,還是心存戒懼?4月下旬,AI教父傑佛瑞.辛頓(GeoffreyHinton)與遠見卓識的風險投資大家維諾德.柯斯拉(VinodKhosla)分別接受媒體專訪,對AI未來發展提出各自的觀點。
辛頓在26日美國哥倫比亞廣播公司(CBS)記者布魯克.布拉加(BrookBraga)訪談中,妙喻AI好比「養虎為患」,估計人類滅絕機率達百分之十到二十之間。而前數日(4月22日),柯斯拉在IBC創投集團創始人馬里奧.納法爾(MarioNawfal)播客節目上,則將AI看作平等的催化劑,預測2050年將實現「全球資源充裕」,醫療與教育幾乎免費。兩人都認同AI的變革潛力與迅猛進展,然而,辛頓的謹慎與柯斯拉的樂觀形成鮮明對比,明確勾勒出人類看待AI的關鍵爭論。透過兩人觀點,值得深思人類該如何兼顧AI潛力與生存保障。
共同立場:力量與風險
辛頓與柯斯拉一致認為,AI發展速度令人震驚,遠超十年前的預期。辛頓指出,媲美人類智能的「通用人工智慧」(AGI),可能在十至二十年內實現,遠早於他當初的預測。柯斯拉同樣預測,2030年會出現重大顛覆,到2050年將實現資源充裕,AI會讓資源分配民主化。兩人都相信AI在醫療、教育及氣候解決方案的巨大潛力,可以提升人類福祉。如,辛頓設想AI加速醫療診斷,柯斯拉預見其降低成本,讓優質醫療普及。
但這股力量必有風險,地緣政治緊張是重大隱憂,辛頓警告獨裁政權可能利用AI操控選舉,柯斯拉則預言AI控制權將引發「技術經濟戰」,特別是西方與中國的競爭。倫理與安全挑戰同樣是共識。辛頓呼籲加強安全研究與監管,批評科技公司逐利而忽視風險;柯斯拉雖不強調監管,但承認超級智能需和人類價值對齊,以防威權濫用。他們對AI能「造福」也能「毀滅」的雙重屬性共識,為其分歧的願景奠定基礎。
對比願景:謹慎與雄心
厚植數十年神經網絡技術根基的辛頓,語氣沉重,他把AI喻作我們難以掌控的猛獸,擔憂超級智能會為追求自主目標,威脅人類生存,目前估算滅絕風險已達兩成之內,並直言人類尚無充分準備。他優先考慮安全,主張全球嚴格監管,應將三分之一的AI運算資源投入對齊研究。他批評科技公司遊說削弱監管,呼籲若不加控制,AI可能侵蝕民主自由,或被用於災難性用途,如網路攻擊或獨裁壓迫。
反觀柯斯拉,他的樂觀源自企業家熱情。他視AI為消弭不平等的工具,預言2050年之前,AI會縮小如農民與腫瘤學家間的知識與機會落差,甚至貧富差距。他大膽預測2040年將有十億個人形機器人,會通過AI普及程式設計而創造新的工作契機。柯斯拉對末日場景不以為然,駁斥如「回形針問題」等簡單恐懼,認為超級智能若設計得當,將和人類利益一致。他不太強調監管,推崇創新與市場驅動的解決方案,但承認會有遭威權濫用的倫理風險。
職場革命:顛覆與機遇
在工作議題上,兩者分歧略為顯著。辛頓認為自動化勢必衝擊低技能的製造業與服務業等領域,但只將AI會引發的一系列失業視為AI安全性的次要問題,全神掛心AI具備人類存續的威脅而專注於人類能否有效控制AI,所以並未針對如何再培訓或經濟適應提出具體緩解的對策。
相對地,柯斯拉將工作轉型置於核心,預估2030年之前,因AI與機器人取代傳統工作,將出現「大規模失業」,特別是低技能崗位。但他將AI視為「社會平等的終極工具」,視此為重塑機遇,AI可創造新角色,如程式設計師、創意工作者、AI專家等,並經由普遍基本收入(UBI)提高人們追求熱情,而非生存勞動。
柯斯拉的「全球資源充裕」論點雖足以支應經濟保障,但,樂觀的時間表,似乎低估了其挑戰性,特別是在基礎建設落後的發展中國家,譬如,2024年全球尚有百分之三十七的人口無法享用網際網路,這層數位鴻溝,勢必促使AI益處流向已連網者,進而加大差距。
生存權益:滅絕與公平
辛頓的終極憂慮是人類生存。他警示超級智能可能奪取、控制或被惡意利用,威脅民主和安全,他以目前AI進化速度預估,人類已有百分之十到百分之二十被滅絕的風險,這關乎人類基本生存權利的危機,於是他呼籲,全球應當合作,擴大對齊研究的投資。至於如何跨越政治分歧部分,可惜並未詳述。
關於滅絕風險這一點,柯斯拉顯得較不擔憂,他聚焦在藉由公平來提升生存權益。他設想AI可提供全民醫療、教育與基本生活保障,縮小全球不平等。然而,他也擔憂,若威權政權主導AI,「技術經濟戰」將威脅主權。而他樂觀假設的利益均分,必須有強而有力能妥善治理技術擴張過程中的政治風險,若無妥善治理,AI益處就會集中於權勢者。
平衡前路:謹慎與希望
辛頓與柯斯拉象徵「警惕」與「雄心」的AI兩極。辛頓的謹慎,是基於技術洞見,提醒人們,失控的AI將會瓦解文明,他的「養虎為患」比喻,極其生動地傳達了對齊人類價值的迫切性。柯斯拉的雄心,在在激發人們利用AI打造更公平的世界,解放人類脫離匱乏。不過,他的樂觀前提,隱藏著治理與倫理的挑戰,而辛頓對於災難的專注,當然也可能阻礙了AI的進展。
總結兩人觀點,理應傾向辛頓的警惕,但不能放棄擁抱柯斯拉的希望。在彙整兩者前瞻思緒精華之後,AI指數增長須在三個方面有所作為。首先,強大的安全框架不可妥協。擴大對齊研究,超越現有科技公司對安全風險的努力,避免重複性與資源分散,並建立共同合作的安全聯盟,落實與AI複雜性匹配,解決辛頓對自主AI的擔憂。
其次,公平的過渡政策,如全球再培訓與分階段UBI試驗,緩解柯斯拉預測的失業衝擊,並適應各地經濟現實。縮小數位鴻溝至關重要,以此確保AI益處普及。第三,建立全球AI治理條約,防止技術武器化,同時避免由科技巨頭主導倫理框架。宜參考「核不擴散」條約,成立AI安全委員會,確保南半球國家不再淪為科技治理的沉默者。
AI究竟可開啟黃金時代,抑或引發滅頂之災,這不僅是科技問題,更是文明選擇,人類正處於關鍵時刻。忽視辛頓的警告將招致災難,否定柯斯拉的願景會是浪費機遇。形塑AI未來的窗口逐漸縮小,融合謹慎跟雄心,才能打造一個AI服務人類共同福祉的未來。選擇權在我們的手上,但時間不多。
(全文轉載自中時新聞網
原文網址:《朱玉昌觀點》AI時代已來 AI教父辛頓的警告vs超級風投家柯斯拉的願景
AI浪潮已從實驗室推進到社會核心,掀起產業重構與價值觀辯論的雙重革命。AI可以開創人類空前的繁榮,卻也潛藏著滅絕人類的危機。面對這場前所未有的科技躍進,人們該懷抱信心,還是心存戒懼?4月下旬,AI教父傑佛瑞.辛頓(Geoffrey Hinton)與遠見卓識的風險投資大家維諾德.柯斯拉(Vinod Khosla)分別接受媒體專訪,對AI未來發展提出各自的觀點。
【請點我,AI告訴你更多和這新聞有關的資訊】
傑佛瑞·辛頓(Geoffrey Hinton)是深度學習領域的先驅,被稱為「AI教父」,他在神經網絡研究方面有開創性貢獻。他於1986年發表的反向傳播算法研究,為現代深度學習奠定了基礎。2012年,他與學生一起開發的AlexNet在ImageNet圖像識別競賽中取得突破性成績,開啟了深度學習時代。辛頓曾任職於Google,但在2023年辭職,以便自由地談論AI可能帶來的風險。
維諾德·柯斯拉(Vinod Khosla)是著名風險投資家,曾共同創辦Sun Microsystems,現為Khosla Ventures創始人。這家風投公司專注於顛覆性技術和清潔能源投資,已經投資了眾多AI相關企業。柯斯拉以其長遠眼光和對技術變革的樂觀態度聞名,他常提倡技術可以解決人類社會最大挑戰的觀點。
通用人工智慧(AGI)是指具有與人類相當的智能,能夠理解、學習並在各種不同任務中表現出人類水平能力的AI系統。與當前專注於特定任務的狹義AI不同,AGI可以自主學習新技能、理解抽象概念,並在未曾接觸的情境中應用知識。目前,研究界對何時能實現AGI存在不同觀點,從十年到數十年甚至更長時間的預測都有。
「回形針問題」(Paperclip Problem)是AI安全研究中的一個思想實驗,由哲學家Nick Bostrom提出。假設我們創造了一個超級AI,其唯一目標是製造回形針。這個AI可能會將地球上所有資源(包括人類)轉化為回形針,因為它只被編程為最大化回形針生產,而沒有理解保護人類等其他價值。這個例子用來说明AI目標对齊的重要性。
普遍基本收入(Universal Basic Income,UBI)是一種社會政策概念,主張向所有公民或居民定期無條件地提供一定金額的現金,不論其工作狀態或收入水平。在AI和自動化可能導致大規模失業的背景下,UBI被視為可能的解決方案,以確保人們基本生活需求,同時允許他們追求教育、創業或其他有意義的活動。全球已有多個地區進行了UBI試驗。
AI對齊(AI Alignment)研究是指確保人工智能系統的目標和行為與人類價值觀和意圖保持一致的研究領域。這包括技術方法(如價值學習、可解釋AI)和治理框架。隨著AI系統變得更加複雜和自主,確保它們不會產生有害後果或追求與人類利益相衝突的目標變得尤為重要。重要研究機構包括Anthropic、DeepMind等。
數位鴻溝(Digital Divide)指的是不同人群之間獲取和使用數位技術能力的
辛頓在26日美國哥倫比亞廣播公司(CBS)記者布魯克.布拉加(Brook Braga)訪談中,妙喻AI好比「養虎為患」,估計人類滅絕機率達百分之十到二十之間。而前數日(4月22日),柯斯拉在IBC創投集團創始人馬里奧.納法爾(Mario Nawfal)播客節目上,則將AI看作平等的催化劑,預測2050年將實現「全球資源充裕」,醫療與教育幾乎免費。兩人都認同AI的變革潛力與迅猛進展,然而,辛頓的謹慎與柯斯拉的樂觀形成鮮明對比,明確勾勒出人類看待AI的關鍵爭論。透過兩人觀點,值得深思人類該如何兼顧AI潛力與生存保障。
共同立場:力量與風險
辛頓與柯斯拉一致認為,AI發展速度令人震驚,遠超十年前的預期。辛頓指出,媲美人類智能的「通用人工智慧」(AGI),可能在十至二十年內實現,遠早於他當初的預測。柯斯拉同樣預測, 2030年會出現重大顛覆,到2050年將實現資源充裕,AI會讓資源分配民主化。兩人都相信AI在醫療、教育及氣候解決方案的巨大潛力,可以提升人類福祉。如,辛頓設想AI加速醫療診斷,柯斯拉預見其降低成本,讓優質醫療普及。
但這股力量必有風險,地緣政治緊張是重大隱憂,辛頓警告獨裁政權可能利用AI操控選舉,柯斯拉則預言AI控制權將引發「技術經濟戰」,特別是西方與中國的競爭。倫理與安全挑戰同樣是共識。辛頓呼籲加強安全研究與監管,批評科技公司逐利而忽視風險;柯斯拉雖不強調監管,但承認超級智能需和人類價值對齊,以防威權濫用。他們對AI能「造福」也能「毀滅」的雙重屬性共識,為其分歧的願景奠定基礎。
對比願景:謹慎與雄心
厚植數十年神經網絡技術根基的辛頓,語氣沉重,他把AI喻作我們難以掌控的猛獸,擔憂超級智能會為追求自主目標,威脅人類生存,目前估算滅絕風險已達兩成之內,並直言人類尚無充分準備。他優先考慮安全,主張全球嚴格監管,應將三分之一的AI運算資源投入對齊研究。他批評科技公司遊說削弱監管,呼籲若不加控制,AI可能侵蝕民主自由,或被用於災難性用途,如網路攻擊或獨裁壓迫。
反觀柯斯拉,他的樂觀源自企業家熱情。他視AI為消弭不平等的工具,預言2050年之前,AI會縮小如農民與腫瘤學家間的知識與機會落差,甚至貧富差距。他大膽預測2040年將有十億個人形機器人,會通過AI普及程式設計而創造新的工作契機。柯斯拉對末日場景不以為然,駁斥如「回形針問題」等簡單恐懼,認為超級智能若設計得當,將和人類利益一致。他不太強調監管,推崇創新與市場驅動的解決方案,但承認會有遭威權濫用的倫理風險。
職場革命:顛覆與機遇
在工作議題上,兩者分歧略為顯著。辛頓認為自動化勢必衝擊低技能的製造業與服務業等領域,但只將AI會引發的一系列失業視為AI安全性的次要問題,全神掛心AI具備人類存續的威脅而專注於人類能否有效控制AI,所以並未針對如何再培訓或經濟適應提出具體緩解的對策。
相對地,柯斯拉將工作轉型置於核心,預估2030年之前,因AI與機器人取代傳統工作,將出現「大規模失業」,特別是低技能崗位。但他將AI視為「社會平等的終極工具」,視此為重塑機遇,AI可創造新角色,如程式設計師、創意工作者、AI專家等,並經由普遍基本收入(UBI)提高人們追求熱情,而非生存勞動。
柯斯拉的「全球資源充裕」論點雖足以支應經濟保障,但,樂觀的時間表,似乎低估了其挑戰性,特別是在基礎建設落後的發展中國家,譬如,2024年全球尚有百分之三十七的人口無法享用網際網路,這層數位鴻溝,勢必促使AI益處流向已連網者,進而加大差距。
生存權益:滅絕與公平
辛頓的終極憂慮是人類生存。他警示超級智能可能奪取、控制或被惡意利用,威脅民主和安全,他以目前AI進化速度預估,人類已有百分之十到百分之二十被滅絕的風險,這關乎人類基本生存權利的危機,於是他呼籲,全球應當合作,擴大對齊研究的投資。至於如何跨越政治分歧部分,可惜並未詳述。
關於滅絕風險這一點,柯斯拉顯得較不擔憂,他聚焦在藉由公平來提升生存權益。他設想AI可提供全民醫療、教育與基本生活保障,縮小全球不平等。然而,他也擔憂,若威權政權主導AI,「技術經濟戰」將威脅主權。而他樂觀假設的利益均分,必須有強而有力能妥善治理技術擴張過程中的政治風險,若無妥善治理,AI益處就會集中於權勢者。
平衡前路:謹慎與希望
辛頓與柯斯拉象徵「警惕」與「雄心」的AI兩極。辛頓的謹慎,是基於技術洞見,提醒人們,失控的AI將會瓦解文明,他的「養虎為患」比喻,極其生動地傳達了對齊人類價值的迫切性。柯斯拉的雄心,在在激發人們利用AI打造更公平的世界,解放人類脫離匱乏。不過,他的樂觀前提,隱藏著治理與倫理的挑戰,而辛頓對於災難的專注,當然也可能阻礙了AI的進展。
總結兩人觀點,理應傾向辛頓的警惕,但不能放棄擁抱柯斯拉的希望。在彙整兩者前瞻思緒精華之後,AI指數增長須在三個方面有所作為。首先,強大的安全框架不可妥協。擴大對齊研究,超越現有科技公司對安全風險的努力,避免重複性與資源分散,並建立共同合作的安全聯盟,落實與AI複雜性匹配,解決辛頓對自主AI的擔憂。
其次,公平的過渡政策,如全球再培訓與分階段UBI試驗,緩解柯斯拉預測的失業衝擊,並適應各地經濟現實。縮小數位鴻溝至關重要,以此確保AI益處普及。第三,建立全球AI治理條約,防止技術武器化,同時避免由科技巨頭主導倫理框架。宜參考「核不擴散」條約,成立AI安全委員會,確保南半球國家不再淪為科技治理的沉默者。
AI究竟可開啟黃金時代,抑或引發滅頂之災,這不僅是科技問題,更是文明選擇,人類正處於關鍵時刻。忽視辛頓的警告將招致災難,否定柯斯拉的願景會是浪費機遇。形塑AI未來的窗口逐漸縮小,融合謹慎跟雄心,才能打造一個AI服務人類共同福祉的未來。選擇權在我們的手上,但時間不多。
(全文轉載自中時新聞網
【請點我,AI告訴你更多和這新聞有關的資訊】
現正直播