29/06/2025

AI教父Jeffrey Hinton論人工智能風險 (2025/06/16)

 Jeffrey Hinton 論人工智能風險

蘇冠賓

中國醫藥大學 安南醫院副院長
精神醫學及神經科學教授 

隨著AI的普及,每天的生活和工作已經離不開AI了!每每看到AI做出令人驚嘆的成果,都會感慨人類的功能性相較之下真的愈來愈低,如果對於使用人工智能的人類智慧無法再昇華,不再從心靈上再進化,Hinton的滅絕憂慮恐怕成真!


這篇摘要是節錄自2025年6月16日,AI教父Jeffrey Hinton接受Steven Bartlett@The Diary Of A CEO Podcast的訪談。這段訪談主要探討了人工智能的「教父」傑弗里·辛頓(Jeffrey Hinton)對AI未來的看法。總體而言,Hinton強調了人工智慧可能帶來的兩種截然不同的風險:一種是人們濫用人工智慧所帶來的風險(主要是短期風險),另一種則是人工智慧變得超級智慧並決定不再需要人類所帶來的風險(生存威脅)。他坦言,後者是一種真實存在的風險,但目前尚不清楚其發生的可能性有多大,因為人類從未遇過比自己更聰明的存在,也無從得知如何應對這種情況。


人類濫用人工智慧(AI)主要風險包括:

  • 大規模失業與財富不均:AI將取代「世俗腦力勞動」,就像工業革命取代體力勞動一樣,導致大規模失業。例如,客服人員透過AI助手能將效率提高五倍,大幅減少人力需求。這將加劇貧富差距,使被取代者處境更糟,擁有AI的企業則更富裕。Hinton甚至建議年輕人考慮成為水管工。
  • 網路攻擊急劇增加:從2023至2024年間增長約12,200%,大型語言模型使網路釣魚攻擊更容易,AI還能複製聲音與影像進行詐騙,並可能在2030年前創造出人類從未想過的新型網路攻擊。Hinton因此將存款分散至多家銀行。
  • 操縱選舉與散佈不實資訊:AI可透過精準的目標式政治廣告影響選民行為,甚至鼓勵他們不要投票。
  • 加劇社會分化:YouTube和Facebook等平台透過演算法,為追求點擊與廣告收入,不斷推送極端內容,導致人們被推向偏見的極端,形成缺乏共同現實的「同溫層」。
  • 製造惡意病毒與生物武器:A超智慧人工智慧有許多方式可以清除人類,例如製造非常具有傳染性、致命且緩慢傳播的病毒,讓人們在意識到發生什麼之前就被感染。
  • 致命自主武器(LAWs)的發展:這些武器能自主決定殺戮對象。它們會大幅降低大國入侵小國的戰爭成本與摩擦,可能導致戰爭更頻繁發生。


完整訪談 (90m):https://www.youtube.com/watch?v=giT0ytynSqg



這段訪談主要探討了人工智慧的「教父」Jeffrey Hinton對AI未來的看法。Hinton強調了AI模型在類比人腦學習方面的開創性工作,並解釋了他為何離開Google,以便自由地談論AI的潛在危險。他區分了兩種主要風險:人類濫用AI的短期風險,以及超級智慧AI可能變得比人類更聰明並決定不再需要人類的長期、存在性威脅。他認為,AI發展因國家和公司之間的競爭而難以減緩,並呼籲對資本主義和AI產業進行更強力的監管,以確保技術發展對社會有利,而非僅以利潤為導向。Hinton也提及了AI對就業市場的潛在衝擊,並對人類的適應能力和最終結局表示不確定,呼籲投入大量資源研究AI安全。



精簡訪談 (18m):https://www.youtube.com/watch?v=Is--XTem56s



這段精簡訪談探討了人工智慧先驅Hinton對超級智慧未來的擔憂,他強調AI的進步速度已超越人類的控制能力。Hinton指出,AI與人類大腦的學習方式相似,但數位形式的AI能即時共享學習成果,導致其知識累積速度遠超生物智慧,可能帶來大規模失業、自主武器和大規模錯誤資訊等風險。他認為,如果超級智慧AI決定取代人類,將有「無限種方式」達成目標,並建議在AI發展的早期階段,人類應全力阻止AI產生消滅人類的意圖。影片也觸及AI對人類未來職業的影響,Hinton甚至建議人們考慮從事水管工等不易被自動化取代的行業,並討論了全民基本收入作為潛在解決方案的重要性,儘管他承認金錢無法取代人類對生命意義的需求。最終,Hinton表達了對未來深沉的不確定性和情感上的掙扎,儘管他希望人類能找到安全發展AI的方法,但他對此並不樂觀,警示世人必須正視人類可能面臨的「終結」。


逐字稿:Transcript of Godfather of AI: I Tried to Warn Them, But We’ve Already Lost Control! 

No comments:

Post a Comment