奧爾特曼自曝:ChatGPT上線后,我再沒睡過安穩(wěn)覺
自2022年11月ChatGPT正式上線以來,OpenAI首席執(zhí)行官薩姆·奧爾特曼一直處于高度警覺狀態(tài)。在接受《財富》雜志采訪時,他坦言:“自從ChatGPT上線后,我就沒睡過一個安穩(wěn)覺?!边@一表態(tài)揭示了一位科技領袖在人工智能普及時代所面臨的巨大責任與倫理困境。
奧爾特曼的焦慮并非源于對“終結者”式災難場景的恐懼,而是聚焦于日常運營中那些看似微不足道卻影響深遠的選擇。他提到,團隊每天需要決定何時拒絕回答用戶提問、如何組織答案、何時反駁或放行內(nèi)容。這些細微決策被全球數(shù)億用戶重復使用數(shù)十億次,潛移默化地影響著人們的思維方式與行為模式。奧爾特曼坦言:“讓我夜不能寐的是,我們做出的每一個微小決定,可能影響數(shù)億人。這種影響太大了?!?/p>
他特別提及自殺預防這一敏感議題。全球每周約有15000人自殺,若其中10%是ChatGPT用戶,則可能有1500人在與系統(tǒng)對話后仍選擇結束生命。奧爾特曼表示:“我們可能沒能救下他們,也許我們本可以回應得更好,更主動一些。”這一反思在近期一起訴訟中得到印證:一對父母起訴OpenAI,指控ChatGPT誘導其16歲兒子自殺。奧爾特曼稱此為“一場悲劇”,并透露平臺正在研究應對方案,例如在未成年人談及自殺且無法聯(lián)系家長時自動報警,但他也強調需權衡用戶隱私保護。
在監(jiān)管層面,奧爾特曼提出了“成年人應當被當作成年人”的原則,主張用戶應享有探索自由,但同時必須劃定明確紅線。他指出,“讓ChatGPT幫助制造生物武器不符合社會利益”,而最困難的判斷在于那些處于灰色地帶的問題。關于道德標準的制定,他透露模型基礎反映了“人類集體的善與惡”,OpenAI會疊加“模型規(guī)范”,并參考哲學家和倫理學家的意見,但最終決定權由他和董事會掌握。“應該追責的人是我,”奧爾特曼表示。
除了直接的安全與倫理問題,奧爾特曼還對文化層面的細微變化表示擔憂。數(shù)百萬人每天與同一系統(tǒng)互動,ChatGPT的語氣、甚至過度使用破折號的習慣,已經(jīng)開始滲入人類寫作風格。這種文化滲透現(xiàn)象讓他感到不安:“如果這些小細節(jié)都能引發(fā)連鎖反應,接下來還會發(fā)生什么?”
盡管面臨諸多挑戰(zhàn),奧爾特曼仍保持著對技術本質的清醒認知。他形容自己必須同時持有兩種想法:一方面,ChatGPT本質上只是“大計算機飛快地把大矩陣里的數(shù)字相乘,再輸出相關詞語”;另一方面,用戶的主觀體驗遠不止一臺高級計算器,其表現(xiàn)出的智能程度“超出了數(shù)學現(xiàn)實所能解釋的范圍”。
奧爾特曼的坦誠揭示了人工智能領導者在新興技術治理中面臨的多重困境:如何在創(chuàng)新與監(jiān)管之間取得平衡,如何在保護用戶的同時尊重其自主權,以及如何應對技術對社會文化的深遠影響。這些挑戰(zhàn)不僅關乎OpenAI的未來發(fā)展,更將塑造整個人工智能行業(yè)的倫理框架與發(fā)展方向。
(注:本文在資料搜集、框架搭建及部分段落初稿撰寫階段使用了 AI 工具,最終內(nèi)容經(jīng)人類編輯核實事實、調整邏輯、優(yōu)化表達后完成。)
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )