一区二区三区,国产精品,亚洲中文字幕乱码av波多ji,亚洲国产成人综合精品,尹人香蕉99久久综合网站,亚洲综合国产成人丁香五月激情

鑫昌軟件園鑫昌秘籍 → OpenAI 的 GPT - 4.1 無安全報告,AI 安全透明度再遭質(zhì)疑

OpenAI 的 GPT - 4.1 無安全報告,AI 安全透明度再遭質(zhì)疑

2025-04-16 10:37:49      小編:鑫昌軟件園      

本站 4 月 16 日消息,本周一,OpenAI 推出了新的 AI 模型 GPT-4.1 系列。該公司表示,該模型在某些測試中,尤其是編程基準測試方面,表現(xiàn)優(yōu)于其現(xiàn)有的一些模型。然而,與 OpenAI 以往的模型發(fā)布不同,GPT-4.1 并未附帶通常伴隨模型發(fā)布而公布的安全報告(即系統(tǒng)卡)。

截至周二上午,OpenAI 仍未發(fā)布 GPT-4.1 的安全報告,且似乎并無此計劃。OpenAI 發(fā)言人 Shaokyi Amdo 在向 TechCrunch 發(fā)表的聲明中表示:“GPT-4.1 并非前沿模型,因此不會為其發(fā)布單獨的系統(tǒng)卡?!?/p>

通常情況下,人工智能實驗室會發(fā)布安全報告,展示其內(nèi)部以及與第三方合作伙伴開展的測試類型,以評估特定模型的安全性。這些報告有時會揭示一些不那么令人滿意的信息,例如某個模型可能會欺騙人類或具有危險的說服力??傮w而言,人工智能界普遍認為這些報告是人工智能實驗室支持獨立研究和紅隊測試的誠意之舉。

然而,在過去的幾個月里,一些領(lǐng)先的人工智能實驗室似乎降低了其報告標準,引發(fā)了安全研究人員的強烈反對。例如,谷歌在發(fā)布安全報告方面行動遲緩,而其他一些實驗室則發(fā)布了缺乏以往細節(jié)的報告。

OpenAI 近期的表現(xiàn)也并不出色。去年 12 月,該公司因發(fā)布了一份包含與實際部署生產(chǎn)版本不同的模型基準結(jié)果的安全報告而受到批評。上個月,OpenAI 在發(fā)布一款名為“深度研究”的模型后數(shù)周,才發(fā)布該模型的系統(tǒng)卡。

前 OpenAI 安全研究員 Steven Adler 指出,安全報告并非由任何法律或法規(guī)強制要求,而是自愿發(fā)布的。然而,OpenAI 曾多次向各國**承諾,會增加其模型的透明度。2023 年,在英國人工智能安全峰會前夕,OpenAI 在一篇博客文章中稱系統(tǒng)卡是其問責制方法的“關(guān)鍵部分”。而在 2025 年巴黎人工智能行動峰會之前,OpenAI 表示系統(tǒng)卡可以為模型的風險提供有價值的見解。

Adler 表示:“系統(tǒng)卡是人工智能行業(yè)用于透明度和描述安全測試內(nèi)容的主要工具。如今的透明度規(guī)范和承諾最終是自愿的,因此是否以及何時為某個模型發(fā)布系統(tǒng)卡,取決于每家人工智能公司自己的決定?!?/p>

本站注意到,此次 GPT-4.1 未發(fā)布系統(tǒng)卡的背景是,OpenAI 的現(xiàn)員工和前員工對其安全實踐提出了擔憂。上周,Adler 與其他 11 名前 OpenAI 員工在埃隆?馬斯克起訴 OpenAI 的案件中提交了一份擬議的法庭之友簡報,認為營利性質(zhì)的 OpenAI 可能會削減安全工作的投入。《金融時報》最近報道稱,由于競爭壓力,OpenAI已經(jīng)減少了分配給安全測試人員的時間和資源。

盡管 GPT-4.1 并非 OpenAI 旗下性能最高的 AI 模型,但在效率和延遲方面取得了顯著進步。Secure AI Project 的聯(lián)合創(chuàng)始人兼政策分析師 Thomas Woodside 稱,性能的提升使得安全報告變得更加重要。他認為,模型越復(fù)雜,其可能帶來的風險就越高。

目前,許多人工智能實驗室一直在抵制將安全報告要求納入法律的努力。例如,OpenAI 曾反對加州的 SB 1047 法案,該法案要求許多人工智能開發(fā)商對其公開發(fā)布的模型進行審計并發(fā)布安全評估。

  • 相關(guān)手機游戲
  • 最新手機精選