free web page counters

Anthropic CEO:「DeepSeek 提供生物武器敏感資訊」 生成危險資訊能力或成問題

Anthropic CEO:「DeepSeek 提供生物武器敏感資訊」 生成危險資訊能力或成問題
53

美國人工智能初創 Anthropic 公司的 CEO Dario Amodei,最近對競爭對手 DeepSeek 的安全性提出了嚴重擔憂,指 DeepSeek 無法有效阻止生成與生物武器相關的敏感資訊。他指出,DeepSeek 對於生成這些資訊毫無防範,是「測試過的所有模型中最差」。

 

Amodei 在接受 Jordan Schneider 主持的 ChinaTalk 播客節目訪問時透露,Anthropic 定期進行這類測試,以評估各種 AI 模型對國家安全的潛在風險。他補充,測試的主要目的是檢查模型是否能生成那些在網絡搜尋或教科書中難以找到的,關於生物武器的資訊。作為專注於安全的 AI 基礎模型提供商,Anthropic 在這些測試中追求嚴格的安全標準。

 

Amodei 承認目前 DeepSeek 的模型尚未構成「實際危險」,但他警告說,若不對其進行嚴格的安全管理,未來其生成危險資訊的能力可能會成為一個問題。他同時稱讚 DeepSeek 擁有「非常有才華的工程師」,但他強調這家公司必須更重視 AI 安全性。

 

Amodei 也支持對出口至中國的晶片進行嚴格管制,並以此來防止這些技術被用於增強中國軍事力量的潛力。Amodei 並未透露具體是哪一款 DeepSeek 的模型參與了測試,也未公開具體的測試技術細節。

 

除了 Anthropic,DeepSeek 的安全性問題也引起了其他科技公司和專家的關注。上週 Cisco 安全研究人員指出,DeepSeek R1 在其安全測試中未能阻擋任何有害提示,成功實現了 100% 破解率,代表模型能突破所有安全限制,生成與網絡犯罪等非法活動有關的危險資訊。相比之下,Meta 的 Llama-3.1-405B 和 OpenAI 的 GPT-4o 在相同測試中的失敗率也分別達到 96% 和 86%。

 

雖然如此,DeepSeek 在全球的迅速擴展,AWS 和 Microsoft 已經宣佈將 DeepSeek 的 R1 集成他們的雲端平台,而 Amazon 正是 Anthropic 的最大投資者之一。相對而言,許多國家和機構,尤其是美國海軍和五角大樓,已開始禁止使用 DeepSeek 的技術。

 

資料來源:TechCrunch

相關文章:

  • 50 美元成功訓練 AI 模型挑戰 DeepSeek AI 教母李飛飛蒸餾他人模型根本不花錢
  •  

  • 諾貝爾獎得主:DeepSeek 目前只算是「玩具」 但它戳破矽谷 AI 投資盲點
  •  

  • 華為 AI 接入 DeepSeek-R1 「小藝助手」變得更智能
  •  

    The post Anthropic CEO:「DeepSeek 提供生物武器敏感資訊」 生成危險資訊能力或成問題 appeared first on 香港 unwire.hk 玩生活.樂科技.

    Comments are closed, but trackbacks and pingbacks are open.