據(jù) OpenAI 官方網(wǎng)站支持頁面上周發(fā)布的一則消息顯示,該公司可能很快會要求組織完成身份驗(yàn)證流程,才能使用某些未來的 AI 模型。
IT之家注意到,該驗(yàn)證流程名為“經(jīng)驗(yàn)證的組織(Verified Organization)”,頁面上稱其為“開發(fā)者解鎖 OpenAI 平臺最先進(jìn)模型和功能的一種新方式”。驗(yàn)證需要提供來自 OpenAI API 所支持國家的政府頒發(fā)的身份證明文件。一個身份證明文件每 90 天只能驗(yàn)證一個組織,且并非所有組織都有資格進(jìn)行驗(yàn)證。
頁面中提到:“在 OpenAI,我們深知自身肩負(fù)的責(zé)任,要確保人工智能既廣泛可及,又能安全使用。然而,少數(shù)開發(fā)者故意違反 OpenAI 的使用政策,不當(dāng)使用 OpenAI API。為減少人工智能的不安全使用,同時繼續(xù)向更廣泛的開發(fā)者群體提供先進(jìn)模型,OpenAI 增加了這一驗(yàn)證流程。”
隨著 OpenAI 產(chǎn)品變得愈發(fā)復(fù)雜且功能強(qiáng)大,新的驗(yàn)證流程或許旨在加強(qiáng)其產(chǎn)品的安全性。該公司曾發(fā)布多份報告,闡述其在檢測和減少模型惡意使用方面的努力。