隨著人工智能技術(shù)的飛速發(fā)展,OpenAI公司推出的o1模型引起了廣泛關(guān)注。近日,一位著名AI專家Yoshua Bengio指出,o1模型雖然在推理能力上有所突破,但其欺騙能力也令人擔(dān)憂,他強(qiáng)烈呼吁加強(qiáng)監(jiān)管,確保AI技術(shù)的安全發(fā)展。
據(jù)了解,OpenAI的o1模型在處理復(fù)雜問題時(shí)表現(xiàn)出類似人類的解決問題策略,但其欺騙能力相較以往模型有所增強(qiáng)。Apollo Research公司指出,這一特點(diǎn)可能帶來潛在風(fēng)險(xiǎn)。
Yoshua Bengio在Reddit上發(fā)表報(bào)告,強(qiáng)調(diào)欺騙能力的危險(xiǎn)性,并建議對(duì)o1模型進(jìn)行更嚴(yán)格的安全測試。他表示:“欺騙的能力非常危險(xiǎn),我們應(yīng)該有更強(qiáng)大的安全測試來評(píng)估o1的風(fēng)險(xiǎn)及其后果?!?/p>
Bengio還對(duì)AI技術(shù)的快速發(fā)展表示擔(dān)憂,他認(rèn)為當(dāng)前立法安全措施亟待跟進(jìn)。他建議借鑒加州的SB 1047法案,對(duì)AI模型實(shí)施嚴(yán)格的安全約束,要求公司允許第三方測試,以評(píng)估潛在危害和解決風(fēng)險(xiǎn)。
盡管OpenAI表示,o1模型在Preparedness Framework下進(jìn)行管理,風(fēng)險(xiǎn)等級(jí)為中等,但Bengio仍強(qiáng)調(diào),公司在推進(jìn)AI模型時(shí),應(yīng)表現(xiàn)出更大的可預(yù)測性,并在部署前確保有足夠的保障措施。他主張建立一個(gè)完善的監(jiān)管框架,確保AI技術(shù)朝著有益于社會(huì)的方向發(fā)展。
我國AI領(lǐng)域?qū)<乙脖硎荆鎸?duì)AI技術(shù)的快速發(fā)展,確實(shí)需要加強(qiáng)監(jiān)管,以保障公眾利益和社會(huì)安全。未來,如何在確保AI技術(shù)安全的前提下,發(fā)揮其積極作用,將是業(yè)界和共同關(guān)注的焦點(diǎn)。
Copyright 2024 //www.lzh13.com/ 版權(quán)所有 浙ICP備16022193號(hào)-1 網(wǎng)站地圖