AI嚴厲管制|加州議會推新法規 矽谷憂開發者無法承受責任
發佈時間:10:35 2024-06-08
美國加州議會正推進一項嚴厲管制人工智能(AI)技術的法案,強制科技公司必須遵守嚴格的安全框架,包括向有待成立的新州立機構保證,不會開發具「危害能力」的AI模型;開發者亦須設立一個「緊急停止開關」(kill switch),可立即關閉強大的AI模型。但該法案引發矽谷大小企業的不滿和抗議,擔心可能會給AI開發者帶來無法承受的責任風險,有人聲稱它將逼使AI初創企業離開加州。
相關新聞:
全球首間人工智能妓院本月推AI性玩偶 惟惹爭議 專家:某些人應注視上癮風險
快手發布AI視頻生成大模型 和Sora比哪家更強……︱有片
加州州議會正在考慮對在該州運營的科技公司引入新限制的提案,包括三大AI初創公司OpenAI、Anthropic、Cohere,以及由Meta等科技巨頭運營的大型語言模型。該法案已於上月在州議會參議院通過,將於8月在州眾議院表決。法案要求加州的AI相關企業,向將於加州科技部內成立的部門「前沿模式部」,披露是否符合AI新規例,並保證他們不會開發具有「危害能力」的AI模型,例如用來製造生化武器、核武器,或協助網絡攻擊。根據草議的《前沿人工智能(AI)系統安全保障創新法案》,開發者必須報告其安全測試情況,並引入「緊急停止開關」來緊急關閉其模型。如果企業不遵守這些要求,可能會被起訴並面臨民事處罰。
但這項法案已引發矽谷的風險投資者、科企創辦人、普通員工反彈,擔心法案會給AI開發者帶來無法承受的責任,他們無法保證自己的服務不被壞人濫用。有人聲稱它將逼使AI初創企業離開加州,並阻止Meta等平台操作「開放原始碼」(Open Source)模型。該法案可能會逼使一些大型AI公司改變其運營方式。
大型公司或改變運營方式
這項法案由非牟利組織AI安全中心(CAIS)共同發起,得到AI先驅辛頓(Geoffrey Hinton)和本吉奧(Yoshua Bengio)的支持,他們擔心AI可能對人類生存造成威脅。提出法案的民主黨州參議員維納說:「我希望AI成功,創新繼續,但讓我們嘗試在任何安全風險之前先行一步。」批評者則指責維納的法案限制過多,給開發者,尤其是小型AI公司的開發者帶來了高昂的合規負擔。曾在Google和中國百度公司領導AI項目的著名電腦科學家吳恩達說:「它為科幻風險創造了巨大的責任,因此,任何敢於創新的人都會感到恐懼。」
其中一項激烈批評,是法案損害「開放原始碼」模型的開發者(開發者將原始碼提供給公眾審查和修改),為他們帶來無法承受的負擔,難以保證其服務不會被壞人濫用。維納說,他正計劃對法案進行修訂,「開放原始碼」開發者將不對「經過(他人)大量微調」的模型承擔責任。
另一項修正是法案只適用於「訓練成本至少為1億美元」的大型模型,因此不會對大多數小型初創企業產生影響。然而,矽谷的一位資深風險投資人表示,他們已經收到企業創辦人詢問,是否需要因為潛在的立法而離開加州。
---
緊貼最新最快新聞資訊,請立即下載星島頭條App:https://bit.ly/3Q29Vow