6 月 22 日周四,OpenAI 首席執行官 Sam Altman 表示,人工智能對于人類和技術來說是 " 迄今為止最重要的一步 "。
Altman 在舊金山舉行的一場會議上表示,快速發展的人工智能技術 " 可能會在很多方面出錯 "。 但他認為,收益大于成本," 我們使用危險的技術,這些技術可能經常以危險的方式使用。"
(資料圖片)
Altman 近幾個月來一直公開推動加強對人工智能的監管,經常與世界各地的官員談論人工智能的負責任管理。
Altman 表示,世界各地的立法者在監管人工智能方面應保持謹慎。他表示:
我認為全球性的監管可以幫助確保安全,這是比阻礙人工智能發展更好的方案。
Altman 談到了人工智能可能帶來好處的幾個領域,包括醫學、科學和教育等。
當前,OpenAI 的估值已超過 270 億美元,在風險投資支持的人工智能公司蓬勃發展的領域處于領先地位。在談到他是否會從 OpenAI 的成功中獲得經濟利益時,Altman 表示," 我有足夠的錢 ",并強調他的動機不是經濟上的:
擁有足夠的錢這個概念不容易被其他人理解,想要成為有用的人并致力于 " 重要的事情 " 才是人的本性。
我認為人工智能將是人類在技術方面必須邁出的最重要的一步,我真的很在意這一點。
幫助 Altman 創立 OpenAI 的馬斯克在同一場合警告人工智能可能帶來的危害。Altman 表示,馬斯克 " 確實非常關心人工智能安全 ",而且他的批評 " 源于一個很好的出發點 "。
Altman 是本周在舊金山會見美國總統拜登總統的人工智能專家之一。近期,這位首席執行官在全球范圍內的多個場合討論人工智能及其監管,包括在美國首都華盛頓,他告訴美國參議員," 這項技術可能會出錯。"
包括微軟和 Alphabet 在內的主要人工智能公司已承諾參與對其系統的獨立公開評估。但美國政府也在尋求推動更廣泛的監管。美國商務部今年早些時候表示,正在考慮制定規則,要求人工智能模型在發布前必須經過認證程序。
當前,谷歌和 OpenAI 這兩大 AI 領域的領導者對政府應如何監管人工智能持有相反的看法。
Altman 最近一直在鼓吹由政府來監管 AI 技術,甚至提到要建立一個類似國際原子能機構的政府間組織來監管 AI,而且他認為,該機構應該專注于監管 AI 技術,以及為使用該技術的實體頒發許可。但谷歌則不希望 AI 監管一切都由政府統領,該公司更傾向于 " 多層次、多利益相關者的 AI 治理方法 "。
頭條 23-06-24
頭條 23-06-23
頭條 23-06-23
頭條 23-06-23
頭條 23-06-23
頭條 23-06-23
頭條 23-06-23
頭條 23-06-23
頭條 23-06-23
頭條 23-06-23
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-22
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21
頭條 23-06-21