Anthropic 大動作的公布其 AI Claude 的道德框架
Anthropic,一家由 Google 在背後支持的人工智慧初創公司,最近做了一項引人注目的舉動,公開了指導 Claude 的道德價框架。這些規範,被稱為 Claude 的憲法,是經由各種規則構成,如聯合國人權宣言和 Apple 的數據隱私規則。這個道德框架是 AI 發展的關鍵步驟,凸顯了AI 安全的重要,現在包括美國在內的政府正在考慮 AI 的相關規範。
現有 AI 系統的挑戰: 🙏🙏🙏🙏🙏
大多數 AI 聊天機器人在訓練階段需要依賴人類回饋來確定可能有問題的回覆。然而,這種方式會導致系統完全避開相關主題的討論 (Bing 🙏),如政治和種族,導致他們的實用性變的比較差,三不五時就對不起 🙏。Anthropic 建立的目的是開發安全的 AI 系統。目標是防止有害信息的傳播,例如建造武器的指令,或使用種族偏見的語言。
Anthropic 撰寫 AI 憲法
Anthropic 對這個問題提出了一個獨特的解決方案。他為 Claude AI 提供了一套道德 ”憲法” 來學習並作為 Claude AI 的決策指南。這些憲法條文包括反對不人道的行為,如酷刑,奴役和殘忍等回覆。
抓取平衡點:實用與不冒犯
Anthropic 的共同創辦人 Jack Clark 在一次訪問中強調了修改系統憲法,為了在提供有用回覆的同時,也確保不會冒犯到使用者。隨著 AI 繼續融入人類社會,他們功能中置入的價值觀勢必將引起政治和社會的關注。這種 "憲法式的AI" 方法可以通過明確定義這些價值觀,來消除這些疑慮。
留言
張貼留言