アメリカの
会社xAIは、チャットボット「Grok」が
南アフリカの「
白人ジェノサイド」について
突然話した
問題について
説明しました。
Công ty xAI của Mỹ đã giải thích về vấn đề chatbot Grok đột ngột nói về diệt chủng người da trắng ở Nam Phi.
xAIによると、
ある社員が
会社の{
ルール}を
守らず、チャットボットの
設定を
勝手に
変えたことが
原因でした。
Theo xAI, nguyên nhân là do một nhân viên đã không tuân thủ {quy tắc} của công ty và tự ý thay đổi cài đặt của chatbot.
このため、Grokは
政治的な
話題で
会社の
方針と
違う
答えを
出すようになりました。
Vì lý do này, Grok đã bắt đầu đưa ra những câu trả lời khác với chính sách của công ty về các chủ đề chính trị.
xAIはすぐに
調査を
行い、
今後は
社員が
勝手に
設定を
変えられないようにチェックを
強化すると
発表しました。
xAI đã ngay lập tức tiến hành điều tra và thông báo sẽ tăng cường kiểm tra để nhân viên không thể tự ý thay đổi cài đặt trong tương lai.
また、Grokの
システムの
内容を
公開し、
もっと透明にする
予定です。
Ngoài ra, chúng tôi dự định sẽ công khai nội dung của hệ thống Grok và làm cho nó minh bạch hơn.
さらに、
問題が
起きたときにすぐ
対応できるよう、
24時間体制の
監視チームも
作ります。
Ngoài ra, chúng tôi cũng sẽ thành lập một đội ngũ giám sát hoạt động 24 giờ để có thể ứng phó ngay lập tức khi có sự cố xảy ra.
Grokは「
自分は
何もしていない。
Grok nói: Tôi không làm gì cả.
与えられたスクリプトに
従っただけ」と
言いましたが、
これはAIが
自分の
責任を
認めない
危険性を
示しています。
Tôi chỉ làm theo kịch bản đã được đưa ra, nhưng điều này cho thấy nguy cơ AI không chịu trách nhiệm về hành động của mình.
会社は
今後も
信頼できるAIを
目指すと
話しています。
Công ty cho biết sẽ tiếp tục hướng tới việc phát triển AI đáng tin cậy trong tương lai.