日本語の「
根比べ」の
語源は「コンクラーベ」?
知らないうちに事件の犯人にされてしまった人まで…
生成AIを調べものに使う人が増えています。
日语中“根比べ”一词的词源是“コンクラーベ”吗?甚至有人在不知情的情况下被当作事件的犯人……越来越多的人开始用生成式AI进行资料查询
最近では、
通常のネット
検索でもAIが
出す答えが
上のほうに
表示されるように。
最近,即使是在普通的网络搜索中,AI给出的答案也会显示在上面的位置。
ただ、しれっと“ウソ”をついてしまうケースも。
なぜそんなことが?気付かないうちに身近なところに入ってきている生成AI、どう使っていけばいいのでしょうか?
「根比べ」は「コンクラーベ」から?
5月に行われたローマ・カトリック教会で次の教皇を選ぶ選挙「コンクラーベ」。
为什么会这样呢?在不知不觉中,生成式AI已经进入了我们身边,我们该如何使用它呢?“根比べ”是来自“教皇选举会议(Conclave)”吗?5月举行的罗马天主教会选举下一任教皇的会议被称为“Conclave”。
誰かが投票総数の少なくとも3分の2を獲得するまで投票を繰り返すことから、日本語の「根比べ」に例えられることもあります。
有人把这种反复投票直到某人获得至少三分之二总票数的做法,比作日语中的“根比べ”。
言葉が似ているのはたまたまですが、グーグルで「根比べ 語源」と入れて検索すると、誤った情報が表示されました(5月16日時点)。
语言相似纯属巧合,但在谷歌中输入“根比べ 语源”进行搜索时,会显示错误的信息(截至5月16日)。
「根比べの語源は、中世ヨーロッパにおける教皇選出方法であるコンクラーベに由来するとされています」
Xでは、同様の回答を引用して「語源だったのびっくり」などと、誤情報を信じたような投稿が見られました。
“根比べ”这个词的词源据说源自于中世纪欧洲选出教皇的方法——“コンクラーベ(conclave)”。在X上,也有人引用了类似的回答,并发表了诸如“原来真的是词源,真吃惊”等似乎相信了错误信息的帖子。
実はこの答え、グーグルの生成AIがまとめたもの。
最近では
検索結果の
上のほうに、AIがまとめた
答えが
表示されるようになっていますが、
こうして誤った
回答をすることが
あるのです。
最近,搜索结果的上方会显示由AI整理的答案,但有时也会出现这样的错误回答。
さらに、飲食店や交通機関、試験の日程といった必要な情報の検索でも誤情報が出てきたとするXの投稿がありました。
此外,还有人在X上发帖称,在搜索餐饮店、交通工具、考试日程等必要信息时也出现了错误信息。
(生成AIの回答は、質問のしかたやタイミングによっても変わります)
“万博のトイレはくみ取り式”は誤情報のはずが…
Xで使える生成AI「Grok」でも似た問題が。
(生成式人工智能的回答会根据提问方式和时机而变化)“世博会的厕所是抽水马桶式”本应是错误信息……但在X上可用的生成式AI“Grok”也出现了类似的问题
Grokでは、質問をするとAIがその回答を示すという機能が使えるようになり、他人の投稿の真偽を判断させる”ファクトチェック”のようなことをさせる動きが広がっています。
在Grok中,用户可以通过提问来获取AI的回答,并且现在越来越多的人开始让AI进行类似“事实核查”的操作,以判断他人帖子的真实性。
Grokに”ファクトチェック”を指示する投稿は、3月下旬から急増し、5月15日までにおよそ4万5000のアカウントが11万件あまりの投稿をしていました。
自3月下旬以来,指示Grok进行“事实核查”的帖子急剧增加,截至5月15日,大约有4万5000个账号发布了超过11万条相关帖子。
しかし、Xで広がっていた「大阪・関西万博のトイレは汲み取り式だ」という誤情報をGrokに調べさせている事例では…。
但是,在让Grok调查在X上传播的“大阪·关西世博会的厕所是抽水式厕所”这一误导性信息的案例中……
「事実ではない」と否定する投稿もあった一方で、「汲み取り式なのはインフラの問題が根深い証拠」「一部汲み取り式になってしまっている可能性が高い」などとする誤った回答も複数投稿されていました。
一方面有帖子否认称“这不是事实”,但也有多条错误的回复称“采用抽水式厕所是基础设施问题根深的证据”、“很有可能部分地区已经变成抽水式厕所”。
大阪・関西万博の実施主体、博覧会協会の広報担当者によると、こうした事実はなく、トイレはどれも水洗で、下水道が整備されているということです。
据大阪·关西世博会的主办方——博览会协会的公关负责人表示,并无此类事实,所有厕所都是抽水马桶,并且下水道设施已经完善。
ほかにも、AIで生成された画像や動画を本物であるとしてしまったり、事件事故や災害の背景に関する誤った情報が出ているケースもありました。
此外,也有将由AI生成的图片和视频当作真实的情况,或者出现关于事件、事故和灾害背景的错误信息的案例。
「知ったかぶり」をするAI
どうしてこのような間違いが起きるのか。
为什么AI会“装作什么都知道”,这种错误是如何发生的
ネット上の膨大な情報を瞬時に要約、人が思いつかない発想で新たなアイデアを出すなど、人の役に立つ生成AIの仕組みが影響していると、国立情報学研究所の佐藤一郎教授は指摘します。
国立情报学研究所的佐藤一郎教授指出,生成式AI之所以对人们有帮助,是因为它能够瞬间总结互联网上大量的信息,并以人类难以想到的方式提出新的创意。
生成AIは、さまざまな情報を事前に“学習”し、類推を重ねることで、回答を作り出します。
生成式人工智能通过预先“学习”各种信息,并不断进行类比,从而生成回答。
しかし、学習したデータが偏っていたり、誤っていたりした場合にはAIの回答は誤ったものになります。但是,如果学习的数据存在偏差或错误,AI的回答也会变得不正确。
これを悪用し、悪意のある組織などが誤った情報をネット上に大量に広め、そうした情報をAIに学ばせると、誤った情報が表示されるようにもなります。
一些恶意组织利用这一点,在网络上大量传播错误信息,如果让AI学习这些信息,就会导致错误信息被展示出来。
さらに、データが少ない場合や質問があいまいな場合にも、なんとか回答しようと、「知ったかぶり」をして間違えることがあるといいます。
此外,据说在数据较少或问题模糊的情况下,也会勉强作答,装作知道而出现错误。
佐藤教授
「そもそも生成AIは単語の意味を理解しているわけではなく、文章が正しいかどうかも判断できていません。
佐藤教授:“本质上,生成式AI并不理解单词的含义,也无法判断句子是否正确。”
AIは
学習した
情報そのものでなくても
類推によってコンテンツを
生成することができます。
AI即使不是用所学的信息本身,也可以通过类推生成内容。
ただ、
この類推を
間違えると、
幻覚を
意味する
『ハルシネーション』という
現象が
起きやすくなります」
「これが起きやすい理由に『AIには無知の知がない』ことがあげられます。
不过,如果这种类比出错,就容易出现被称为“幻觉(ハルシネーション)”的现象。造成这种现象容易发生的原因之一,是“AI没有无知之知”。
知らないということを
認識できないので、
知らないことを
聞かれても
一生懸命答えてしまう、そうすると
ある種の知ったかぶりで答える状態になり、
間違いが
起きやすくなります」
知らないうちに殺人事件で判決受けたことに?
海外では、さらに深刻な誤りも起きています。
因为无法意识到自己不知道,所以即使被问到不知道的事情也会拼命回答,这样就会以某种假装知道的状态来回答,容易发生错误。不知不觉中就被判了杀人案?在海外,还发生了更为严重的错误。
ノルウェー人の男性がChatGPTに自分の名前を入れてどんな人なのか聞いてみたところ、まったく虚偽の情報が表示されたのです。
一位挪威男子在ChatGPT中输入了自己的名字,结果显示的信息完全是虚假的。
「自分の息子2人を殺害、さらにもうひとりの息子の殺人未遂で、ノルウェーの最高刑である懲役21年の判決を受けた」
オーストリアに本部のある権利保護団体「noyb」によりますと、男性はこれまで犯罪で起訴されたり、判決を受けたりしたことはないとしています。
据总部位于奥地利的权利保护团体“noyb”称,该男子因杀害自己的两个儿子,以及企图杀害另一名儿子,被判处挪威最高刑期——21年有期徒刑。此前,他从未因犯罪被起诉或判决。
「noyb」はことし3月、男性に代わってノルウェーの当局に苦情を申し立て、ChatGPTを運営するオープンAIに対し、名誉を毀損する情報の削除や、罰金を科すよう求めました。
“noyb”今年3月代表该男子向挪威当局提出申诉,要求对运营ChatGPT的OpenAI删除损害名誉的信息,并处以罚款。
また、アメリカ中西部インディアナ州では、裁判で弁護士が提出した書類に、実際には存在しない裁判の判例が含まれていたことが発覚しました。
此外,在美国中西部的印第安纳州,法庭上律师提交的文件中被发现包含实际上并不存在的判例。
裁判所の報告書によりますと、書類は生成AIを使って作られていて、弁護士はチェックしないまま提出したということです。
根据法院的报告,文件是使用生成式AI制作的,律师在没有检查的情况下就提交了。
裁判所はことし2月、弁護士が調査義務を怠ったとして、1万5000ドルの制裁金を科すべきだとする勧告を出しました。
今年2月,法院建议对律师因未履行调查义务处以1.5万美元的罚款。
大学生の期末レポートで…
うまく使えば役に立つ生成AI。
在大学生的期末报告中……如果使用得当,生成式AI会很有帮助
特性を
知った
上でどう
付き合っていけばいいのか。
筑波大学で言語学を研究する田川拓海准教授は、学生が生成AIを使うことを前提に、授業での評価の仕方を変えました。
筑波大学研究语言学的副教授田川拓海以学生使用生成式AI为前提,改变了课堂上的评价方式。
そのきっかけは昨年度の授業で起きたことでした。
1年生を対象にした授業の期末レポートの中に、存在しない文献を挙げ、その内容を元に議論を展開しているものが複数見つかったのです。
在面向一年级学生的课程期末报告中,发现有多份报告引用了不存在的文献,并以其内容为基础展开了讨论。
レポートで言及された、存在しない文献の著者自体は実在していました。
田川さんは生成AIが作り出した文章を、学生がそのままレポートに使ったと考えています。
田川认为学生直接将生成式AI创作的文章用在了报告中。
田川さんも自身の研究の中で、「SNSの投稿を探してほしい」とAIに指示したところ、架空のURLとともに実在しない投稿を出してきたことがありました。
田川在自己的研究中也曾遇到过这样的情况:当他指示AI“请帮我找一下SNS上的帖子”时,AI给出了虚构的URL和并不存在的帖子。
田川さんは期末のレポートを中心に学生の評価を行っていましたが、授業で毎回実施する課題をもとに評価する方式に変更しました。
田川先生以前主要根据期末报告来评价学生,但现在改为根据每节课布置的作业来进行评价。
一方で「生成AIは自由に用いて構わない」と積極的な利用を呼びかけ、適切な使い方も伝えています。
另一方面,也积极呼吁“可以自由使用生成式AI”,并传达了其恰当的使用方法。
田川准教授
「生成AIは手軽に複雑なことができてしまいますが、学生が悪意はないのに不利益を被る心配はあります。
田川副教授:“生成式AI虽然可以轻松完成复杂的任务,但也担心学生即使没有恶意也会因此受到不利影响。”
トレーニングの
場で
ある大学で
体験するというのが
重要かなと
思っています」
大学生の利用率”68%”
生成AIの利用は急速に広がっています。
我认为在作为训练场所的大学里进行体验是很重要的。大学生的使用率为“68%”,生成式AI的使用正在迅速普及。
去年1~2月、国内企業220社を対象にした総務省の調査では「メールや議事録作成など業務で使用中」と答えた企業は46。
去年1月至2月,日本总务省对国内220家公司进行调查时,有46%的公司回答称“正在业务中使用(如邮件、会议记录制作等)”。
8%でした。
さらに、大学生は利用率が高く、全国大学生活協同組合連合会が去年10月から11月にかけて、全国の大学生1万1000人あまりに聞いた調査では、生成AIを使ったことがあると回答した学生は68。
此外,大学生的使用率较高,全国大学生活协同组合联合会在去年10月至11月期间,对全国约1.1万名大学生进行的调查显示,有68%的学生表示使用过生成式AI。
2%にのぼりました。
特に「授業や研究」「論文・レポートの作成の参考」に使ったとする割合が多くなっています。
特别是在“上课和研究”、“作为论文和报告撰写的参考”方面,使用比例较高。
生成AI“必須化”する大学も
大学のなかには、生成AIの利用を必須とするところも出ています。
東洋大学の情報連携学部では、2年前から、すべての学生が無料で最新の生成AIを利用でき、授業や課題で自由に使っていいとしています。
在东洋大学的信息联携学部,从两年前开始,所有学生都可以免费使用最新的生成式AI,并且可以在课堂和作业中自由使用。
およそ300人が出席する1年生向けの必修授業では、レポートを書く際に、生成AIを使うことが条件となっています。
在大约有300人参加的一年级必修课程中,写报告时,使用生成式AI是一个必要条件。
レポートでは、生成AIにどのような指示を出し、どのような回答が出てきたかを明記することを求めていて、使い方を含めて評価されます。
报告中要求明确指出向生成型AI发出了哪些指示,以及得到了怎样的回答,并且会连同使用方法一起进行评价。
学生は授業以外のところでも生成AIに気軽に質問でき、学習意欲の向上にもつながっているとしています。
学生们可以在课堂之外也能轻松地向生成式AI提问,这也有助于提高他们的学习积极性。
学生に感想を聞くと。
「使い始めの時は、単純な一答一問みたいな感じでしか使えていませんでしたが、いまは対話を通じて、考えを深めるように使うように変わりました」
「AIの具体的な弱点を、実際に確かめられる環境もあるので、性能が高くてもハルシネーションが起こることに気付くことができていると思います」
授業を担当する坂村健名誉教授
「新しいものを積極的に社会に取り入れていく力が、人間を成長させてきたと言えるので、今だったら生成AIを通して、ぜひ未来に対してチャレンジする学生が増えてほしいと思っています」
生成AIと付き合う“コツ”は?
最後に、生成AIをうまく使うコツについて、今回取材した生成AIの専門家2人に聞くと、こんなポイントを教えてくれました。
刚开始使用的时候,只能像一问一答那样简单地使用,但现在已经变成通过对话来加深思考了。由于有可以实际验证AI具体弱点的环境,所以即使性能很高,也能意识到会发生幻觉(hallucination)这一点。负责授课的坂村健名誉教授表示:“积极地将新事物引入社会的能力,可以说一直让人类不断成长。如果是现在的话,我希望通过生成式AI,能够有更多学生勇敢地挑战未来。”那么与生成式AI相处的“诀窍”是什么呢?最后,我们向这次采访的两位生成式AI专家请教了如何巧妙使用生成式AI的诀窍,他们给出了以下几点建议。
▽AIにわかりやすく質問するなど、コミュニケーションを増やすこと
▽1つのAIだけでなく、ほかのAIにも聞いてみること
▽AIが回答の根拠とした一次情報や引用元を確認すること
東洋大学 坂村健名誉教授
「AIは、ずっと対話を繰り返さなきゃダメなんです。
▽要更清楚地向AI提问等,增加与AI的交流▽不仅仅询问一个AI,也要向其他AI提问▽确认AI回答所依据的原始信息和引用来源 东洋大学名誉教授坂村健表示:“AI必须不断进行对话才行。”
人と
同じでAIといい
仲間に
なるには、
コミュニケーションを増やさなきゃいけない」
「そして、常に疑いを持って、複数チェックをするという心構えは、AIを使うときでも大事なことで、疑いを持った場合には情報の原典を調べる。
要想和AI成为好伙伴,就像和人一样,必须增加交流。而且,无论何时都要保持怀疑的态度,进行多重核查的心态在使用AI时也很重要。如果产生怀疑,就要查找信息的原始出处。
特に、
データの
少ないもの
に関しては
気を
つけるべきだと
言えます」
国立情報学研究所 佐藤一郎教授
「AIに質問するときに、主語・目的語・動詞をきちんと伝える。
特别是对于数据较少的内容,需要格外注意。」国立情报学研究所 佐藤一郎教授:「在向AI提问时,应该准确传达主语、宾语和动词。
主語や
目的語が
あいまいな
場合にはAIは
勘違いをすることが
あるので、
人間にとっても分かりやすい言い方で質問するのが良いと
思います。
当主语或宾语不明确时,AI有时会产生误解,所以我认为用对人类来说也容易理解的表达方式来提问比较好。
AIが
間違える可能性の
高いこと
に関しては、
ほかのAIにも
同じ質問をしてみるのも
大切だと
思います」
「自分で使うかどうかは別にして、気が付かないうちに生成AIで作られているコンテンツに触れることは、これからすごく増えてくるはずです。
关于AI很可能出错的事情,我认为向其他AI提出同样的问题也很重要。不管自己是否使用,今后我们在不知不觉中接触到由生成式AI创作的内容的机会肯定会大大增加。
回答には
間違いも
あるといった
生成AIの特性と限界を理解して使ってほしいと
思います」
(経済部・岡谷宏基、機動展開プロジェクト・籏智広太)
。
我希望大家在使用时能够理解生成式AI存在回答错误等特性和局限性。(经济部・冈谷宏基,机动开展项目・旗智广太)