日本語の「
根比べ」の
語源は「コンクラーベ」?
知らないうちに事件の犯人にされてしまった人まで…
生成AIを調べものに使う人が増えています。
Is the origin of the Japanese word nekurabe test of endurance actually conclave? Some people have even been falsely accused of crimes without knowing it... More and more people are using generative AI for research.
最近では、
通常のネット
検索でもAIが
出す答えが
上のほうに
表示されるように。
Recently, even in regular internet searches, the answers provided by AI are starting to appear at the top.
ただ、しれっと“ウソ”をついてしまうケースも。
However, there are also cases where people casually tell a lie.
なぜそんなことが?気付かないうちに身近なところに入ってきている生成AI、どう使っていけばいいのでしょうか?
「根比べ」は「コンクラーベ」から?
5月に行われたローマ・カトリック教会で次の教皇を選ぶ選挙「コンクラーベ」。
Why is this happening? Generative AI has made its way into our daily lives before we even realized it—how should we be using it? Is the Japanese phrase nekurabe a contest of endurance derived from conclave? In May, the Roman Catholic Church held the conclave, the election to choose the next pope.
誰かが投票総数の少なくとも3分の2を獲得するまで投票を繰り返すことから、日本語の「根比べ」に例えられることもあります。
It is sometimes compared to the Japanese concept of nekurabe a contest of endurance, because voting is repeated until someone secures at least two-thirds of the total votes.
言葉が似ているのはたまたまですが、グーグルで「根比べ 語源」と入れて検索すると、誤った情報が表示されました(5月16日時点)。
The similarity in the words is just a coincidence, but when I searched for 根比べ 語源 on Google, incorrect information was displayed as of May 16th.
「根比べの語源は、中世ヨーロッパにおける教皇選出方法であるコンクラーベに由来するとされています」
Xでは、同様の回答を引用して「語源だったのびっくり」などと、誤情報を信じたような投稿が見られました。
The origin of the word nekurabe is said to come from conclave, the method used to select the pope in medieval Europe. On X, there were posts quoting similar answers and saying things like Im surprised that was the origin, which seemed to indicate they believed this misinformation.
実はこの答え、グーグルの生成AIがまとめたもの。
Actually, this answer was compiled by Googles generative AI.
最近では
検索結果の
上のほうに、AIがまとめた
答えが
表示されるようになっていますが、
こうして誤った
回答をすることが
あるのです。
Recently, AI-generated answers are now displayed at the top of search results, but sometimes they provide incorrect responses like this.
さらに、飲食店や交通機関、試験の日程といった必要な情報の検索でも誤情報が出てきたとするXの投稿がありました。
Furthermore, there was a post on X stating that incorrect information also appeared when searching for necessary details such as restaurants, transportation, and exam schedules.
(生成AIの回答は、質問のしかたやタイミングによっても変わります)
“万博のトイレはくみ取り式”は誤情報のはずが…
Xで使える生成AI「Grok」でも似た問題が。
The answers generated by AI can vary depending on how and when the question is asked. The claim that the toilets at the Expo are pit latrines should be misinformation, but... A similar problem has been found with the generative AI Grok available on X.
Grokでは、質問をするとAIがその回答を示すという機能が使えるようになり、他人の投稿の真偽を判断させる”ファクトチェック”のようなことをさせる動きが広がっています。
In Grok, a feature has become available where AI provides answers when you ask questions, and there is a growing trend of using it for things like fact-checking, where the AI is made to judge the truthfulness of other peoples posts.
Grokに”ファクトチェック”を指示する投稿は、3月下旬から急増し、5月15日までにおよそ4万5000のアカウントが11万件あまりの投稿をしていました。
Posts instructing Grok to fact-check surged from late March, and by May 15, about 45,000 accounts had made over 110,000 such posts.
しかし、Xで広がっていた「大阪・関西万博のトイレは汲み取り式だ」という誤情報をGrokに調べさせている事例では…。
However, in the case where Grok was asked to investigate the misinformation spreading on X that the toilets at the Osaka-Kansai Expo are pit latrines...
「事実ではない」と否定する投稿もあった一方で、「汲み取り式なのはインフラの問題が根深い証拠」「一部汲み取り式になってしまっている可能性が高い」などとする誤った回答も複数投稿されていました。
On the other hand, while there were posts denying it as not true, there were also several incorrect responses such as The fact that there are still pit latrines is proof that there are deep-rooted infrastructure problems and There is a high possibility that some toilets have become pit latrines.
大阪・関西万博の実施主体、博覧会協会の広報担当者によると、こうした事実はなく、トイレはどれも水洗で、下水道が整備されているということです。
According to a spokesperson from the Public Relations Department of the Japan Association for the 2025 World Exposition, which is in charge of the Osaka-Kansai Expo, there are no such facts; all toilets are flush toilets, and the sewage system is properly maintained.
ほかにも、AIで生成された画像や動画を本物であるとしてしまったり、事件事故や災害の背景に関する誤った情報が出ているケースもありました。
There have also been cases where AI-generated images and videos were mistaken for real ones, or where incorrect information about the background of incidents, accidents, or disasters was spread.
「知ったかぶり」をするAI
どうしてこのような間違いが起きるのか。
Why do AIs pretend to know things? Why do these kinds of mistakes happen?
ネット上の膨大な情報を瞬時に要約、人が思いつかない発想で新たなアイデアを出すなど、人の役に立つ生成AIの仕組みが影響していると、国立情報学研究所の佐藤一郎教授は指摘します。
Professor Ichiro Sato of the National Institute of Informatics points out that the mechanisms of generative AI, which can instantly summarize the vast amount of information on the internet and come up with new ideas that people wouldnt think of, are influencing its usefulness to people.
生成AIは、さまざまな情報を事前に“学習”し、類推を重ねることで、回答を作り出します。
Generative AI “learns” various information in advance and produces answers by making analogies.
しかし、学習したデータが偏っていたり、誤っていたりした場合にはAIの回答は誤ったものになります。However, if the data that was learned is biased or incorrect, the AIs responses will also be incorrect.
これを悪用し、悪意のある組織などが誤った情報をネット上に大量に広め、そうした情報をAIに学ばせると、誤った情報が表示されるようにもなります。
If this is abused and malicious organizations spread a large amount of false information on the internet, and AI learns from such information, it will end up displaying incorrect information.
さらに、データが少ない場合や質問があいまいな場合にも、なんとか回答しようと、「知ったかぶり」をして間違えることがあるといいます。
Furthermore, it is said that even when there is little data or the question is ambiguous, it sometimes tries to answer anyway and makes mistakes by pretending to know.
佐藤教授
「そもそも生成AIは単語の意味を理解しているわけではなく、文章が正しいかどうかも判断できていません。
Professor Sato: In the first place, generative AI does not actually understand the meaning of words, nor can it judge whether a sentence is correct.
AIは
学習した
情報そのものでなくても
類推によってコンテンツを
生成することができます。
AI can generate content through inference, even if it is not the exact information it has learned.
ただ、
この類推を
間違えると、
幻覚を
意味する
『ハルシネーション』という
現象が
起きやすくなります」
「これが起きやすい理由に『AIには無知の知がない』ことがあげられます。
However, if this analogy is mistaken, a phenomenon called hallucination, meaning delusion, is likely to occur. One reason this happens easily is that AI lacks the awareness of its own ignorance.
知らないということを
認識できないので、
知らないことを
聞かれても
一生懸命答えてしまう、そうすると
ある種の知ったかぶりで答える状態になり、
間違いが
起きやすくなります」
知らないうちに殺人事件で判決受けたことに?
海外では、さらに深刻な誤りも起きています。
Since it cant recognize what it doesnt know, it tries its best to answer even when asked about things it doesnt know. As a result, it ends up pretending to know and is more likely to make mistakes. Could it be that you unknowingly received a verdict in a murder case? Even more serious errors have occurred overseas.
ノルウェー人の男性がChatGPTに自分の名前を入れてどんな人なのか聞いてみたところ、まったく虚偽の情報が表示されたのです。
When a Norwegian man entered his own name into ChatGPT and asked what kind of person he was, completely false information was displayed.
「自分の息子2人を殺害、さらにもうひとりの息子の殺人未遂で、ノルウェーの最高刑である懲役21年の判決を受けた」
オーストリアに本部のある権利保護団体「noyb」によりますと、男性はこれまで犯罪で起訴されたり、判決を受けたりしたことはないとしています。
He was sentenced to Norways maximum penalty of 21 years in prison for killing his two sons and attempting to murder his other son. According to noyb, a rights protection organization headquartered in Austria, the man had never been prosecuted or convicted of a crime before.
「noyb」はことし3月、男性に代わってノルウェーの当局に苦情を申し立て、ChatGPTを運営するオープンAIに対し、名誉を毀損する情報の削除や、罰金を科すよう求めました。
In March of this year, noyb filed a complaint with the Norwegian authorities on behalf of the man, requesting that OpenAI, which operates ChatGPT, delete defamatory information and impose a fine.
また、アメリカ中西部インディアナ州では、裁判で弁護士が提出した書類に、実際には存在しない裁判の判例が含まれていたことが発覚しました。
Also, in Indiana, located in the Midwest of the United States, it was discovered during a trial that documents submitted by a lawyer included case precedents that did not actually exist.
裁判所の報告書によりますと、書類は生成AIを使って作られていて、弁護士はチェックしないまま提出したということです。
According to the court report, the documents were created using generative AI, and the lawyer submitted them without checking.
裁判所はことし2月、弁護士が調査義務を怠ったとして、1万5000ドルの制裁金を科すべきだとする勧告を出しました。
In February of this year, the court issued a recommendation that a fine of $15,000 should be imposed, stating that the lawyer neglected their duty to investigate.
大学生の期末レポートで…
うまく使えば役に立つ生成AI。
In university students final reports... Generative AI can be useful if used well.
特性を
知った
上でどう
付き合っていけばいいのか。
How should I interact with them, knowing their characteristics?
筑波大学で言語学を研究する田川拓海准教授は、学生が生成AIを使うことを前提に、授業での評価の仕方を変えました。
Associate Professor Takumi Tagawa, who researches linguistics at the University of Tsukuba, changed the way he evaluates students in class on the assumption that they use generative AI.
そのきっかけは昨年度の授業で起きたことでした。
The trigger was something that happened in last years class.
1年生を対象にした授業の期末レポートの中に、存在しない文献を挙げ、その内容を元に議論を展開しているものが複数見つかったのです。
In the final reports for classes aimed at first-year students, several instances were found where students cited non-existent sources and developed their arguments based on the content of those sources.
レポートで言及された、存在しない文献の著者自体は実在していました。
The author of the non-existent literature mentioned in the report did actually exist.
田川さんは生成AIが作り出した文章を、学生がそのままレポートに使ったと考えています。
Mr. Tagawa believes that the students used text generated by AI as-is in their reports.
田川さんも自身の研究の中で、「SNSの投稿を探してほしい」とAIに指示したところ、架空のURLとともに実在しない投稿を出してきたことがありました。
Mr. Tagawa also experienced a case in his own research where, when he instructed the AI to find social media posts, it returned non-existent posts along with fictitious URLs.
田川さんは期末のレポートを中心に学生の評価を行っていましたが、授業で毎回実施する課題をもとに評価する方式に変更しました。
Mr. Tagawa used to evaluate students mainly based on their final reports, but he has changed to a system where evaluations are based on assignments given in each class.
一方で「生成AIは自由に用いて構わない」と積極的な利用を呼びかけ、適切な使い方も伝えています。
On the other hand, they are actively encouraging the use of generative AI by saying, You are free to use it, and are also explaining how to use it appropriately.
田川准教授
「生成AIは手軽に複雑なことができてしまいますが、学生が悪意はないのに不利益を被る心配はあります。
Associate Professor Tagawa: Generative AI makes it easy to do complex things, but there is a concern that students may suffer disadvantages even if they have no ill intentions.
トレーニングの
場で
ある大学で
体験するというのが
重要かなと
思っています」
大学生の利用率”68%”
生成AIの利用は急速に広がっています。
I think its important to have experiences at university, which is a place for training. The usage rate among university students is 68%. The use of generative AI is rapidly spreading.
去年1~2月、国内企業220社を対象にした総務省の調査では「メールや議事録作成など業務で使用中」と答えた企業は46。
Last January to February, in a survey by the Ministry of Internal Affairs and Communications targeting 220 domestic companies, 46 companies answered that they were using it for tasks such as emails and creating meeting minutes.
8%でした。
さらに、大学生は利用率が高く、全国大学生活協同組合連合会が去年10月から11月にかけて、全国の大学生1万1000人あまりに聞いた調査では、生成AIを使ったことがあると回答した学生は68。
Furthermore, university students have a high usage rate. In a survey conducted by the National Federation of University Co-operative Associations from October to November last year, out of more than 11,000 university students nationwide, 68% responded that they had used generative AI.
2%にのぼりました。
特に「授業や研究」「論文・レポートの作成の参考」に使ったとする割合が多くなっています。
The proportion of people who used it especially for classes and research or as a reference for writing papers and reports has increased.
生成AI“必須化”する大学も
大学のなかには、生成AIの利用を必須とするところも出ています。
Some universities are even making the use of generative AI mandatory.
東洋大学の情報連携学部では、2年前から、すべての学生が無料で最新の生成AIを利用でき、授業や課題で自由に使っていいとしています。
At the Faculty of Information Networking at Toyo University, all students have been able to use the latest generative AI for free for the past two years, and they are allowed to use it freely in classes and assignments.
およそ300人が出席する1年生向けの必修授業では、レポートを書く際に、生成AIを使うことが条件となっています。
In a mandatory class for first-year students with approximately 300 attendees, it is a requirement to use generative AI when writing reports.
レポートでは、生成AIにどのような指示を出し、どのような回答が出てきたかを明記することを求めていて、使い方を含めて評価されます。
In the report, you are required to clearly state what instructions you gave to the generative AI and what kind of responses you received. Your usage, including how you used it, will also be evaluated.
学生は授業以外のところでも生成AIに気軽に質問でき、学習意欲の向上にもつながっているとしています。
Students can easily ask questions to generative AI outside of class, which is said to help increase their motivation to learn.
学生に感想を聞くと。
When I ask the students for their impressions
「使い始めの時は、単純な一答一問みたいな感じでしか使えていませんでしたが、いまは対話を通じて、考えを深めるように使うように変わりました」
「AIの具体的な弱点を、実際に確かめられる環境もあるので、性能が高くてもハルシネーションが起こることに気付くことができていると思います」
授業を担当する坂村健名誉教授
「新しいものを積極的に社会に取り入れていく力が、人間を成長させてきたと言えるので、今だったら生成AIを通して、ぜひ未来に対してチャレンジする学生が増えてほしいと思っています」
生成AIと付き合う“コツ”は?
最後に、生成AIをうまく使うコツについて、今回取材した生成AIの専門家2人に聞くと、こんなポイントを教えてくれました。
“At first, I could only use it in a simple question-and-answer way, but now I’ve started using it to deepen my thinking through conversations,” “There are also environments where you can actually check AI’s specific weaknesses, so I think I’ve realized that even with high performance, hallucinations can still occur.” Professor Emeritus Ken Sakamura, who is in charge of the class, says, “The ability to proactively incorporate new things into society is what has enabled human growth, so I hope that now, through generative AI, more students will take on challenges for the future.” What are the “tips” for working with generative AI? Finally, when we asked the two generative AI experts interviewed this time about tips for using generative AI effectively, they gave us the following points.
▽AIにわかりやすく質問するなど、コミュニケーションを増やすこと
▽1つのAIだけでなく、ほかのAIにも聞いてみること
▽AIが回答の根拠とした一次情報や引用元を確認すること
東洋大学 坂村健名誉教授
「AIは、ずっと対話を繰り返さなきゃダメなんです。
▽Increase communication, such as by asking questions in a way that is easy for AI to understand ▽Try asking not only one AI, but also other AIs ▽Check the primary sources and references that the AI used as the basis for its answers Toyo University Professor Emeritus Ken Sakamura: With AI, you have to keep having repeated conversations.
人と
同じでAIといい
仲間に
なるには、
コミュニケーションを増やさなきゃいけない」
「そして、常に疑いを持って、複数チェックをするという心構えは、AIを使うときでも大事なことで、疑いを持った場合には情報の原典を調べる。
Just like with people, to become good friends with AI, you need to communicate more. Also, its important to always be skeptical and double-check things when using AI. If you have doubts, you should look up the original source of the information.
特に、
データの
少ないもの
に関しては
気を
つけるべきだと
言えます」
国立情報学研究所 佐藤一郎教授
「AIに質問するときに、主語・目的語・動詞をきちんと伝える。
Especially when it comes to data with small amounts, we should be careful, said Professor Ichiro Sato of the National Institute of Informatics. When asking AI questions, make sure to clearly state the subject, object, and verb.
主語や
目的語が
あいまいな
場合にはAIは
勘違いをすることが
あるので、
人間にとっても分かりやすい言い方で質問するのが良いと
思います。
If the subject or object is ambiguous, AI can sometimes misunderstand, so I think its better to ask questions in a way thats easy for humans to understand as well.
AIが
間違える可能性の
高いこと
に関しては、
ほかのAIにも
同じ質問をしてみるのも
大切だと
思います」
「自分で使うかどうかは別にして、気が付かないうちに生成AIで作られているコンテンツに触れることは、これからすごく増えてくるはずです。
Regarding things that AI is likely to make mistakes on, I think its important to ask the same question to other AIs as well. Whether or not you use it yourself, I believe well be encountering content created by generative AI much more frequently without even realizing it.
回答には
間違いも
あるといった
生成AIの特性と限界を理解して使ってほしいと
思います」
(経済部・岡谷宏基、機動展開プロジェクト・籏智広太)
。
I hope people will use it with an understanding of the characteristics and limitations of generative AI, such as the possibility of incorrect answers. Economic Department: Hiroki Okatani, Mobile Deployment Project: Kota Hatachi