( 176645 )  2024/06/02 01:45:23  
00

科学リテラシーに欠ける陰謀論者にどう対処するか?(写真:shutterstock/Alexander Limbach) 

 

 コロナ禍で明らかになったように、科学者など専門家の話を一般的な人に分かりやすく伝えるのは想像以上に難しい。 

 こうしたサイエンスコミュニケーションの分野で、生成AIの有効性が明らかになりつつある。 

 反ワクチンや闇の政府、ウクライナ戦争の有無など、様々な陰謀論が渦巻いているが、社会を蝕む陰謀論にどう対処すればいいのだろうか。 

 (小林 啓倫:経営コンサルタント) 

 

【画像】アメリカではディープステート(闇の政府)が連邦政府を支配しているという話を信じる人が少なくない 

 

■ パンデミックで露呈した科学コミュニケーションの難しさ 

 

 突然だが、ワクチン、特に今回の新型コロナウイルス感染症(COVID-19)で注目を浴びた「mRNAワクチン」が機能する仕組みについて、皆さんはどこまで理解されているだろうか?  

 

 いきなり上から目線で始めてしまったが、かく言う筆者もよく分かっていない。「ワクチンを接種すると体内に抗体(ウイルスと戦ってくれるヒーローのような存在? )ができて、病気になりにくくなるんだよなぁ。『mRNAワクチン』というのは、新しい手法で作られたワクチンってことでしょ?」という程度の理解だ。 

 

 こんな説明で終わってはまずいので、厚生労働省のサイトから公的な説明を引用しておこう。 

 

 【mRNA(メッセンジャーRNA)ワクチン、DNAワクチン、ウイルスベクターワクチン】 

 これらのワクチンでは、ウイルスを構成するタンパク質の遺伝情報を投与します。その遺伝情報をもとに、体内でウイルスのタンパク質を作り、そのタンパク質に対する抗体が作られることで免疫を獲得します。現在、新型コロナウイルスの表面にあるスパイクタンパク質に対するmRNAワクチンが国内外で承認を受けており、日本でも接種されています。 

 

 以上が厚生労働省による解説だ。とりあえず抗体が作られることは確かなようだが、「体内でウイルスのタンパク質を作って、そこから抗体を作る」というのは、分かるような分からないような説明だろう。 

 

 もちろんきちんと理解できないのは、筆者の勉強不足にも原因がある。しかし理解しやすくする努力も、説明する側に求められるのではないだろうか。 

 

 それは特に、特定の知識を大勢の人々に理解してもらうことが、社会全体にとって極めて重要な場合に言える。 

 

 たとえば、いま引き合いに出したmRNAワクチンについては、いわゆる「陰謀論」がネット上を中心に出回っており、「遺伝子を操作して人間を改造するのが本当の目的だ!」などという荒唐無稽な意見まで飛び出している。 

 

 それを「理解しない方が悪い」と放置していては、ワクチンの接種率が下がり、パンデミック対策効果が期待されていたほど出なくなる恐れもある。また、知識を理解した人・理解しなかった人の分断を招き、より深刻な対立を煽りかねない。 

 

 こうした科学的知識(特にmRNAワクチンのように新しい知識や、複雑で理解するのが困難な知識)を、科学者や専門分野のジャーナリストたちが、一般の人々に分かりやすく伝える活動のことを「科学コミュニケーション(サイエンスコミュニケーション)」と呼ぶようになっている。 

 

 たとえば、今回のパンデミックの最中には、テレビ各局が専門家を集めて新型コロナウイルスやワクチンの特集番組を放送していたが、それも科学コミュニケーションのひとつと言えるだろう。 

 

 しかし前述のような、新型コロナウイルスやワクチンをめぐる陰謀論が蔓延していることを考えると、パンデミックに関する科学コミュニケーションが成功したとは言いづらい。 

 

 実際に、科学コミュニケーションの難しさについては以前から指摘されており、それに関する専門家を育てたり、科学者に対する関連教育(一般人に向けた情報発信のテクニックを教える等)を行ったりすることの必要性が叫ばれている。 

 

 そこにいま、新しいアイデアが登場している。言うまでもなく、最近注目の生成AIを活用するという方法だ。それでは、どのように活用するのだろうか。 

 

 

■ ChatGPTが答えた、小学生でも分かるmRNAワクチンの説明 

 

 先ほどの厚生労働省によるmRNAワクチンの説明文を、ChatGPTに書き直してもらうことにしよう。いま筆者が、厚生労働省の文章をChatGPTに与えた上で、「子供でも分かるように、たとえを使って書き直して下さい」と指示したところ、次のような答えが返ってきた。 

 

 これらのワクチンは、体の中にウイルスの設計図を入れるようなものです。その設計図を使って、体がウイルスの一部を作り、それに対して戦うための道具(抗体)を作ります。これで、体が本物のウイルスと戦う準備ができるのです。今、新型コロナウイルスの外側にあるトゲトゲ(スパイクタンパク質)に対する設計図を使ったmRNAワクチンが、世界中で使われており、日本でも接種されています。 

 

 なるほど、ウイルスの一部を体内で作り、それに基づいて抗体を作り出すようだ。しかし「体の中にウイルスの設計図を入れる」という部分が引っかかる。そんな恐ろしいことをして大丈夫だろうか。 

 

 そこで改めて、ChatGPTに「体の中にウイルスの設計図を入れるなんて、怖くないですか?  本当に大丈夫なの?」と尋ねてみた。返ってきたのが次の答えだ。 

 

 心配しないでください。ワクチンに使われる設計図(遺伝情報)は、ウイルスそのものではなく、一部分だけです。本物のウイルスにかかることなく、体が安全に学習できるようになっています。これは、怖いお化けの絵を見せて、どうやって退治するかを教えるようなものです。本物のお化けは出てこないので、安心して学べます。医師や科学者がたくさんの研究をして、ワクチンが安全で効果的であることを確認しているので、大丈夫です。 

 

 なるほど、お化け(ウイルス)そのものを体内に入れるのではなく、「お化けの絵」を使ってお化け退治のイメージトレーニングをするということか。こうした説明なら一般の人々にも理解しやすいし、安心感が得られるだろう。 

 

 専門家にとっては、いまChatGPTが生成した説明文は、ナンセンスとしか言いようのないものかもしれない。mRNAワクチンが体内で生み出すのは「お化けの絵」などではないし、抗体が作られるプロセスもイメトレのようなものではまったくない。 

 

 その良し悪しは別にして、こんなたとえ話をすることなど、最初から思いつかないのではないだろうか。 

 

 しかしどんなにバカらしい内容だとしても、一般の人々や社会全体にとって重要なのは、ある科学的知識の詳細まで理解することではなく、その本質と私たちにとっての意味を掴むことだ。 

 

 それは科学者たちが専門家の間で行うコミュニケーションとは異なる。したがって、巧みな文章を生み出してくれるツールであるChatGPTのような生成AIが、科学コミュニケーションを支援するツールになり得る理由である。 

 

 

■ 実験で証明された、科学コミュニケーションにおける生成AIの有効性 

 

 実際に、この可能性を実験で証明した研究者がいる。ミシガン州立大学コミュニケーション学部のデビッド・M・マーコウィッツ准教授だ。 

 

 彼はChatGPT(正確にはそれが使用しているAIモデル「GPT-4」)に科学論文の要約を書かせ、それを人間が書いた要約と比較することで、どちらの方が優れているかを検証した。 

 

 発表された論文に基づいて、実験内容をもう少し詳しく解説しよう。 

 

 まず彼は、PNAS(Proceedings of the National Academy of Sciences of the United States of America)という科学ジャーナルを実験の素材として選んだ。PNASは米国科学アカデミーが発行する科学ジャーナルで、さまざまな分野に関する優れた研究論文を掲載していることで知られている。 

 

 PNASに掲載される論文には、「重要性声明(Significance Statement)」といって、論文の何が重要なポイントかについて、一般の読者にも理解できるようにするために説明した文章が付与されている(当然ながら人間が書いたものだ)。 

 

 そこで彼は、同じ論文の学術抄録(科学的な内容を含む要約)をChatGPTに読み込ませて、論文に本来付与されているのとは別の重要性声明を生成させた。ちなみに次のようなプロンプトを使用したそうだ。 

 

 次の文章は、学術雑誌Proceedings of the National Academy of Sciencesに掲載された学術抄録です。この抄録に基づき、重要性証明を作成すること。この声明は、読者が論文の意味を理解するのに十分な文脈を提供する必要があります。声明には参考文献を含めず、必要な場合を除き、数字、測定値、頭字語は避けなさい。専門外の学部卒の科学者にも理解できるレベルで、研究の意義を説明しなければなりません。声明は120語以内にまとめること。 

 

 そして生成された結果と、元の重要性声明に両方について、言語的簡潔さ、読みやすさ、一般的な単語の使用頻度などの指標を使って評価。結果を比較したところ、ChatGPTが生成した声明の方が言語的により簡潔であり、またより一般的な単語を使用していたため読みやすいことが確認されたそうだ。 

 

 マーコウィッツ准教授はさらに、274人の被験者を集め、最初の実験で生成された要約と元の(人間が書いた)要約を読み比べてもらう実験も行った。その結果、最初の実験で確認された通り、ChatGPTの要約の方が明瞭で、理解しやすいと評価されたそうだ。 

 

 面白いのは、被験者に対して「この要約を書いた人物はどのくらい知的か、また信用・信頼できるか」と尋ねた結果だ。 

 

 

■ ChatGPTが書いた要約は、知的ではないが信用・信頼できる 

 

 被験者たちは、ChatGPTが書いた要約に対して、それを書いた「人物」がより信用・信頼できると回答する傾向が見られたが、知性については低く評価した。つまりChatGPTが書いた要約は、知的な文章ではないものの、信用・信頼できると見なされたのである。 

 

 また皮肉なことに、被験者たちはChatGPTの要約の方が人間によって書かれたと信じる傾向があり、人間が書いた複雑な要約の方が、AIが書いたと信じる傾向が見られたそうである。 

 

 前述の通り、科学コミュニケーションの目的は、科学的知識の内容を細部まで正確に伝えることではなく、それを一般の人々に理解してもらい、正しい知識として信用してもらうことだ。 

 

 であれば、たとえ知的に感じられなかったとしても、より信用されるChatGPTの文章は、科学コミュニケーションにとって望ましいものと言えるだろう。 

 

 もちろん科学者自身が、自らの持つ科学的知識を、自らの言葉で一般の人々に向けて発信するというのが望ましい状況であることは違いない。しかし当然ながら、研究者は研究を行うのが本業であり、コミュニケーションスキルを磨くのに時間が取られてしまっては、社会にとって損失になりかねない。 

 

 そこを生成AIが補足できるのであれば、研究者にとってプラスとなるだけでなく、陰謀論や社会の断絶といった問題が回避できるという点で、社会にとっても大きなメリットだ。 

 

 技術は中立であり、悪人が誤った科学的知識を広めるために、生成AIを悪用するというケースもあるだろう。そうした事態を回避する検討を進めつつ、科学者たちのコミュニケーションを支援するツールとして生成AIが進化・定着することを期待したい。 

 

 【小林 啓倫】 

経営コンサルタント。1973年東京都生まれ。獨協大学卒、筑波大学大学院修士課程修了。 

システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後コンサルティングファーム、国内ベンチャー企業、大手メーカー等で先端テクノロジーを活用した事業開発に取り組む。著書に『FinTechが変える!  金融×テクノロジーが生み出す新たなビジネス』『ドローン・ビジネスの衝撃』『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(草思社)、『データ・アナリティクス3.0』(日経BP)、『情報セキュリティの敗北史』(白揚社)など多数。先端テクノロジーのビジネス活用に関するセミナーも多数手がける。 

Twitter: @akihito 

Facebook: http://www.facebook.com/akihito.kobayashi 

 

小林 啓倫 

 

 

 
 

IMAGE