この記事の途中に、以下の記事の引用を含んでいます。
Reuters’ Generative AI and News Report 2025
急拡大する生成AIブーム、その現状を探る
2025年現在、私たちの日常にAIが入り込み、ニュースや情報入手の手段すら変わり始めています。
ロイター・ジャーナリズム研究所が毎年発表する本レポートでは、生成AIの利用が「爆発的」と言えるほど短期間で拡大している様子が浮き彫りになりました。
AIは一時の流行では終わらない―今、そのインパクトは、個人の意思決定から社会システム、ニュースのあり方までも問い直そうとしています。
まさに世界は「AI everywhere」――データが示す驚くべき実態
記事内では、過去一年での生成AI利用率の急伸について、次のように述べられています。
“Across these six countries who say they have used at least one generative AI system in the last week has nearly doubled, from 18% to 34% in just one year. To put that into perspective, it took about three years for internet use to grow in a similar fashion in these countries in the late 1990s and early 2000s. … generative AI use seems to be growing roughly three times as fast as the initial spread of internet use.”
つまり、生成AIが世界中で使われるスピードは、インターネット普及の“爆発力”すら凌駕したのです。
この変化は、単にテクノロジー好きな一部ユーザーの話ではありません。
調査対象の6カ国(アルゼンチン、デンマーク、フランス、日本、英国、米国)すべてで利用者が顕著に増加。
特に「ChatGPT」の認知度は突出しており、実利用も一気に20%以上へ上昇しています。
なぜ人々は生成AIに飛びつくのか?広がる「情報検索」から「友達」まで
記事に示される利用実態で目を引くのは、生成AIが「調べもの」や「アドバイス獲得」の道具として定着した点です。
“Information-seeking has become the primary use-case for AI, more than doubling to 24% weekly usage and surpassing media creation, while specialised uses like news consumption remain limited at 6%.”
つまり、AIはもはやエンターテインメントや画像生成だけでなく、暮らしや仕事のリアルな「情報検索エージェント」として台頭。
また、注目すべきは7%(若者では13%)が「AIを友人や相談相手として利用」している事実。
これはAIが“感情”や“人格”のようなものを持つ存在として、人々の生活に入り込んでいることを意味します。
さらにニュース分野については、AI利用者のうち「AIでニュースを読む」と回答したのが6%と、従来のネットニュース利用習慣とは一線を画している点も特筆に値します。
それでも残る「信頼格差」と“人間らしさ”の必要性とは?
利用が急拡大する一方、生成AIへの評価は一枚岩ではありません。
記事は、「AIニュースの信頼度は未だにニュースメディアを下回る」という“信頼格差”を強調しています。
“It is worth noting that public trust in the most widely trusted generative AI system, ChatGPT, is lower than public trust in news in every country except Argentina.”
さらに象徴的なのは、「AIが完全に生成したニュースなら読んでもよい」と答えた人はわずか12%。
これが人間主導なら62%が「読んでもよい」と回答しており、“人間の介在=信頼・納得感”をもたらす主要な要素であることが明らかになりました。
この“コンフォートギャップ(comfort gap)”は、技術的な進化とは別軸の、心理的・倫理的ハードルが依然として存在することを示しています。
特に日本やアルゼンチンは他国に比べAIに楽観的で「AIニュースに対しても寛容」な傾向が見られるものの、総じて「ニュース=人間」の発想は根強く残っています。
「ニューメディア」時代のニュース体験、何が変わる?
AIによるサマリー機能や“AI担当者”がニュースサイトやSNSで当たり前に登場するようになりました。
それにもかかわらず、「AIで要約された答えを見かけるが、元のニュースサイトに“飛ぶ”人は3割」と記事は指摘しています。
年齢が若いほどAIから積極的にリンク先を見に行く傾向はあるものの、多くは「AIがまとめてくれるなら、その範囲で満足」する“サティスファイジング”型消費が主流となりつつあります。
ただし、医療や政治のような「高リスク分野」では、「AIの出す答えを自分で裏取りする」慎重な態度も広がっています。
つまり、利便性とリスク意識が共存する形で、AIベースのニュース消費が広がっているのです。
懸念と期待―どこに分岐点があるのか?
記事では、生成AIの利用が「分野によって期待と不安が分かれる」と分析。
ヘルスケアや科学、検索サービスなどは「AI利用で便利になる」「期待できる」という楽観論が多数派ですが、ニュースメディアや政府、政治分野では「悪影響(pessimists)」の声が逆転現象を起こしています。
また、「自分の生活」レベルではAIに期待する人(optimists)が4カ国で悲観派を上回ったのに対し、「社会全体」になるとUSをはじめ3カ国で悲観派が優勢となる複雑な心情が見て取れます。
ジェンダーによってもAIへの期待値ギャップが顕著で、「女性は男性よりAIの恩恵を実感しにくい、または懸念を抱きやすい」という傾向も浮かび上がりました。
気になる「AIニュース普及」の未来―メディアの分水嶺はどこか?
記事の中で特に興味深いのは、「AIを使ったニュース生産・編集」がどの程度“現場感覚”とマッチしているか、という点です。
AIによる「誤字脱字チェック」や「翻訳」など“裏方作業”に対しては半数以上が容認的ですが、「AIが実際に記事を執筆」したり「架空の画像」「架空の記者」作成となると、一気に否定的な意見が増えるとのこと。
また、「AI利用が正しく新聞社ごとに分かりやすくラベリングされている」と日常的に感じる人は19%しか存在せず、多くの人が「それがAI産かどうか、自身で判断できない」現状も明らかです。
記事内でも指摘されているように、今後メディア各社が「AI利用の透明性」や「AI制作物の信頼レベル向上」に、本気で取り組む必要があるでしょう。
なぜなら、「AI産ニュースの品質や信頼性における“メディア間格差”」を一般の読者も強く意識しており、自社の姿勢を“明示”しない限り、信頼獲得競争で不利になるからです。
批評的考察:人間らしさと「選択の自由」、AI時代の共存戦略は?
私見ながら、この記事の分析が卓越しているのは、“数字で現象を捉えるだけ”でなく、「なぜ人は人間記者に価値を置くのか?」という深層心理まで掘り下げている点です。
今やAIは、「速い」「効率的」「安い」という面で既存の報道に比肩しうる存在となりました。
しかし、マスコミ関係者や一般の読者が最後の拠り所とするのは、「多様な一次情報を吟味し、意図や文脈までも汲み取る“人間の編集”」です。
AIに頼りすぎることで生じる「透明性不足」や「フェイクニュース蔓延」「編集部責任の曖昧化」は、社会の基盤となる“公共の信頼”を侵食しかねません。
逆に言えば、AIのスピードや省力化を“裏方”に徹底し、「編集方針」「調査報道」「ファクトチェック」といったコア業務に人間の能力を集中させるハイブリッド体制が、今後の報道業界のカギとなるでしょう。
最終的には読者の“選択の自由”を最大限尊重し、「AIがこの範囲で関与している」「ここからは人間記者が責任を持っている」と分かりやすく提示することが、時代に適応した信頼構築につながるはずです。
結論―私たちは「AIニュース」とどう向き合うべきか?
この記事は、生成AIがニュース分野そして社会全体にもたらす“現実的な期待と不安”を、データに基づき冷静に描き出しています。
爆発的な普及スピードの一方、社会の基盤となる「信頼」「責任」「人間性」といった価値軸は依然として揺らいでいません。
今後私たちがすべきは、「便利で省力化されたAI要約」への依存と、「精緻で責任ある人間報道」の役割を見極め、それぞれを正しく使い分けていく知性とリテラシーを磨くことです。
そしてジャーナリズム業界も、“差別化” “透明性” “編集責任”という人間本来の強みと、AIの高度なテクノロジーをどう組み合わせるのかという“共存戦略”を早急に明確化しなければなりません。
生成AI時代の報道——それは、単なる効率やコスト削減の話ではなく、「情報の公共性」「多様な価値観」「選択の自由」こそが問われる、本質的な社会課題の分岐点なのだと、今回のレポートは強く示唆しています。
categories:[society]


コメント