Empirical evidence of Large Language Model’s
influence on human spoken communication
本論文では、ChatGPTのリリース後、特定の単語(「delve=掘り下げる」「comprehend=理解する」「boast=誇る」「swift=迅速な」「meticulous=綿密な」など)の使用がYouTubeの学術トークやポッドキャストで急増したことを示しています。さらに影響は台本のないスピーチやインタビューなど自然な対話にも及んでいるとのことで…閉じたフィードバックが働き知らず知らずAIっぽい話方になっていくというのは少し怖い話です。わざと多様性を持たせるようなアルゴリズムとか(とは言って偏ったものにならないか疑問ですが)を考えるべき時期なのかもしれません。
この研究の主な内容は以下の通り。
- 研究方法: 研究者たちは、YouTubeの学術トークやポッドキャストから74万時間以上に及ぶ会話データを分析しました。ChatGPTが頻繁に使用する単語(「GPTワード」)を特定し、その使用頻度をChatGPTリリース前後の期間で比較するために「合成対照法(synthetic control method)」と呼ばれる因果推論技術を使用しました。
- 主な発見: ChatGPTが好む単語の使用が、そのリリース後に急増していることが確認されました。この影響は、学術的な内容だけでなく、科学技術、ビジネス、教育といった分野のポッドキャストなど、より自発的なコミュニケーションにも及んでいることが示されました。一方で、宗教・精神性やスポーツといった分野では、この影響は統計的に有意ではありませんでした。
- 文化的フィードバックループ: 論文は、この現象が、人間が機械を訓練し、その機械が独自の文化的特徴を発現させ、さらに人間がその特徴を取り込むという「閉じた文化的フィードバックループ」の始まりを示していると論じています。
- 懸念: この研究は、言語的・文化的多様性の侵食や、大規模な操作のリスクに対する懸念も提起しています。
Please follow and like us:



