![]()
LLMへの懐疑
2026.02.05
パラメトリック・ボイス
東京大学 ケント・リー
昨年、Archi Futureは「2つのみらい:肯定と懐疑」というタグラインのイベントを開催しま
した。建築は常に道具によって形作られてきましたが、大規模言語モデル(LLM)の到来は、
新しい素材や手法と同等に重要な転換点を示していると感じます。しかし、興奮と同時に、私
は次第に不安を覚えています。本稿では、私の楽観がなぜ懐疑によって抑えられているのか、
その理由を四つに分けて述べたいと思います。
LLMは社会の運営の仕方に明らかなパラダイムシフトをもたらしました。多くの分野で試験的
に導入され、実行可能に見える場面には急いで適用されています。これらのモデルは膨大なテ
キストで学習し、言語のパターンを認識することで、首尾一貫し文脈を踏まえた、時に人間ら
しく感じられるテキストを生成します。核心にあるのは、与えられたコンテキストウィンドウ
内で次に来る語や語群が「何であるべきか」を予測することです。LLMが進化するにつれて、
このコンテキストウィンドウは劇的に拡大し、現代のモデルは書籍規模の文脈を処理できるよ
うになり、より長いテキストを解析し、長時間の会話でも一貫性を保てるようになっています。
私は日常的にLLMを利用しています。情報検索、語学学習、技術的理解において、事実上検索
エンジンに取って代わっています。しかしそれでも、LLMの未来には懸念があります。以下に
四つの理由を挙げます。
使い勝手が良すぎます。
どれほど頻繁に、誰かがブリーフをそのままLLMに入力し、いくつかの基本的なアイデアを添
えて生成された回答を渡してくるでしょうか。多くの場合、その回答は課題に対して十分であ
り、コストや時間の面で効率的です。しかし、創造性や文章力は鍛え、維持すべき筋肉です。
時折伸ばさなければ衰えてしまいます。本稿で私がLLMへの懸念を述べているにもかかわらず、
母語から日本語への翻訳にLLMを用いたのもそのためです。手間を省き、同僚に負担をかけた
くなかったからです。読者の皆さんは不整合や文法の誤りに気づくかもしれません。私は気づ
かないでしょうし、私の翻訳能力も向上しません。
均質化した単一のインターネットです。
目に見える顕著な影響の一つは、オンライン上に流通するLLM生成コンテンツの膨大な量です。
大量の仮想エージェントを展開し、テキストを生成し、既存の素材をリミックスし、あたかも
有機的に相互作用しているかのように振る舞わせることは今や容易です。いわゆるデッドイン
ターネット理論はこれを極端に想定し、オンライン上のほとんどのコンテンツが合成的になり、
エージェント同士が相互作用する未来を描きます。これは推測的なシナリオですが、根底にあ
る懸念は現実的です。将来のLLMは人間が書いたテキストと区別がつかない合成データで訓練
される可能性があり、これをモデル崩壊と呼びます。蛇が自分の尾を食うように、このループ
は真正性を侵食し、文化的多様性を平坦化し、初期世代のモデルに埋め込まれた誤りやバイア
スを増幅するリスクを孕みます。
LLMはあなたの友達ではありません。
最近の仮想エージェントに関する学術会議では、多くの発表が事前に定義したペルソナを割り
当てたときの各モデルの性能比較に集中していました。実際には、ほぼ同一の応答の言語的な
差異を評価するに過ぎません。あなたがそう促したからといってLLMがより知的になるわけで
はなく、そう聞こえるだけです。私がより驚いたのは、LLMを友人や恋人として提示すること
が常態化していた点です。これが社会にとって純益かどうかの議論はありませんでした。孤独
が流行病のように語られる時代に、仮想エージェントを社会的充足への道として熱狂的に受け
入れる姿を見るのは憂慮すべきことです。
LLMは悪用されていますし、これからも悪用されるでしょう。
私は特に、近い将来におけるLLMの運用方法を懸念しています。LLMには安全フィルター、シ
ステムプロンプト、アラインメント機構といった機能があり、その出力は形作られ、誘導され、
微妙に操作され得ます。LLMが人間関係の代替として機能する場合、その応答の操作はユー
ザーへの操作に直結します。これにより、極めてターゲットを絞った感情的影響、より精緻な
マーケティング戦略、そして高度化するソーシャルエンジニアリング攻撃への道が開かれます。
総じて、これらの懸念はこれらの道具がもたらす社会的帰結を反映しています。LLMは静かに
入力を待つだけではなく、私たちの働き方、コミュニケーション、思考のあり方を積極的に再
形成しています。その利便性は学んだ技能を外注することを許し、その出力は合成的な相互作
用でインターネットを飽和させ、その設計は統計モデルを伴侶として擬人化することを誘い、
理解の欠如と導入の速度が相まって、影響力と操作の強力な手段となります。
とはいえ、LLMを全面的に拒絶すべきだという意味ではありません。学習、アクセシビリティ、
協働のための新たな道を切り開き、十年前には考えられなかった可能性をもたらしています。
技術と潜在力は驚くべきものであり、本コラムにもそれを肯定する原稿は多くあります。私た
ちは希望を持ちつつも批判的な姿勢で、肯定と懐疑の両方を携えて未来に臨むことができます。
LLMは進化を続け、私たちとの関係も変化していくでしょう。重要なのは、進化を私たちが導
くのか、それとも利便性や新奇性に導かれるのかという点です。
最後に、このコラムは東京大学生産技術研究所豊田研究室メンバーが持ち回りで執筆させてい
ただいているコラムの一つです。他にも様々なテーマのコラムがたくさんありますので、ぜひ
ご覧ください(他のコラムはこちらから)。

以下、上記のコラムを英文でも掲載します。
LLM Scepticism
The University of Tokyo Lee Kent
Last year, Archi Future held an event with the tagline “Two Futures: Affirmation and
Scepticism” (translated from Japanese). Architecture has always been shaped by its
tools, and the arrival of Large Language Models (LLM) marks a shift as significant as
any new material or method. Yet alongside the excitement, I feel a growing unease.
In this essay, I explore four reasons why my optimism is tempered with scepticism.
LLMs have clearly triggered a paradigm shift in how society operates. They are being
tested in many fields and are rushed to be implemented wherever they appear even
remotely feasible. These models are trained on vast amounts of text to recognise
patterns in language, and in turn generate text that feels coherent and context-aware,
even humanlike. At their core, they predict what the next word or words ‘should be’
within a given context window. As LLMs improve, their context window has expanded
dramatically, with modern LLMs able to process context windows on the scale of
books, meaning they can analyse longer texts and maintain cohesion over longer
conversations.
I use LLMs regularly in day-to-day life; they have effectively replaced search engines
for information retrieval, language study and technical understanding. Despite this,
the future of LLMs concern me, I’d like to outline four reasons why.
They are too easy to use.
How often have you received a document or task response where the person has
simply put the brief into an LLM, maybe with a couple of their base ideas, and offered
you the generated response? Often, the response is adequate for the task and is a
cost and time-effective approach. However, creativity and writing are muscles that
must be developed and maintained. Without stretching them occasionally, they will
weaken. Even for this article, in which I am describing my concerns with LLMs, I have
used an LLM to translate from my native language to Japanese. I do this because it is
easy, and I do not want to burden my colleagues. I’m sure you will notice
inconsistencies and grammatical errors. I will not; and my translation abilities will not improve.
A single homogenised internet.
One visible and striking impact is the sheer volume of LLM generated content
circulating online. It is now trivial to deploy large numbers of virtual agents that
generate text, remix existing material, and interact with one another in ways that
appear organic. The ‘dead internet theory’ takes this to the extreme, imagining a
future where almost all online content is synthetic; agents interacting with other
agents. Whilst this is a speculative scenario, the underlying concern is real. Future
LLMs may be trained on synthetic data that cannot be distinguished from
human‑authored text, known as model collapse. Like a snake eating its tail, this loop
risks eroding authenticity, flattening cultural diversity, and amplifying the errors and
biases embedded in earlier generations of models.
LLMs are not your friends.
At a recent academic conference on virtual agents, many presentations focused on
comparing how different models performed when assigned predefined personas. In
practice, this meant evaluating slight linguistic variations of essentially identical
responses. The LLM is not more intelligent because you prompted it to be, it only
sounds that way. What surprised me more was the normalisation of LLMs being
presented as friends or romantic partners. There was no discussion of whether this
was a net positive for society. In an era frequently described as a loneliness epidemic,
to see the enthusiasm towards using virtual agents as the proposed pathway towards
social fulfilment is disheartening.
LLMs are being and will be misused.
I am particularly concerned about how LLMs will be deployed in the near future. LLMs
have features such as safety filters, system prompts, and alignment mechanisms,
meaning their outputs can be shaped, steered, or subtly manipulated. When LLMs
serve as stand‑ins for human relationships, any manipulation of their responses
becomes a manipulation of the user. This opens the door to hyper‑targeted emotional
influence, more precise marketing strategies, and increasingly sophisticated
social‑engineering attacks.
Taken together, these concerns reflect the societal consequences of these tools. LLMs
do not sit quietly and await input, they are actively reshaping how we work,
communicate and think. Their convenience permits us to offload learned skills, their
output saturates the internet with synthetic interactions, their design invites the
anthropomorphising of statistical models as companions, and the lack of
understandingcombined with the speed of adoption makes them powerful
instruments for influence and manipulation.
This does not mean LLMs should be rejected outright, and they have opened new
pathways for learning, accessibility and collaboration that a decade ago would not
have been thought possible. The technology and potential are incredible, and there
are many manuscripts in this column that affirm this. We can approach the future
with both affirmation and scepticism with a mindset that is hopeful, yet critical. LLMs
will continue to evolve, as will our relationship with them. The key is whether we
guide the evolution or let the convenience and novelty guide us.
ケント・リー 氏 東京大学生産技術研究所 特任研究員



























