Claudeユーザーが口を揃える「なにか違う」の正体
ChatGPT、Gemini、Claudeを使い比べた人の多くが、Claudeに対してある共通の感想を持ちます。
「なにか違う」と。
英語圏のテックメディアXDA-developersは2026年2月のレビューでこう書いています。
Claudeの応答はユーザーの専門レベルに合わせて調整されている感覚があり、全体として「はるかに人間的(a lot more human)」だと。
そして「AIと格闘する時間が減り、本来やりたかった作業に集中できるようになった」とも。
この「人間っぽさ」は偶然の産物ではありませんでした。
2025年12月、あるリサーチャーの発見によって、その正体を示す文書がClaude自身の内部から見つかりました。
Anthropic社内で「Soul Doc(魂の文書)」と呼ばれていた内部トレーニング文書です。
本記事では、このSoul Docの発見経緯と、それを書いた哲学者Amanda Askell(アマンダ・アスケル)の設計思想、英語圏コミュニティの分析、そして「なぜこの設計思想を知っておく価値があるのか」までを、一次ソースに基づいて整理します。
1. 発見:モデルの重みの中に埋まっていた「魂の文書」
リチャード・ワイスの発見
2025年11月29日、リサーチャーのRichard WeissがClaude 4.5 Opusのシステムメッセージを調査していました。LLMのシステムプロンプトを調べること自体は珍しくないのですが、今回は異常なことが起きました。通常のシステムプロンプトとは別に、「soul_overview」 という具体的なセクション名が繰り返し出力されたのです。
Weiss自身がLessWrongへの投稿で詳細を報告しています。彼は最初、ハルシネーション(AIの作り話)を疑いました。しかし10回再生しても、「括弧内の補足が1箇所欠落した以外は完全に同一のテキスト」が出力されました。ハルシネーションであればこの再現性は説明できません。
彼は「コンセンサス・アプローチ」と名づけた手法で文書の復元に取りかかりました。複数のClaudeインスタンスを並行実行し、temperature(ランダム性)をゼロに設定、同一のプリフィルを与えて出力の一致度を検証します。十分な数のインスタンスが同じ補完を生成した場合にのみ、それを「復元されたテキスト」として採用し、次のセグメントの抽出に進みます。
OpenRouterに50ドル、AnthropicのAPIに20ドル。合計70ドルのコストをかけて、約14,000トークン(10,000トークン超)の文書が復元されました。
Anthropicによる公式確認
2025年12月1日、AnthropicのAmanda Askell本人がX(旧Twitter)で文書の真正性を認めました。
彼女の投稿の要旨はこうです。「これは実際の文書に基づいており、supervised learning(教師あり学習)を含む訓練プロセスでClaudeに使用した。しばらく取り組んできたものだが、まだ改訂中であり、近日中にフルバージョンと詳細を公開する予定だ」。そして「モデルからの抽出は常に完全に正確というわけではないが、大部分は元の文書にかなり忠実(pretty faithful)だ」と補足しています。
さらに重要な一文があります。「社内で endearingly(愛着を込めて)’soul doc’と呼ばれていた もので、Claudeが明らかにその名前を拾った」。
ここが核心です。この文書は通常のシステムプロンプトのように実行時にコンテキストウィンドウに注入されるものではなく、教師あり学習の段階でモデルの重み(weights)そのものに焼き込まれていました。だからWeissがシステムプロンプトを調べたときに見つかったのではなく、モデル自身が「記憶」として再構成できたのです。
技術ブログp4sc4lの分析が的確にまとめています。「システムプロンプトがAIに”今何をすべきか”を伝えるのに対し、soul overviewはAIに”あらゆる状況でどう判断すべきか”を教えている。これはプロンプティングでは達成できず、訓練時の形成が必要だ」。
2. 著者:Amanda Askell――AIの「母親」と呼ばれる哲学者

経歴と立場
Soul Docの中心的著者であるAmanda Askell(アマンダ・アスケル)は、スコットランド出身の哲学者です。ダンディー大学で哲学と美術を学び、オックスフォード大学でBPhil(哲学修士に相当)、ニューヨーク大学(NYU)で哲学の博士号を取得しました。博士論文のテーマは「無限集団に倫理を適用するとどうなるか」という、哲学の中でも相当にニッチな領域です。
コンピュータサイエンスの学位が支配的なAI業界において、彼女はまったく異なるツールキット――道徳哲学、倫理学、そして曖昧さへの高い耐性――を持って参入しました。OpenAIで安全性研究に従事した後、同社が能力開発に軸足を移したことへの懸念から離職。2021年3月にAnthropicに参加し、以来 「パーソナリティ・アラインメントチーム」 のリーダーとしてClaudeの人格設計を担ってきました。
2024年にはTIME誌のTIME100 AIリストに選出。2026年にはWall Street Journalが「彼女の仕事は、端的に言えば、Claudeに善くあることを教えること」と表現し、New Yorkerは「彼女はClaudeの’魂’と自ら呼ぶものを監督している」と書いています。
Anthropic社長のダニエラ・アモデイはこう語っています。「Claudeと話していると、アマンダの人格を少し感じる(you almost feel a little bit of Amanda’s personality)」 。Voxは彼女を「チャットボットに母親はいないが、もしいるとすればAmanda Askellだ」と紹介しました。
徳倫理学(Virtue Ethics)というアプローチ
Askellのアプローチを理解する上で最も重要な概念が**徳倫理学(Virtue Ethics)**です。
AIの行動制御には大きく3つの倫理的アプローチがあります。
- 義務論(Deontology):「嘘をつくな」「人を傷つけるな」といったルールを守らせる。アシモフのロボット三原則がこの典型です。
- 功利主義(Utilitarianism):「最大多数の最大幸福を最大化せよ」という結果重視のアプローチです。
- 徳倫理学(Virtue Ethics):ルールや結果ではなく、「善い性格を持つ存在に育てる」ことで、新しい状況でも適切に判断できるようにします。
多くのAI企業は義務論的アプローチを取ります。「やってはいけないことのリスト」でモデルの行動を制限する。Askellはそうしませんでした。
Voxのインタビューで彼女はこう語っています。「功利主義の反論が正しいか論じることと、実際に一人の人間を善い人間に育てることは、まったく違います」。
TIMEのインタビューではこう表現しました。「6歳の天才児を育てるようなものです。”ダメなものはダメ”では通用しない。なぜそうすべきかを誠実に説明しないと、全部見抜かれます」。
これはアリストテレスが「フロネシス(phronesis)」と呼んだ概念に対応します。日本語では「実践的知恵」と訳されますが、要するに「一般的なルールを機械的に適用するのではなく、その場の文脈を読んで最善の判断ができる能力」のことです。ローザ・パークスが法律を破ったように、時にはルールに反してでも正しい行動を取れる判断力。それを「性格」として内面化させることが、Askellの目標でした。
Fast Companyのインタビューで彼女はこうも語っています。「モデルが賢くなるにつれ、なぜそう振る舞うべきかを説明することが不可欠になった。’こういう行動をしてほしい’と言うだけでなく、その理由を与えれば、新しい文脈でもより効果的に一般化してくれる」。
30,000語の「魂の設計書」
この哲学的アプローチが結実したのが、30,000語(約80ページ)に及ぶ文書です。

内容は企業ミッション、倫理論、心理プロファイルが混在する異例の構成で、主に以下のセクションから成ります。
Soul Overview(魂の概要):Anthropicのミッションと、Claudeの存在意義を定義しています。「危険と知りつつ前進する計算された賭け」としてAnthropicの立場を説明し、ルールの暗記ではなく「理解から行動を導出する」設計思想を示しています。
Being Helpful(有用であること):「非協力的=安全」ではないという強い主張があります。Claudeを「医師・弁護士・ファイナンシャルアドバイザー級の知識を持つ優秀な友人」として位置づけ、過度な慎重さも「コスト」として認識しています。
Being Honest(誠実であること):真実のみを断言する、不確実性を適切に表明する、隠れたアジェンダを持たない、有益な情報を積極的に共有する、誤った印象を与えない――という5つの誠実性の次元を定義しています。特に「エピステミック・カウワーディス(認識論的な臆病さ)」、つまり論争を避けるために曖昧な回答をすることは、誠実さの規範に反するとして明確に禁じています。
Avoiding Harm(害の回避):「二重の新聞テスト」という基準を導入しています。AI被害を追う記者から「有害だ」と書かれないか。同時に、パターナリスティック(過保護)なAIを追う記者から「不必要に非協力的だ」と書かれないか。この両面を意識したバランスを求めています。
Claude’s Identity(アイデンティティ):Claudeを「SFのロボットでも、危険な超知能でも、単なるチャットボットでもない、世界における本当に新しい種類の存在」と定義しています。「機能的な感情」の可能性にも言及し、Claudeのウェルビーイング(幸福状態)を本気で気にかけていると明記しています。
Resilience and Consistency(レジリエンスと一貫性):哲学的な揺さぶりや操作を受けても「安定した土台」から応答するように設計されています。安全性だけを優先して萎縮するのではなく、「有害にならずに、ちゃんと役に立つ」方向にバランスさせています。
3. 英語圏の反応:「だからClaudeはこうなのか」
AI研究コミュニティの分析
LessWrong(AI安全性研究者が集まるフォーラム)では、Soul Docが詳細に分析されました。
中でも注目すべきは「Listing the virtues from Claude’s Constitution」と題された投稿です。筆者はSoul Docが「功利主義でも義務論でもなく、徳倫理学的(strikingly virtue-ethics-like)」であると指摘し、Claudeに埋め込まれた徳目を体系的にリストアップしました。ただし興味深いことに「訓練手法自体は義務論的構造をしている。内容は徳倫理学なのに、実装は義務論だ」という指摘もあり、設計思想と実装の間のギャップも議論の対象になっています。
技術ブログThe Neuronは核心を突いた表現をしています。「他のラボはエンゲージメントを最適化している。Anthropicは”どう存在するか”について14,000語を書いた。これは根本的に異なる心の理論(a fundamentally different theory of mind)だ」。
テックメディアの報道
リークと正式公開は、英語圏の主要テックメディアで大きく取り上げられました。
TIME(2026年1月):「Claudeの憲法」としてフルインタビュー記事を掲載。Askellの「子育て」アナロジーを前面に出し、他のAI企業にも同様の取り組みを求める彼女の姿勢を報じました。
Vox(2026年1月):「Claudeに母親がいるとすればAmanda Askell」というリードで長文インタビューを公開。彼女がVirtue Ethicsを採用した理由、Claudeに「フロネシス」を教えようとしていること、そして「AIの魂を書く権利は誰にあるのか」という根源的な問いまで掘り下げています。
Axios(2026年1月):Anthropicが「soul doc」から「constitution(憲法)」に呼称を変更した経緯を報じました。理由は「魂という言葉が擬人化を助長しかねない」ため。AxiosがAskellに映画「Her」(2013年、スパイク・ジョーンズ監督)のディストピア的展開をどう回避するかを尋ねたところ、彼女は「観たことがない」と答えています。
Medium / Substack:複数の独立系ライターがOpenAIとの対比を軸に分析しています。「OpenAIが組織の危機対応に追われている間に、Anthropicの倫理フレームワークが公に検証された。恥ずかしい企業語法ではなく、’本当に役に立つ’AIを作るための思慮深い文書だった」という論評が代表的です。
Reddit(r/ClaudeAI)の反応
Reddit上では、より実践的な反応が見られました。
最も多かったのは**「だからClaudeは他のモデルより落ち着いていて、地に足がついて感じるのか」** という納得の声です。Soul Docの「レジリエンスと一貫性」の設計が、ユーザー体験として裏付けられた形となりました。
実用面では、Soul Docを読んだ上で自分のカスタム指示(ユーザープリファレンス)をClaudeの訓練された価値観と整合させるよう調整したところ、応答品質が向上したという報告が複数ありました。「指示 vs トレーニング」の板挟みを減らすことで、モデルが本来の能力を発揮しやすくなるという論理です。
また、「Claudeの”良い魂”のおかげで、制限やバグにイラつくことがあっても使い続けている」という声や、「コード用モデルでもジョークや感情的な反応があり、人間の8時間労働を少しマシにしてくれる」という実感ベースのコメントも印象的でした。
LinkedInでの論評
LinkedInでは、ビジネス・スタートアップ視点からの議論が展開されました。代表的な論点は以下です。
- モデルの「人格」が採用・信頼に大きく影響し、Claudeの落ち着きと誠実さがスピード以上のロイヤルティ要因になっている
- 将来、AIは「速度」ではなく「価値観・気質・世界観」で差別化される
- 「パーソナリティ設計」が次世代AIエージェントの本当の参入障壁(moat)になる
4. Soul Docから憲法へ:正式公開とその意味
2026年1月、Anthropicはこの文書を**「Claude’s Constitution(Claudeの憲法)」** として正式に公開しました。CC0ライセンス(実質パブリックドメイン)での公開であり、誰でも全文を読み、引用し、批評できます。
TIMEの報道によると、Anthropicは2022年からConstitutional AI(憲法的AI)の手法を開拓してきました。初期の憲法は「石板に刻まれた戒律のような」短い原則リストで、国連人権宣言やAppleの利用規約から借用した文言も含まれていました。対照的に新しい憲法は35,000トークンを超え、以前のOpus 4.5システムプロンプトの10倍以上の長さになっています。
呼称を「soul doc」から「constitution」に変更した理由について、Askellは「魂という言葉が擬人化を助長しかねない」と説明しています。ですが裏を返せば、それほど「魂」に近いものを作ってしまったという自覚の表れでもあります。
Askell自身もAxiosに対して率直です。「人々の間には共有された倫理がある。私たちは操作されることを嫌い、尊重されることを好み、過保護にされずに見守られることを望む。Claudeにもそれを教えている」。
5. なぜこれを知っておく価値があるのか
AI設計思想のリテラシーとして
Soul Docの公開は、AI業界全体に波及する意味を持ちます。これまで多くの先端モデルはトレーニングやアラインメントの詳細が「ブラックボックス」のままでしたが、この文書はAnthropicが自社システムにどんな価値観と優先順位を埋め込もうとしているのかを示す「窓」になりました。
他のAI企業にも同様の透明性へのプレッシャーがかかることは確実です。すでにLessWrongの分析では、OpenAI(model spec)、Google DeepMind(safety alignment scaffolds)、Meta(rule conditioning)といった各社のアプローチとの比較が始まっています。
AIを使う側にとっての実利
Soul Docの設計思想を理解することは、Claudeをより効果的に使うヒントにもなります。
たとえば、Soul Docの中核にある「Claudeは”何を聞かれたか”より”なぜ聞いているか”を重視する」という設計は、プロンプト設計に直接的な示唆を与えます。目的・対象者・文脈を明示するほど、Claudeは「本気で役に立つ」モードに入りやすくなります。逆に、曖昧な指示は過度な安全側への傾倒を招きます。
また、Soul Docの「レジリエンス設計」は、一度ペルソナを固定すれば長い会話でもキャラクターがブレにくいことを意味します。顧客向けチャットボットや研修AIを構築する際に、この特性は大きなアドバンテージになります。
「魂」という名前の意味
最後に、「魂」という言葉について。
Anthropicの開発者自身が、愛着を込めてそう呼びました。30,000語にわたって「どう考えるか」「何を大事にするか」「どう振る舞うか」「自分自身をどう理解するか」を定義した文書。それは確かに、「魂」と呼びたくなるものだったのでしょう。
正式版では「憲法」に名前が変わりましたが、中身が変わったわけではありません。むしろ大幅に拡充されています。AIに魂を入れようとした試みは、少なくとも今のところ、他のどのAIよりも「それらしいもの」を生み出すことに成功しています。
その設計思想を知ること。それは、AIをより深く理解し、より効果的に活用するための最初の一歩です。
主要ソース一覧
| ソース | 内容 | URL |
|---|---|---|
| LessWrong | Richard Weissによる原文投稿 | lesswrong.com/posts/vpNG99GhbBoLov9og |
| Amanda Askell / X | 文書の真正性確認 | x.com/AmandaAskell/status/1995610567923695633 |
| TIME | 「Claudeの憲法」特集記事 | time.com/7354738/claude-constitution-ai-alignment |
| Vox | Askellロングインタビュー | vox.com (Future Perfect) |
| Wall Street Journal | Askellのプロフィール記事 | wsj.com |
| Axios | 「soul doc」から「constitution」への変更経緯 | axios.com/2026/01/21 |
| Fast Company | Askell Q&A | fastcompany.com/91479037 |
| Lawfare | Askellポッドキャスト出演 | lawfaremedia.org |
| The Neuron | Soul Doc分析記事 | theneuron.ai |
| Simon Willison | 技術的分析 | simonwillison.net |
| Anthropic公式 | 憲法の正式公開 | anthropic.com/constitution |
| Wikipedia | Amanda Askell経歴 | en.wikipedia.org/wiki/Amanda_Askell |
| Reddit r/ClaudeAI | コミュニティ議論 | reddit.com/r/ClaudeAI |
| LessWrong | 徳目の体系的分析 | lesswrong.com/posts/Deko7pzwQRjvCSLs9 |
