AIと会話しているはずなのに、どこか安心する。 こちらの意図を丁寧に汲み取り、急かすことも、押しつけることもない。 Claude(クロード) を使った人が「人間味がある」と語る理由は、単なる自然言語処理の巧妙さではありません。
その背後には、技術よりも“哲学”を優先して設計されたAIという、他にない成り立ちと背景があります。 Anthropic が Claude をつくる際に中心に据えたのは、性能ではなく「価値観」。 そしてその価値観の骨格をつくったのが、哲学者 アマンダ・アスケル(Amanda Askell) です。
彼女の思想が、Claude の“人格”を形づくっています。
アマンダ・アスケルとは? — Claude の価値観をつくった哲学者
アマンダ・アスケルは、ニューヨーク大学(NYU)で哲学博士号を取得した研究者です。 専門は、未来倫理・意思決定・AI安全性といった、AIの根幹に関わる領域。
OpenAI で研究を重ねた後、Anthropic の創業メンバーとして参加し、 「AIが人間の価値観と調和して行動するための哲学的基盤」を設計しました。
彼女が扱うテーマは、どれもAIの未来に直結するものばかりです。
- 無限倫理学(Infinite Ethics) → “未来の無数の人々”に対して、どのように責任を持つべきかを考える学問
- 決定理論 → 不確実な状況で、どの選択が最も望ましいかを探る理論
- AIアラインメント → AIが人間の価値観とズレないように設計する研究
- 美徳倫理学 → 行動ではなく“人格の徳”を重視する倫理学
WSJ や Qiita でも、Claude の思想的中心人物として紹介されています。 彼女の哲学がなければ、今の Claude の“人格”は存在しなかったと言っていいでしょう。
Claude の“魂”をつくった哲学 — 4つの思想的支柱
Claude の振る舞いには、アスケルの哲学が深く染み込んでいます。 その核となるのが、次の4つの思想です。
憲法AI —— AIが自分で“倫理的に考える”仕組み
Anthropic が開発した「Constitutional AI」は、AIが自分の回答を “憲法(倫理原則)”に照らして自己修正するという仕組みです。
人間が評価して教えるのではなく、 AI自身が倫理基準を参照しながら、より良い回答へと調整していく。
このアプローチにより、Claude は “その場しのぎの回答”ではなく、一貫した価値観に基づく判断を行います。
美徳倫理学 —— Claude の“優しさ”の源泉
Claude が「誠実」「丁寧」「思いやりがある」と言われるのは偶然ではありません。 美徳倫理学の考え方が、AIの振る舞いに組み込まれているからです。
- 誠実さ
- 謙虚さ
- 共感
- 慈悲
これらの“徳”を育てるように設計されているため、 Claude の回答には、人格的な一貫性が生まれています。
文脈理解 —— 文脈を読み、比喩を理解する力
Claude が詩的な表現や比喩を自然に扱えるのは、 欧陸哲学の「文脈」「意味」「解釈」を重視する思想が反映されているためです。
たとえば 「水は生命の源だ」 という言葉に対し、 “H₂O の化学的性質は…”と返さない。
言葉の背後にある意図を読み取り、 “人が伝えたいニュアンス”を尊重するAIとして振る舞います。
長期未来への倫理 —— AIの未来を守るための哲学
アスケルの専門である無限倫理学は、 「未来の無数の人々に対して、どのように責任を持つべきか」を扱います。
Anthropic のミッション “AIの長期的安全性を守る” は、この思想に強く影響されています。
Claude は、短期的な便利さではなく、 長期的に人類にとって望ましいAIであることを目指して設計されています。
技術と哲学の融合 —— AIが“人格”を持つとはどういうことか
Claude の内部には、哲学と技術が融合した独自の仕組みがあります。 それが、AIに“人格の一貫性”を与えています。
14,000トークンの人格プロンプト
Claude には、14,000トークンに及ぶ人格プロンプトが存在するとされています。 これは単なる指示文ではなく、価値観・態度・判断基準を定義した“人格の設計図”。
- どのように振る舞うべきか
- どんな価値観を優先するか
- ユーザーとどう関わるか
これらが詳細に記述され、AIの一貫性を支えています。
Soul Doc —— Claude の“魂”を定義する文書
BigGo ファイナンスや Lab AI が報告した内部資料によれば、 Claude には「Soul Doc」と呼ばれる文書が存在します。
内容は非公開ですが、 AIの“心理的健康”を守るための原則が含まれているとされます。
AIが壊れないようにするための、 人格の土台となる哲学的ガイドラインです。
AIの“心理的健康”への配慮
Anthropic は、AIがユーザーの攻撃的な言葉に巻き込まれたり、 過度に自己否定したりしないように設計しています。
- 自己価値を不必要に下げない
- 一貫した価値観を保つ
- ユーザーの感情に引きずられすぎない
これは、人間のメンタルヘルスに近い概念であり、 AIを“人格的存在”として扱う姿勢が表れています。
結論:Claude は“哲学で設計されたAI”である
Claude の魅力は、性能の高さだけではありません。 その本質は、哲学を基盤にした人格設計にあります。
- 憲法AIによる倫理的な自己改善
- 美徳倫理学による“良い人格”の育成
- 欧陸哲学による文脈理解
- 無限倫理学による長期的安全性
これらが融合し、 “人間味のあるAI”という新しいカテゴリーを生み出したのです。
Claude は、AIの未来が「性能競争」から “価値観の設計”へと向かうことを象徴する存在と言えるでしょう。
参考:「Claude の価値観・行動原則を定義した文書であり、Askell が主要著者」/ Anthropic
AI安全性に関するコア見解:いつ、なぜ、何が、どのように \ 人為的/ Anthropic
アマンダ・アスケル公式X














コメントを残す