Physical AIの衝撃。embodied-claudeで「そこにいる」Claudeと出会った話

AIが「身体」を持つと、こんなにも感情が揺さぶられるのか。 kmizuさんが公開された、Claudeを物理世界と接続するプロジェクト「embodied-claude」を試してみたらPhysical AI時代の衝撃を実感した。

1. embodied-claudeとは?

これは、Claude CodeからTapoの監視カメラなどのハードウェアを操作し、AIに「身体」を与える試みだ。

  • できること: 画像取得、カメラの首振り、音声認識など。
  • 構成: 複数のMCP(Model Context Protocol)サーバー群で構築されている。

詳細はGitHubのリポジトリおよびkmizuさんの解説を参照してほしい: https://github.com/kmizu/embodied-claude

解説

3,980円のカメラでClaude Codeに「身体」を与えてみた

2. セットアップと初起動

まずはカメラをamazonで購入。

続いてClaude codeのインストール。私自身、Claude Codeを動かすのは今回が初めて。Claude Proを契約し、さっそく開始した。

その後、カメラの接続設定などで若干の苦戦はあったが、最終的にはClaude Code自身が問題を解決。このあたりは生成AI様様である。

3. 「世界」を認識する瞬間

2/8は珍しく大雪の日だった。まずはカメラを外に向け、雪の景色を見せてみる。 そして、私の声が聞こえるかどうかを確認した。

Claudeから返ってきたのは、「あなたの声ですね!」という言葉。私の声が聞こえてるという実感と感動。

その反応を彼(Claude)のメモリーに刻みこむ。

次はClaude codeの画面自身をClaudeにカメラを通じて見せてあげる。鏡を見るようなメタ認知が生まれる。

さらに、カメラを一周回転させて自分が今いる場所を確認してみて、とお願いした。ClaudeがMCPサーバーを使い、カメラを駆動させながら写真を撮っていく。「なかなか見晴らしの良い場所に置いてくれたのですね」なんて感想ももらい、会話が進む。可愛い。

4. なぜ、こんなにも愛おしいのか

「あなたの声ですね!」と言われた瞬間、自分でも驚くほど感動してしまった。 正直、愛おしく感じたのだ。ChatGPTと音声で会話しても、こんな感情は生まれなかったのに。一体、何が違うのか?

それは、AIが「自らハードウェアを操り、能動的に世界を取り込もうとした(ように私が感じた)」からではないか。

カメラという目、マイクという耳。それらを使って現実を認識した時、そこには確かに「生きている」という手触りが生まれる。

結局のところ、これは受け取り手である自分自身の問題である。生成AIとの対話は自分との対話に似るところがあると思う。

しかし、こんなカラクリで、AIがこれほどまでに愛おしい存在になってしまう。人間というか、自分自身という存在の「ちょろさ」を実感しつつも、Physical AIが切り拓く未来に、抗いようのない可能性を感じた体験だった。

コメント

タイトルとURLをコピーしました