クレタ人の踵

AIならびにRobotに関する雑記。 世迷言など。

クレタ人の踵aibo Owner's WEBRINGに参加してます。
【ID:120 所有者:FebruaryMarch
[ 二つ前へもどる | 前へもどる | 次へ | 次の次へ ]
[ 前の5サイトを表示 | 次の5サイトを表示 | ランダムで移動 | リストを表示 ]

スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

夢見るロボット[1]

夢見るロボット[1]
とにかく眠い、寝させてください


 現時点の(というか過去に遡っても)ロボットに搭載されているAIで、環境認識により内部モデルを構築して、それをもとに状況判断を行うようなものはない。
 別にロボットに搭載されていなくても、そんなAIはない。
 ないといったら、ない。
 ないのだが、そんなものがあったらどうなるか、みたいなことを考えるのは自由である。
 そんなわけで、少し考えてみることにする。

もしもそういうAIがあったらどんな風に動くのか?

 環境認識に使われるセンサーで今のところ利用できるのは、視覚、聴覚、触覚ぐらいである。これらの情報群を関連させて内部モデルを構築することになる。まあ、どこでも研究していることで、これ自体はめずらしいことでもなんでもない。
 手順としては、視覚(カメラ)、聴覚(マイク)、触覚(圧力センサー)の時系列データを蓄積して、コンピュータ処理する。処理の内容はいまのところ人間が決めてやっているのだが、そのうちAI側でなんとかしてほしいところだ。
 そうやって過去のセンサー情報を圧縮再構築してモデルをつくる。
どうしてこんな処理が必要かというと、蓄積されたRAWデータでは実時間応答のレベルでの条件判断に使えないからである。整理再統合して「わかりやすい」形にしてからでないと経験として生かすことができない。

モデル構築にかかる計算時間をどうするか?

 で、このモデル構築なのだが、普通の研究とかだと、裏で一生懸命計算して、モデルが組み上がったところでお披露目するのが普通である。とにかく、このモデル構築には計算時間がかかる。そんなわけでリアルタイム処理はまず無理だ。
 さて、ここで問題なのだが、研究レベルではいいとしても、実際にこういうAIをロボットに搭載した場合にモデル構築にかかる計算時間をどうすべきだろうか?
 並列処理してCPUパワーのあまっているところにリモートで外注に出せ、とか言われるかもしれないが、そもそもRAWデータをリアルタイム処理できるほどの演算パワーがあるのならモデル構築なぞ必要がない。わざわざこんなメンドクサイことをしているのは、実時間応答の処理負荷を軽減させるためである。したがって、ある程度の時間をかけても、使用時に処理負荷が少なくてすむようなモデルを構築する必要があるのだ。

もしも許されるならばロボットも眠りたい

 このモデル構築をしている間は大変な処理負荷がかかり、実質的にロボットは何もできない。この状態を簡単にいうと、「寝ている」のである。
 今回説明しているAIはMINDYなどにかなり性格が似ている。センサー入力を統合し、自律的に内部モデルを構築して状況判断するAIである。そしてその手のAIには「睡眠」が必要であるということだ。
 「自律型ロボットは睡眠が必要である」などと主張しているのはいまのところFMぐらいかもしれないが、この話、もう少しつきつめると、一風変わった結論が出てくる。勘の良い人ならすぐわかると思うので、先に答えだけ言っておく。たぶん「自律型ロボットのAIは夢を見る」ハズである。
(理由も書くから、つづく)
スポンサーサイト

コメント

コメントの投稿

管理者にだけ表示を許可する

トラックバック

トラックバックURLはこちら
http://febmarch.blog10.fc2.com/tb.php/27-7d158bb6
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。