クレタ人の踵

AIならびにRobotに関する雑記。 世迷言など。

クレタ人の踵aibo Owner's WEBRINGに参加してます。
【ID:120 所有者:FebruaryMarch
[ 二つ前へもどる | 前へもどる | 次へ | 次の次へ ]
[ 前の5サイトを表示 | 次の5サイトを表示 | ランダムで移動 | リストを表示 ]

スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

2本足で歩こう[3]

2本足で歩こう[3]
理由なき(二足)歩行


関連
2本足で歩こう[1]
2本足で歩こう[2]

 人間の二足歩行とロボットの二足歩行は異なる制御方式を取っている。もともと持っているリソースが違うのだから当たり前である。人間は人間が歩きやすいように、ロボットは、なるべく見た目がよくてトータルコストが低くなるように歩く。
 これまた当たり前のことで恐縮だが、ロボットは、人間と違って、自分が歩きやすいように歩いているわけではない。そもそも、ロボットには2本足で歩かなければならない理由がない。

人間が二足歩行する理由

 人間の二足歩行は人間の進化の過程で重要な位置を占めている(と一般に考えられている)。手(前足)が自由に使えるようになったというのはやはり大きいし、直立したことにより首から肩の筋肉に対する負担が減り、頭部を重くすることができるようになった。生物学的に見て、知能を高めるには直立歩行することがかなり重要な案件であったのは確かである。
 陸上生活を営む以上、人間としては現在の知能レベル獲得のために二足歩行は必要であった(と思われる)。逆に言うと、知能が発達した現在の人間は、二足歩行しなければならない理由はなくなっている。一例をあげると、現代の日本は車社会であって、移動距離で考えれば、ほとんどの日本人は二足歩行よりも四輪(ないしは二輪)走行のほうがメインの移動形式となっている。人間ですらそうなのだから、ロボットが「絶対に」二足歩行「しなけらばならない」理由を考えるのはかなり無理がある。

山に登るのはそこに山があるから

 現時点で、ロボットの二足歩行は、「技術的に困難だから」という理由と「なんとなくカッコいい」という理由以外に推進動機が無い。しかもこれは人間側の都合であって、ロボット側にいたっては、二足で歩けることによるメリットのようなものはまったくない。
 もちろん、動機としてはこの2つで十分すぎるほど十分、という意見もあって、FMもどちらかと言えばそちらの肩を持ちたい派である。面白ければいいじゃん、というわけなのだ。
まぁ、異論のある方もあるだろうし、受けて立ってもいいわけだが、最初から勝敗の決まっている試合をするのも馬鹿馬鹿しいし、手を抜いて相手を勝たせてやるというのもFM的には「なんだかなぁ」であるので、たぶんこの件で喧嘩を売られても買わないと思う。(始める前から一方的な勝利宣言モードである。夏なのでFMも厨なのだ)。

理由が無いのと欲しいのとは話が別

 じゃあ、「FMとして」二足歩行ロボットにまったく興味がないのかと言えば、そんなことはない。
 興味ありまくりである。
 もともとFMの感心はロボットというよりはAIにある。ロボットのボディはAIのフィジカルターミナルとして必要なのである(FM的には)。諸般の事情で、FMはロボットのハードそのものを造る気がない。ソフトウェア一本で行きたいと思っている(理由については気が向いたら述べる)。
 AI用のフィジカルターミナルとして見た場合、ファンクションとして二足歩行できるかどうかは、実は極めて重要な問題である。二足歩行というのは人間にとってもかなり敷居の高い技能であって、習得するまでに最低でも4~5年かかる難易度Aのスキルなのである。
 こういった難易度が高いのにお手本がそこらへんにゴロゴロしているスキルというのは実は意外に少ない。
 そんなわけで、今後、FMがAIを実装する場合に、二足歩行というのはAIに学ばせたい項目のかなり上位ランクにあるのだ。しかし、いくら学ばせたいと思っても、そもそも物理的に二足歩行出来ないようなボディに対してはソフトウェアだけでどうこうできるシロモノでは絶対にない。
 二足歩行自体はロボットにとってあまり意味のあるものではないのだが、その獲得の過程における情報と物理パラメータの関連付けの一般化を通してAIに賢くなってもらう(もしくは賢くなるAIを造る)というのがFMのやりたいことだ。
 だからFMとしては、早く二足歩行ロボットが売り出されないかなぁ、と夢見ているわけである。

まとめ
 ロボットにはそもそも二足歩行しなければならない理由はない
 人間も最近は歩かなければいけない理由はなくなった
 FMは夢見がちな中年
スポンサーサイト

アンケート回答[4]

アンケート回答[4]
とりあえず山場も過ぎたようですので


関連
アンケートのお願い
アンケート回答[1]
アンケート回答[2]
アンケート回答[3]

Q11. ロボットに頼りすぎると、将来、何か良くないことが起こりそうな気がする。

A11.どちらともいえない


 異なる質問ではあるが、言い回しがQ2. とよく似ている。程度問題の話なのだが、こういう曖昧な表現はかえって回答者の潜在意識を顕現する場合が多いので、混ぜ込んであるのだろう。何に対しても頼りすぎは良くないし、「ロボット依存症」なんてのが出てきたらかなり気味が悪いとは思う。「頼りすぎ」の度合いがわからないし、「何か良くないこと」とか言われても困ってしまうので、「どちらともいえない」にしてある。

Q12. ロボットと会話をすると、とても神経過敏になるだろう。

A12.どちらともいえない



 これはQ4. の補償質問である。すでに質問数が10を超えているので、回答率が低下してもかまわないよう、補償質問や重要度の低い質問が増えてきている。ただ、補償質問をわざわざ入れているところからして、質問者は「ロボットとの会話」についてもそこそこの興味を持っていることがうかがえる。

Q13. ロボットが子供の心に悪い影響を与えないか心配だ。

A13.全くそう思わない


 いままでの流れからして、ちょっと唐突な感のある質問である。質問順が下位であるにもかかわらず、全く話題に出なかった「子供」に対する質問になっている。
 一般的には、子供に対する影響というのはアンケートの重要部分を構成する場合が多いのだが、このアンケート全体から受ける印象としては、さほど重要視はされていないようである。ただ、最後までアンケートを回答してくれる回答者というのは、真摯な人が多いのも事実なので、そういった人からだけ選別した形で回答が欲しい場合もある。この質問がどちらのカテゴリーに入るのかは、ちょっと判断しずらい。
 子供というのは、ロボットのような目新しいものには必ず影響を受けるものである。もともとそういう風にできている。影響は影響でしかなく、良い悪いは影響を受けた後の教育如何による。そんなわけで、当たり前のことを心配しても仕方がないので、「心配か?」と訊かれれば「心配ではない」と答えるしかない。

Q14. これからの社会は、ロボットによって支配されてしまいそうな気がする。

A14.全くそう思う


 実質、これが最後の質問と言っていいのだが.......
 いきなり、これだ。
 なかなか、お茶目さんである。
 マジレスすると、これからの社会というよりは、現在の社会が、ロボット(およびコンピュータ)がないと、ニッチモサッチモいかないことになってしまっている。そしてそれらを人間側でコントロールしているとは言い難い状況である。「意思を持たない支配」と考えれば、あながち間違いとも言い切れない。
 おそらくロボット側も最終的にはインターネットに接続されて、他の端末ならびにサーバ群と部分的で緩やかな結合を持つだろう。そして、それらを結ぶデジタルデータは、ロボットの場合には、人間と違ってネイティブコードである。
 人間もネットワークに参加しているわけだが、英語を話せない日本人みたいなもので、最終的には主流からは取り残されると思われる。
 社会のインフラ基盤の重要ポイントにはロボットとコンピュータが置かれ、それらを維持するためのデータ流通量を確保するのが最優先課題となる。遊びでネットワークを使用している人間の優先順位は当然下げられる。
 これを支配と呼ぶかどうかは微妙なところだが、このようなネットワーク複合体を人間の能力だけで管理するのは不可能である。
 そんなわけで、FMの回答は「全くそう思う」である。

 最初と最後の質問と回答だけを抜き出してみると下記のようになる。

Q1. もしロボットが本当に感情を持ったら不安だ。
A1.全くそう思う


Q14. これからの社会は、ロボットによって支配されてしまいそうな気がする。
A14.全くそう思う


 感情を持ったロボットによって社会が支配されることを恐れて小さくなって震えているFMが見えるようだ。
 アンケートに答えると、普段は隠れている自分の本質が見えてきて、本当に面白い。

Q15. ロボットから連想することはなんですか?
A15.人間 , 動物 , 機械


Q16. ロボットは将来的にどのような場で使われると思いますか?
A16.家 , 職場 , 学校 , 病院 , 工場 , 危険場所(汚染地区、戦場など) , 遠隔地(深海、宇宙など)


 複数回答可の質問であり、質問口調も若干柔らかめになっている。
 チェックの外れた項目が、回答者がロボットに入って来て欲しくないテリトリーとなる。たとえばQ15. で機械のみにチェックを入れ、Q16. で、工場、危険場所、遠隔地にチェックした場合、回答者は、ヒューマノイド型やアニマル型のロボットには抵抗があり、ロボットには自分の身近に来て欲しくないと考えていることがわかる。
 FMは嬉しがって、全部、チェックを入れてしまったので、アンケートとしてあまり役に立たなかったと思う。申し訳ない。

 

Q17. SONYのAIBOと遊んだことがありますか?
A17.はい


Q18. AIBOとどれくらい頻繁に遊びますか?
A18.月1回程度


Q19. あなたもしくはあなたの家族はAIBOを持っていますか?
A19.はい


 AIBOに関する質問である。
 この質問が出てくる背景については、下記URLのQ&Aに詳しい記述があるので、そちらを参照願いたい。
http://www1.atwiki.jp/n9a/pages/47.html
 この回答は層別情報として使用されるもので、年齢、性別などと同じカテゴリーに属する。最後にくっついているのは、AIBOオーナーであれば、ロボットに興味があって、最後までアンケートに付き合ってくれるだろうという読みだろうか?
 ところで、我が家のAIBOだが、数ヶ月前まで押入れの中に入っていた。末息子がアルバムを眺めている時、AIBOの写っている写真を見つけて「これは何だ?」と大騒ぎになり、ようやく日のあたる所に出てきたのである。
 嬉々としてAIBOの相手をする息子、お姉ちゃんに、赤が好きだ、と教わっていろいろとチョッカイを出している。しかし、もう、バッテリーがだいぶヘタっているのでフルに充電しても10分くらいでスリープモードになってしまう。
 「AIBOどうした?」と聞くので、
 「寝てる。年寄りだから、すぐ寝る」と答えたら、
 「年寄りなの?」と不思議そうにしているので、
 「そうだよ。(お前が)生まれる前からいるからね。だから、疲れてすぐ寝るの」と言うと、
 「そっか、年寄りか、じゃ、しょうがないね。おやすみAIBO、また遊ぼうね」とか言っている。
 そんなわけで、我が家的には「年寄り」ということで落ち着いてしまった。なんとなく、良い感じかな、とも思う。
(まとめにつづくのではないかと思う)

アンケート回答[3]

アンケート回答[3]
ちょっと解説長すぎです


関連
アンケートのお願い
アンケート回答[1]
アンケート回答[2]

Q5. ロボットが感情を持ったら、親しくなれるだろう。

A5.どちらともいえない


 人間は感情を持っていると一般に信じられているわけだが、だからといってFMは人間なら誰とでも親しくなれるわけではない。ロボットも同じことで、親しくなれるか否かは、感情を持っているいないとはあまり関係ないと思っている。
 で、まあ、感情って何なのだ? という話になると、人間の場合に限って言えば、脳内代謝物質もしくは関連補助物質の局所バランスの乱れならびに血中濃度の変異、ということになる。
 そんなものは感情ではない、とか怒られても困るが、だってそういうものだし、しょうがない。楽しい薬を飲めば楽しいし、悲しい薬を打てば悲しい。やりすぎれば死んでしまう。それだけのことだ。
 「俺の心はこの酒ビンの中にある」という名言を吐いたのは誰だったか忘れてしまったが、彼の評判は「酒さえ飲まなければ良い人」だったそうである。他人の評価はどうあれ、シラフのときの彼は本当の彼ではなかったのであり、本当の彼とは、すなわちアルコール血中濃度であったわけだ。
 脳内代謝物質の偏在傾向は、AIの場合、大局パラメータの変化率である程度調整できる。カオティックファンクションでカタストロフポイントでも作ってやれば、劇的な感情変化をシミュレートするのは比較的簡単である。簡単ではあるが、それを感情と呼ぶべきかどうかというのが、少々ひっかかる。
 人間にとって感情というのは、危機的状況への対応や、性愛行動のトリガーとして、生物的にもともと必要なものだったのだが、今後もずっと必要かどうかというのは微妙なところではある。ロボットについては、そもそもロボット単体ではほとんど必要のないものだ。
 感情的なロボットが欲しい、というようなニーズがあるかどうかはよくわからないのだが、人間の都合だけで「感情みたいなもの」をロボットに実装するのはどんなものかな、とかFM的には思っている。
 ところで、この質問は

Q1. もしロボットが本当に感情を持ったら不安だ。


の補償質問になっている。つぎの質問Q6. とあわせて質問者がロボットの感情について興味をもっていることが見てとれる。

Q6. 感情的な動きをするロボットを見ると、気分がいやされる。

A6.どちらともいえない


 ダンサーの感情表現とダンサー自身の感情とは別個のものである。舞踏表現としての「感情的な踊り」は緻密な計算と訓練の賜物であって、ダンサーの感情の発露などではない。
 感情的な動きをするロボット、というものはFMの想像力の範疇を超えるものだが、たぶん、「感情」と「感情的な動き」は区別されるものだ。というか、少なくとも、現行技術でいうロボットの「感情みたいなもの」と「感情的な動きみたいなもの」はある程度の確率で動作プログラム上リンクされるだけであって、他の必然的な要因で現れるものではない。
 それでまぁ、そういうものを見て「癒される」かどうかという話なわけで。
 AIBOオーナーなどを長年やっていると、いいかげん、この手の話にはうんざりしてくる。
 「癒される」かどうかはモーションの質にもよるかな、などと少し冷静なコメントを入れてもみるが、こういう質問は正直めげる。
 別に癒されたくてAIBOを買ったわけではない。ロボットだと思ったから買ったのだ。

Q7. ロボットと聞いただけで、もうお手上げの気持ちだ。
A7.全くそう思わない


Q8. 人が見ている前でロボットを利用すると、恥をかきそうだ。
A8.全くそう思わない


Q9. 人工知能とか、ロボットによる判断といった言葉を聞くと不愉快になる。
A9.全くそう思わない


Q10. 私は、ロボットの前に立っただけで、とても緊張してしまうだろう。
A10.全くそう思わない


 テンプレート群である。Q9は少し毛色が違うので、後で少し解説するが、その他の質問は「ロボット」の部分をアンケートのテンプレートに差し込んだだけで、トータルでロボットに対する回答者のポジションを探るものである。いままでの質問の中ではQ4が若干テンプレ臭かったのだが、ここまで露骨ではなかった。テンプレートは差し込んだ単語が違うだけで、色々なアンケートで活用されているため、その集積データを持っていれば、単独のアンケートよりも、もう少しだけ込み入った解析ができる。
 さてQ9が少々問題である。この質問にだけ「人工知能」と「ロボットによる判断」という言葉が出てくる。質問内容は嫌悪感測定なので他のテンプレと同様だが、この回答で回答者が「ロボット」と「人工知能もしくはロボットの判断」を分けて考えているかどうかを判別できる。他の質問とこの質問の嫌悪レベルが異なる場合、回答者は「ロボット」と「人工知能」区別できる程度にはこれらのことを熟知していることがわかる(どちらがよりキライかはこのさいあまり問題ではない)。
 FMの回答では、すべて嫌悪レベルが最低で区別がつかないため、ロボットもAIも区別できない痴れ者である可能性が高いということである。
(つづく)

アンケート回答[2]

アンケート回答[2]
ではサクサク行きましょう


関連
アンケートのお願い
アンケート回答[1]

Q2. ロボットが生き物に近づくと、人間にとってよくないことがありそうな気がする。

A2.全くそう思わない


 正直、FMとしては質問の意味をつかみかねた。「生き物のような動きをするロボットは気持ち悪いと思う」のような質問なら即答できるのだが、たぶん、そういう意味ではないのだろう。
 「よくないことがありそうな気がする」みたいなオカルトチックな言い回しをされると、こそばゆい感じがする。生命創造の禁忌に対する心理的圧迫の問題なのかな、などとも考えたのだが、あまりよくわからない。よくはわからないが、こんなことは考えたこともなかったので、FMの回答は「全くそう思わない」である。
 質問とは別に、ロボットは生き物に近づくのか? という問題はあるわけだが、こちらのほうの可能性は小さいと思う。現時点での、生物の工業的な利用方法は衣食住の確保や医療用の基材である。生物を機能的に利用することはほとんどないので、ロボットが生き物に近づく必要性はあまりなく、どちらかといえば、遺伝子工学の発展で新種の生物を作ってしまうほうが早いだろうし、工業的な目的にもあっている。唯一の例外は倫理的な問題により人間が遺伝子工学分野から除かれていることだが、クローンがダメなのでヒューマノイドというわけにはいかないのじゃないかと思う。生物の動きを取り入れたロボットくらいがいいところではないだろうか。

Q3. ロボットと会話すると、とてもリラックスできるだろう。

A3.どちらともいえない


 ぶっちゃけ、こんなものはロボット次第である。現時点でのロボット(というかコンピュータ)の会話能力は低いので、そういうものと割り切って、会話の癖を読みながらロボット(やコンピュータ)と遊んであげる、といったことをFMはたまにやる。うまく会話がつながったように見えると、なかなか楽しい。ただ、これも質問の趣旨とは微妙に異なる気がする。
 会話するプログラムとしてWeizenbaumのELIZAはあまりにも有名だが、このELIZAは基本的に会話するというよりは、話を聞いてくれるプログラムである。誰かに秘密を話したい、打ち明けたい、というのは悩みを持つ人に共通の欲求らしい。そのニーズにどんぴしゃで当てはまってしまったため、ELIZAは、Weizenbaumの知人の間で大人気になってしまう。本来、心理カウンセラーがやるべき仕事をこんな簡単なプログラムにまかせてしまうことに悩んで、結局、WeizenbaumはELIZAの開発をやめてしまった。
 ネット上で不特定多数の匿名者に悩みを聞いてもらうのも、若干似ている。うまく解決すると出版されたりするのだが、そこまでうまくいかなくても「誰かに悩みを聞いてもらう」だけでも大分落ち着くものらしい。共通点は「相談者の秘密が守られる、と相談者側が考えている」という点にある。親類や知人は黙って話なんか聞いてくれないし、ましてや信用なんかとてもできない。そういうところでロボットやコンピュータプログラムが登場する、というわけだが、もちろん、ロボットだのプログラムなんてどんな仕組みが取り付けられているかわからないし、そこまで信用するのはどうかと思う。
 こういった特定の状況下でも、FMの場合、あまりロボットとの会話ではリラックスすることはない。逆に完璧に近い会話をされたら興奮してリラックスどころではなくなる。
 中身を調べたくてたまらないから
 もしかしたら「全くそう思わない」のほうが良かったかしらん? 解説を書いてみたらそんなことを考えてしまった。

Q4. 就職してロボットを利用するような職場にまわされるかもしれないと考えると、不安になる。

A4.全くそう思わない


 「ロボット」が「コンピュータ」であれば、よくアンケートに出てくる質問のひとつである。意図的なものか、単純な見落としかはよくわからないのだが、ロボットに直してしまうと、この質問、非常にすわりの悪いものになる。
 産業用ロボットのようなものを扱う場合には、基本的にロボットを扱うのはメンテナンス要員だけであり、一般の工場労働者が利用するようなものではない。また、完全な遠隔操作ロボットの場合は、扱うのは専属パイロットであって、希望した者しかそんなことはさせて貰えない。したがって、これらの場合は、「意思に反して」そういう職場にまわされる可能性はほとんどないわけで、おそらく希望した人しかロボットを扱うことはない。
 普通の会社員がロボットを職場で見かけるようになるのはもう少し先のことだろうと思うが、その場合、何らかの自律行動を伴うロボットということになるだろう。そうでないと使い物にならないからだ。そうなった場合には、ロボットを「利用」することにはならない、「一緒に働く」のである。そうなると質問は「就職してロボットの同僚がいるような職場にまわされるかもしれないと考えると、不安になる」が正しい。
 コンピュータは単独では仕事ができず、利用する人間がいないとなんら効力を発揮しない。しかし、ロボットは設計段階で目的が決まれば、人間などいなくても機能するようにつくることができる。この違いは大きい。そういったわけで、この質問のような状況というのは起こりえないのではないか、とFMは考えている。
 どちらかというと、今後、ロボットに遭遇する可能性が高くなるのは、職場ではなくて、サービスを受ける末端のユーザーである。「年金申請窓口の担当がロボットに代わるかもしれないと考えると、不安になる」などという質問のほうが実際にはありそうなのだが、そこまでやると、悪乗りしすぎと他のアンケート回答者からは不満がでるのかもしれない。
 ま、FM的には「年金申請窓口の担当がロボットに代わるかもしれないと考えると、ワクワクする」のであって、そんな質問では、ますます反感を買いそうである。
(つづく)

アンケート回答[1]

アンケート回答[1]
回答だけでなく解説も必要な理由


関連
アンケートのお願い

約束していたので、アンケートの回答。

Q1. もしロボットが本当に感情を持ったら不安だ。

回答と解説
 まぁ、いきなり困ってしまう質問ではある。
 Q1と書いてあるが、その前に国籍や年齢、性別について答えてあるので、厳密に第一問目とは言いがたいのではあるが、それにしても..........
 つっこみどころ満載ではあるのだが、アンケート実施側の苦労もわからないわけではない。

 ちなみにFMの回答はというと

A1.全くそう思う

 である。
 意外だったろうか? それとも、予想の範囲内だったろうか?

アンケートの質問設定の困難さ

 FMは、感情を持っていたり、あるいは、感情を持っていそうに見えるものと付き合うのは非常に苦手である。
 FM的には、「感情」を有しているものと、なんらかのインタラクションをとるのはそれなりの心的負担が生じる。相手がロボットか、人間か、あるいは他の地球外生命体かどうかみたいなことは、「感情」のようなものを有していることよりも、(FM的には)はるかに些細な問題である。
 うん、あなたの言いたいことは、なんとなくわかる。
 この質問自体はFMに向けてチューニングされたものではないし、したがって、こういう些細なことであれこれ難癖をつけるのは、ほとんど言いがかりに近いのだ。
 この質問の主題は「ロボット」が感情を持つことについての意見を尋ねているのであって、質問者は「ロボットの」感情発露に関しての意見を求めている。それを勝手に拡大解釈して、「あらゆる主体の感情発露」に言及するのは、ある意味、反則であり、言いがかりと捉えられても仕方のないものだろう。
 しかしながら、である。
 この質問単独では種々の解釈が入り込む余地があるわけだが、その場合であっても、「感情的な相手と話すのは苦手だ」みたいな質問がアンケート内に織り交ぜてあったならば、前述の問題はスクリーニングによって正確度を保持できる。実際にエゴグラムや性格診断などの質問群は、個々の質問群同士で、曖昧さを排除しながら、質問の任意解釈を極力避けるように、補償質問が織り交ぜてある。
 ただ、この質問は、そういうことを分かった上で、わざわざ誤解を厭わずに、ある意味、「強力な」文意を持つ質問を設定しているものと思われる。
 アンケートの導入文を読むと、質問の途中まででも良いから、回答が欲しいという趣旨が述べられている。言い換えれば、質問のニュアンスの取り違えによる結果の誤差よりも、とにかくアンケートの総数が欲しいということである。これは、こういう受身型のアンケートでは正しい方策だ。
 仮に、このアンケートを前述の補償質問を織り交ぜて、個々の質問内容に対する確度をあげたとする。その場合、質問数はざっと5倍程度に膨れ上がってしまい、アンケート回収率が極端に下がってしまうことが予想される。補償質問を入れると個々の質問に対する確度はあがるのだが、そもそもアンケートをコンプリートしてもらえる可能性が下がってしまう。質問者側はこういった事情を踏まえて質問を構成しているのだろう。確度の低い分はアンケートの総数で稼いで、イレギュラーな回答は誤差として吸収してしまうという考え方である。

前置きはこれぐらいにして

 そんなわけで、質問に対する回答だけを列挙したのでは、このアンケートに対するFMの考えが、FMの思っているほどには十分に反映されない恐れがある。で、まぁ、それだとちょっとばかり寂しいから、だらだらと解説をつけることにするので、なんとか我慢して欲しい。
 これだけで、大分長くなってしまった。前置きだけだと、あまりにも失礼なような気もするので、以下にQ1に対するFMの回答の解説を述べる。

Q1. もしロボットが本当に感情を持ったら不安だ。

A1.全くそう思う


 すでに述べている訳だが、別に「ロボットでなくても」、何か感情を持っていそうなものと対峙するのは、FM的には非常に苦手だ。感情というのは論理的に予想しずらいからである。
 だから、ロボットが「本当に」感情を持った場合はもちろん、ロボットが感情を「持っていそうにみえる」だけでもかなり不安だ。もう少し言えば、どんなに近しい人でも、相対するときには、FMは常に不安に駆られる。家族や友人でもそうだ。感情を持っている彼らと付き合うとき、FMは細心の注意を払っている。
 もっとも気を使うのは自分自身に相対するときだ。そういう状況に追い込まれたときは、いつだって、とてつもなく不安である。
 FMが異常だ、ということで片付けてもらって、もちろんかまわない。アンケートというものは、もちろん、そういうものである。ただまあ、そういうものである以上、この後の質問の回答もそんな風に進めさせてもらうわけで......
 ようするに、まぁ、そういうことである
(つづく)

アンケートのお願い

アンケートのお願い
ロボットに対する意識の国際的なアンケート調査


本ブログの読者の皆様にお願い

 ロボットに対する意識の国際的なアンケート調査にご協力願います。
 日本の窓口は下記アドレスのようです。
http://www.rikou.ryukoku.ac.jp/%7Enomura/socres/socres.html

 以下のアドレスに補足説明がありますので、まずこちらをお読みくださるようお願いします。
http://www1.atwiki.jp/n9a/pages/47.html

 アンケートは2005年7月16日までとのことです。
 このお願いは、締め切りの7/16までトップ表示します。新着があるかもしれませんので、できれば一つ下もご確認願います。

 なお上記サイトの主催者ならびに本アンケートの主催者の趣旨とは無関係ですが、FM的に面白いなと思いましたので、本アンケートに対する「FMの」回答を解説つきで公開予定です。アンケート締め切り後の7月20日頃を予定しています。

 では、皆様、よろしくお願いいたします。

ロボットの安全基準[2]

ロボットの安全基準[2]
できればナアナアですましてほしい


関連
ロボットの安全基準[1]

 イヤな話題というのは筆が重くなるものだ。
 ただでさえ更新の遅いこのブログだが、安全基準などというFM的にもっとも苦手な話題を持ってきてしまったため、ひどい有様になっている。
 イヤならやめてしまえば良い、まったくその通りだが、イヤイヤながらも取り上げるのには理由がある。
 FMは、諸般の事情で、高性能なロボットが欲しいと思っている。ここいらへんの個人的な事情については、おいおいこのブログで明らかにしていくとして(迷惑だとか言う外野の声はもちろん気にしない)、とにかく高性能なロボットが欲しいのである。
 金額の多少はこのさい目をつぶる(つぶっていいものかどうかは不明だが)として、高性能なロボットが欲しい、というのが現在のFMの希望である。そして、残念ながら、安全基準というのは「高性能、高機能」という目標と相反する可能性がある。

危険なのはそばに人間がいるから

 前回、ロボットの機能が人間のように高度になると危険になる、と書いたが、あまり細かい話はしなかった。危険というよりは、安全を確保する方法がない、というだけなのだが、もう少しだけ噛み砕いて説明しよう。
 ロボットを使って人間の仕事を代替しようとする場合、どうしても不測の事態への対処が必要となってくる。産業用ロボットの場合にこの問題が生じないのは、作業が定型できちんと決まっているというのも理由の一つだが、もう一点、産業用ロボットが基本的に作業中に移動しない、ということも重要である。
 安全確保は産業用ロボットの稼動範囲内から他のものを排除することでいちおう達成できる。もう少しはっきりいうと産業用ロボットは稼動範囲に人間を入れないことで安全確保をしている。勝手に稼動範囲に入ってきた人間が悪い、などと言っていては、あとでどんな文句を言われるかわからないから、産業用ロボットは人間が稼動範囲に入ると機能停止するようになっている。
 生活分野で使うロボットでは、残念ながら、これができない。人間が近づくと機能を停止する掃除ロボットというのは、まあ、効率は悪そうだがなんとか我慢できる。掃除は留守の間にやってもらうというのも良いだろう。しかし、侵入者がロボットに近づいた時点で機能停止するのでは警備ロボットにならない。介護ロボットが人間にさわらずに、どうやって人間を介護するのかFMには想像もつかない。

人間とロボットのコラボレーションで危険は回避できるか?

 稼動範囲内に人間がいる場合にどうやって安全確保をするかという問題については、ケースバイケース、個々の状況に応じての対応ということになるのだが、この場合、すべての状況に対応できるようにロボットを制御するのは原理的に不可能である。人間の行動を論理的に完全予測する方法がないからだ。予測が不完全である場合、対応も当然、不適当なものになり、安全確保は困難となる。
 では、ロボット側で完全対応するのは無理として、人間側が協力するというのはどうだろう? ロボットがいつも同じ単機能行動をする場合には、ある程度可能だ。人間がロボットに協力して安全確保する、というのは、現在の工業製品の安全基準からすると、かなり不満足なものだが、原理的に不可能なものを無理強いするよりはマシだろう。たとえば、掃除ロボットが真っ直ぐ突進してくるような場合に、少し慣れれば避けるのは簡単なことだ。あまり高速で移動されるとやっかいだから、移動速度に制限を設けるというのも必要だろう。
 このような形で、人間側の対応とロボットの機能制限で危険を回避していけば、それは新しいロボットの安全基準になるのではないだろうか?

高機能なロボットの行動を予測することは困難である

 ところで、真っ直ぐにしか移動しない掃除ロボットというのはどれくらい役に立つのだろうか? FMの家はせまいので、ごちゃごちゃとモノが置いてあって、居住スペースの直線部分というのは、ほとんどない。 やはり掃除ロボットを買うのなら、障害物を巧みに避けて移動しながら掃除するようなロボットが欲しいと思う。
 しかし、危険回避という観点からは、このような複雑な動きをするロボットを避けるのは、逆にたいへん難しい。掃除中はじっとしていて、ロボットに避けてもらうか、やはり人間がいないときに掃除してもらうのが一番だろう。
 ロボットが状況に応じて行動を変化させるようになると、人間側で対応するのにも限界が出てくる。
 正面からやってくる人を避けようとして歩く向きを変えたところ、相手も回避行動に入って、かえって両者の位置が近くなって困ってしまう。なまじ両者が気を使った結果、見合いの状態になって身動きが取れなくなるのはよくあることだ。
 ロボットが高機能になって色々な状況に対応するようになった場合、人間の行動を予測するのが困難なのと同じ理由で、ロボットの行動を予測するのも難しくなってくる。この段階で人間側の危険回避に対する負担が大きくなりすぎて、安全確保は困難となる。

コラボレーションには相応のコミュニケーション能力が必要

 このような状況が発生するのは、コラボレーションを行う人間とロボットの間で円滑なコミュニケーションを成立させるのが、現時点で、非常に困難なことに起因している。互いに相手の行動を予測するのでなくて、「一声かければ」これらの問題はかなりの部分が解決する。予測するからはずれるのであって、これから「○○しますよ」と互いに予告しあえば問題はない。
 そんなことができればの話だが。
 人間はともかく、ロボット(もしくはコンピュータ)のコミュニケーション能力は(現段階では)極めて低い。危険回避にこの不完全なコミュニケーションを使うというのはあまりにも無謀である。
 結局、現時点で可能な安全確保の方法は、

  1. ロボットの行動が人間に予測しやすいように機能限定して、なおかつ、人間がロボットの行動を予測しつつ安全確保する
  2. ロボットの稼動範囲に人間が立ち入らない、もしくは、人間が稼動範囲に来たら機能停止する

ぐらいしかない。

FMは安全なロボットがほしいわけではない
 
 で、まあ、行動が常に予測可能だったり、あるいは、近くに寄ると止まってしまうロボットが欲しいのか、と聞かれれば、FMとしては「いらない」と答えるしかないわけで..........
 もしかすると、そういうロボットこそが本当に役に立って、確実に需要が見込めるのかもしれないのだが、少なくともFMは、そういう安全基準みたいなもので機能制限されたロボットが欲しいわけではない。
 FMとしては、「安全」でなければ売れない、というのがいまひとつ理解できないので、できればこの件はダラダラなし崩しで進めてもらい、既成事実としてロボットがそこらへんにゴロゴロしだしてから安全について考える、ぐらいで何とかならないものかと考えているのである。まだ、さほど高機能とは言えない状態のロボットを安全にするために、わざわざ機能制限するというのは、やはりFMとしてはしのびない。

 あまり大声で言う気はないし、言ったとしたら、どうせ誰かに怒られるだけなので、こんなところで愚痴っているだけなのだが。

 まあ、そんな訳で、FMとしては、あまり「安全」の話はしたくなかったのである。

まとめ
 高機能なロボットの行動を予測するのは人間の行動を予測するのと同じくらい難しい
 多少危険でもかっこいいロボットが欲しい
 ブログで小声で愚痴る、というのはどんな状態なのか少し気になる

ロボットの安全基準[1]

ロボットの安全基準[1]
安全でないものには安全基準が必要である


 少し、ロボットの安全基準について考えてみたい。
 今年の1月に経済産業省から「介護や警備、掃除など生活分野で使うロボットの安全基準をつくる」というアナウンスがあった。またNEDOからも「愛・地球博」用に「ロボットの安全性に関する考え方」というプレスリリースがあった。http://www.jara.jp/pressrelease/pressrelease/050131.html
 1月の話を今頃持ってくるあたり、このブログが時流に疎いことの証左なわけだが、そういうことはあまり気にしないことにする。
 FM的にはロボットの安全性についてはあまり気にしていない。というか、ロボットなどというものは、どうあがいても原理的に「危険」なのであって、「安全なロボット」というのは「原子力の平和利用」みたいなものと同じだと思っている。
 いきなりネガティブな発言で申し訳ないが、これもこのブログの趣旨だからしようがない。
 で、まあ、ロボットの安全基準なわけだ。

新しい安全基準が必要な理由

 上記のNEDOのリンクなどを読んでもらえば、安全基準に関する考え方はかなり苦しいのがよくわかる。
 ロボットが「原理的に危険」だというFMの意見はかなり過激な部類に入るにしても、ロボットを安全に運用するのはかなり難しいと、実際の開発者が認めている。
 この手の話はいろんな状況についての内容を盛り込んであったりするので、話がわかりにくい。少し、話を分かりやすくするために、状況を単純化してみよう。
 簡単な例ということで、機能を限定して、掃除ロボットと掃除機について考えてみる。となると問題は、ロボットの安全基準から、掃除ロボットの安全基準に矮小化される。ここまで話が具体的になると単純な疑問がわいてくる。掃除機はすでにあるのだし、掃除機の安全基準もすでにある。どうして、掃除ロボットは掃除機の安全基準に従うということにしないのであろうか?

責任を誰かに押し付けたい

 掃除ロボットを掃除機の安全基準に従わせるということになると、ちょっと困ったことが起きる。困るのはユーザーではない。メーカー側である。
 これは、掃除機と掃除ロボットの違いを考えればよくわかる。
 掃除機は単体では掃除をしない。常に人間とペアで掃除をする。掃除機は機械ではあるが道具の範疇を出ることがなく、いわばホウキの代用品のようなものである。実際の掃除は人間がする。
 掃除ロボットの主眼は人間なしで掃除することである。「人間なしで」ということはロボットが人間の作業を代替することに他ならない。
 掃除というのは単調な作業に思えるかもしれないが、実は比較的インテリジェンスな作業である。部屋の中にあるものの位置は常に変わっているし、ゴミとそうでないものを見分けるのは、それなりに難しい。限定品のフィギュアなど当人にとっては宝物でも、他の家族にとってはゴミ以下であったりする。これは極端な例にしても、掃除というのは一種の価値観を持って行うものであって、単純作業などでは決してない。
 掃除するだけでも大変なのに、「安全」にも注意を払わなければならないとなったら、もう、本来ならほとんどお手上げなのである。いや、工業製品としては立場が逆だ。「安全」に十分な注意を払った上で、掃除をしろということなのである。
 掃除機の場合、掃除をする行為そのもの安全については、掃除をする人間にほとんど押し付けられた。ロボットの場合には、そうはいかない。そこで新たな安全基準が必要になる。

ロボットが安全でありえないのは人間の仕事を肩代わりするから

 ロボットの利用を考えるにあたり、極めて特殊な事例を除いて、ロボットが必要とされるのは人間の行為の代替である場合がほとんどである。のっけの経済産業省の「介護や警備、掃除など」という分類がすべてを物語っている。介護も警備も掃除も、現在は人間が行っている仕事である。
 意外なことだが、ロボットが高機能になり、人間の仕事の代替が可能になるほど高性能になった場合に、安全性の問題がより深刻になる。機能が低く、役に立たない、エンターテインメントロボットの安全性に対する問題はあまりなく、だからこそAIBOは販売できたという側面もある。
 生活分野で役に立つロボットはエンターテインメントロボットよりも高機能である。それらは人間を代替することを目標としているからである。しかし、機能的に人間に近いロボットというものは安全性でシビアな状況に突入する。
 機能的に人間に近くなるほど、ロボットの安全性も人間に近づく。
 FMの知る限り、この世でもっとも危険なものは人間である。したがって、人間の仕事を代替するロボットはある意味、危険にならざるを得ない。

本当に安全かどうかはモノを売る場合の必要条件ではない
 
 ロボットがあまり安全でないとして、そんなものを販売しても良いのだろうか?
 これに対しての答えはYESである。
 銃は危険だがアメリカでは市販されている。戦闘機も戦車も危険だが値段がついて売買されている。自動車も安全基準はあるけれども、交通事故で日本だけでも毎年1万人近く死んでいる。通り魔事件に使われたからと言って、包丁の販売を禁止せよという議論はあまり沸き起こらない。
 ようはメリットとデメリットの関係であって、多少危険でも様々な理由で利用されているものは多い。毒も少量飲めば薬であって、安全性は機能とのバランスで語られるべきものである。
 ただ、残念ながら(産業用を除き)ロボットはまだこのレベルに達していない。ロボットは具体的にたいした役にたっていない。役立たない上に危険であるようなものは市場で評価される余地が無いのである。
 そこで、最低でもロボットを「安全」にしようというわけだが、これには大きくわけて二つの方法がある。
 ひとつは機能を制限すること、もうひとつは安全に対する我々の考え方を変えることである。
(つづく)

まとめ
 とりあえず、今年の話題であるからギリギリセーフかと思う。
 掃除はたいへんである。
 人間は危険。
 ロボットを安全にするには二つの方法がある。
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。