おそらく多くの基礎技術で人工知能の発明が成立する土壌が整理されてきていると思う。
ただ私はそれが実現されるには、少なくとも時間間隔を情報単位とした情報処理系が必要だと考えている。でも科学的手法は「時間」の取り扱いが本当に難しい。
「誰がいつどこでやっても、同じ前提条件なら同じ結果になる」のが科学的手法(他者に伝達可能であることを保証する条項、本に固定的に記述できることを保証する条項)の前提だが、時間間隔を基に作った巨大な情報システムの場合、同じ前提条件というのを作るのが著しく難しいので、科学のまな板に乗せることが難しい。
しかし膨大な量のストレージシステムを持つようになってきた時代なので、この問題は近いうちに限定的にでも解決できるのではないかと思っている。
根本的に会話の「間」を処理できていないから違和感が残る。チューリングテストには「間」の伝達を条件に追加すべき。 チューリングテストに合格したユージーンくんと話してみた:海外速報部ログ:ITmedia オルタナティブ・ブログ http://t.co/6hyfZ5VEhg
— ころ (@coronahope) June 13, 2014
ビッグデータは、世界中のセンサー(インターネット含む)から雑多なデータを集約して有意情報を抽出する試みだが、実はこの技術はニューロの応用可能性がある。1人の人間の五感センサーからの多量の雑多情報から有意情報を抽出して、繰り返し挙動(ルーチンワーク)をパターン抽出するのと似ている。
— ころ (@coronahope) June 13, 2014
ソフトバンクがやろうとしていることが、感情を持つロボットを作ったという話ではなく、ロボットという小さな個体が受ける多量の環境情報をビッグデータとして処理して集約して、それをロボット視点からの環境の抽出(発見)であるとしているのなら若干興味がある。
— ころ (@coronahope) June 13, 2014
逆に言えば、その方向のアプローチでないなら、ICOTの二の舞にしかならない。
— ころ (@coronahope) June 13, 2014
ビッグデータ処理のインナースペース側への応用 みたいな感じ? 本来はこっちが人という形で先にあったものとも言えるかもしれぬが。
— ころ (@coronahope) June 13, 2014