出力はタイマーである

「推測結果の出力はタイマーの集まりである」という言い方は、今まで考えていた「事象の発生時刻/時刻を推測する」という考え方より、直感的で他者にわかりやすい気がする。

どこの時刻の話をしているのかが伝わらないし説明しにくかったのよね。出力結果がタイマーであるというと、出力結果が出された時刻に対して、検証とフィードバックが未来に行われ、推測の実行が現時刻で行われる というのがわかりやすい。

しかも実装も現実的に近いんじゃないだろうか。

いつ出てくるかを予測する問題

よく予測の問題として「跳ねるボールが仕切を超えていつ出てくるか?」という話がある。車の免許のいつ車が飛び出すかの試験にも使われる予測力の問題。
%e3%82%ad%e3%83%a3%e3%83%97%e3%83%81%e3%83%a3

今風の機械学習だと「跳ねるボールの入る絵(動画)を複数読み込ませて、出てくる時間を結果として与える」というのを山ほど読み込ませて、特徴抽出というところだろう。そして「このボールの動画では何秒後にボールが出てくるか(たとえば0.5秒後)」という推測結果を出力させる。
さらに人によっては「そこから入力に対する分布に線形な偏りがあるので、速度計算の式を作らせる」みたいなところをAIとかいうかもしれない。

脳はそんなことを求めていなくて、跳ねるボールの動画を見て「仕切を出てくる時刻に励起するタイマーを起動する」が出力結果であると思う。0.5秒なんて表記は人の論理の表現都合であってそれを得ることは脳には意味がないし、計算式など脳の論理の抽象的な話で後付けの話である。
「仕切を出てくる時刻に励起するタイマーを起動する」ことで仕切から出てきたときにタイマーが鳴るので、筋肉を動かしてボールをとらえることが出来るのだ。

入力に対して求める出力結果が「タイマーの起動」であるという点をもっと考えるべきだと思う。

Universeかー

Universeか。ちょっと興味はあるな。
http://www.itmedia.co.jp/news/articles/1612/06/news053.html

ちょこちょこ調べてみるか。標準化技術は追っておいたほうがよい気がするし。

年賀状の準備もそろそろ考えないといけないかー。

とりあえずTwitter側から転記

とりあえずTwitter側から転記

Q: AIはうそをつくか? A:ニューロ型AIは一種の過去知の統計システムなので、嘘という概念そのものが元々ない。

過去知統計システムが最終的に行きつくのは、1.どのような事態になっても不変な「物理法則」の認識、2.どのような事態になっても最終的にここを通過する「入力IO」の特性の認識、の2つの特性把握。1は論理思考の基盤になり、2が自我の基盤になる。

過去知統計システムは入出力IOの特性把握時に、それがIOの特性なのか、IOに付随するサブシステム(本能ジェネレーター)の特性なのか分離できないまま学習する。この過程で自我に本能が埋め込まれる。

つまりAIに自我を持たせるのはそんなに難しいことではない。本能を持たせることもそんなに難しいことではない。人間と共感できる本能、および人間に利益のある本能を持たせるのは研究が必要だろうし、そこそこ大変だと思うのだ。

音響関係のAI応用があまり表に出てきていないのが気になっている。画像認識と比べてわかりにくいからだろうが、ループ形式の音楽はそれそのものが時間構造を含んでおり、それを過去知として統計するというのは時間の構造を統計学習することであり、AIに時間の概念を理解することにつながるからだ。

はたから見ると、どうみても中二病ですな。

でも本当にこのあたりを長年考察してきたわけだし、昨今のAIの発展でこのあたりが実現しそうになってきてるのを「ようやくかー」という気分で見ているのも確か。ニューロは構造(空間構造、時間構造)の失敗・成功の統計システム。わかりやすく端的にいうと 過去知の統計システム という言い回しが、人に説明しても なんとなく理解してもらえる時代になってきたのが助かる。AIを実用段階に持ってきた人が、有効性を「実証」することではじめて可能になってきた状況。

理解不可能とか妄言とか言われずに済むようになってきたかも。

GoogleのAIはちょっと戦慄するかも

今日はちょっと早めに起きてしまった。眠れてはいるのだが、眠りきれなかったような感じ。

http://www.itmedia.co.jp/news/articles/1611/16/news087.html
https://aiexperiments.withgoogle.com/

GoogleのAI展示サイトだが、このレベルが普通にできるというはちょっと怖いと思った。
少し昔の人工知能の教科書では、この「落書きを見分ける、というのが真に難解な問題なのだ」みたいに書かれている本が多かった。

その頃の本だと「任意の落書きから、「目がある」「鼻がある」「口がある」というのを抽出して、それらが同じであればはじめて「顔だ」と判断できる。それは高度な抽象化が必要だ」みたいなことが書かれていた。

自分は「目がある」なんている 人が可読なフラグにして抽出する という時点で、人の言語の制約をうけているわけで、人の言語の制約をうけている限り、人工知能なんかにはなりえない と思っていたものだ。

このシステムがニューロAIで落書きを認識しているのなら、「目がある」なんてフラグは可読な形では存在していないはずなのでやはりニューロによるAIが正しい道だったのだと思う。

少し遠目に考えて「機械が落書き様図形を何だか認識できる」ということは、これをロボット等にのっければ「周囲の物の認識」がほぼ確実に識別できるということで、それは任意環境で活動できる自立型ロボットがもう遠くないということを感じる。

自動運転などにもこういう技術が使われるのだろう。

最近のニュースによるある「AIにこういう職種が奪われる」という話は現実的なものに近づいているのだと思う。

まぁこのAI展示サイトが認識に時間制限を付けているあたりが、まだ図形が複雑化すると思ったように動かない部分があるのかもしれない。

ただGoogle翻訳の精度の向上なども含めて、今まで人でなければならない作業のかなりの部分がAIで実現可能になるのは間違いないと感じる。
しかも、最近のフリーミアム的なアプローチ(およびデジタルメディアコンテンツ類が結局複製容易性により格安に拡散するという性質)から考えると、AIを無料ビジネス的なところから拡大しようとする人々が間違いなくいるだろうし、そうなれば一気にかなりのビジネスがAIに差し代わるのもありえるだろう。

まぁ何度も言っているが、プログラマ・SEは人的工数がいくらあっても足りない分野なので、さっさと実用AIに仕事を持って行ってもらいたい。

XamarinとVisual Studio 2015 Tools for Unity

https://visualstudiogallery.msdn.microsoft.com/8d26236e-4a64-4d64-8486-7df95156aba9

のQ&Aタブによると、現時点Visual StudioでXamarinとVisual Studio 2015 Tools for Unityがぶつかって、Unityの連動デバッグができないらしい。

今のところの解決方法はXamarinをアンインストールすることだとか。

どっちが悪いのかは知らないが。

VirtualBoxとカスペルスキーとWindows10

まったく久しぶりなのだが、ちょち手間取ったのでメモ

VirtualBoxのインストール時に致命的なエラーでインストールできずにロールバックしてしまう。

怪しい条件
1.VirtualBox5.0 (VirtualBox-5.0.16-105871-Win.exe)
2.Windows10 (別環境のWindows8.1ではインストールOK)
3.カスペルスキーインターネットセキュリティ2015(Ver.15)
4.VirtualBoxのnetworkドライバを入れるとインストール不可(networkドライバを外しておくとインストール可)

追った手順
どうしてもエラーが出るのでネット情報を調べつつ、インストーラログを取る (VBoxInstallLog.txt)

ネットワークドライバインストール付近でエラーでロールバックが発生
VBoxNetCfgWinInstallComponent failed, hr (0x80070005)

ネットでいろいろ引いてみる
https://www.virtualbox.org/ticket/14546
https://forums.virtualbox.org/viewtopic.php?f=6&t=74934
を発見。どうやらカスペルスキーとの相性っぽい(他人のバグDBとはいえ、Reopenとか見ると焦る)

カスペルスキーのバージョンが古かったのでカスペルスキー2016に上げるついでに、
カスペルスキーをアンインストール後、VirtualBoxをnetworkドライバ付でインストールすると正常終了。
その後カスペルスキーの最新版をインストールして問題なし。

意外にネット内に情報が少なかったのでメモる。
上記以外にも何かレアな条件とかからむのかもしれない。

泣き叫ぶは知能に取って常識の境界線を学習する行為

自身のTwitterから転記
「幼少に痛みに泣き叫ぶ経験が少ないと、自己と他者の痛みに鈍感になるというのはわりとありそうな気はする。臨床データがあるかどうかは知らぬが」
「おそらく痛みを我慢するという行為も、同じく痛みに鈍感になりやすいのではないかと思う。泣き叫ぶという行為は、知能にとって状態の強制リセットであり至ってはならない状態の境界線だと思う。ここが越えてはならない線だと学習する行為になると思う」

泣き叫ぶという状態が、知能にとって「至ってはならない境界」であり、「それまでの短期記憶状態保持が泣き叫ぶことで崩されることで、前例学習が寸断されて、知能にとっての「先の予測」のできない領域が出来てしまう」ことによる忌避する状態である。

この仮説は相当前に考えたことだが、再現可能なロジックに書き残さないと、忘れてしまうものだ。こういう部分を丁寧に仕組みに組み込むことで、おそらく人工知能は進化する。