人工知能は画像の意味を理解できるまでに進化してる
今日はこちらの人工知能の勉強会にて、人工知能は画像をどこまで理解できるか?というお題を学んできました。
結論としては、かなりいいところまで行っているなーと感じます。
こんな感じで多言語で画像の意味を自動的に付けてくれるまでになってます。
引用:画像を媒介としたゼロショット言語横断文書検索 から
http://www.nlab.ci.i.u-tokyo.ac.jp/projects/language.html
更に画像に対する質問ができるようになってきているそうです。
例)冷蔵庫の隣にあるのは何ですか? 回答:椅子です
講演いただいた、東大の牛久先生の説明がよいまとめかつ、わかりやすくなっていて一読する価値があると思います
画像キャプションの自動生成 from 祥孝 牛久
www.slideshare.net
課題としては「どうやってコンピュータが付けた説明を評価するか、得点付けるかが難題。今は人手の採点に頼ってる」というところがありますが、こちらも研究が進もうとしているので、少し先の未来には画像認識ですんごい事が起きそうな予感を感じました。