2014-09-23

日記

 友達と出かける約束してたのに調子がまったく上がらなかったので断ってしまった。昼過ぎに起きてうどんを食べて帰ってきて研究めいたことを進めていた。
 手始めに対話可能なTwitterbotを作ろうと考えているのだけど、今日はまず、入力情報としてタイムラインを「見た」ところから自分が反応する情報をどうやって発見するかという処理について要件を書いてみていた。つまるところウェブ上のテキストも街で聞こえる人の声と同じであって、それが「自分を呼ぶ声」なのか「他人を呼ぶ声」なのか「誰かのひとりごと」なのか「多数への呼びかけ」なのかを判断しなければならない。その認識は動物の本能的なものに非常に近いのだけど、身振りなどといった身体的な情報を除いた言語情報としての音声(=テキスト)だけに限定するのならば、比較的単純なアルゴリズムで処理できる(と思う)。そもそも媒体としてコミュニケーション成立の補助をする機能があり(@id statement)、それを関知していれば自動的に「誰かに話しかけられている」という認識が成立することになる。それくらいの単位で整理していけばいいかなぁという計画。
 そしてここまでは意味処理以前のコミュニケーションの成立までの過程であって、ここから更に(音素分解を前提とした)形態素解析とか、それに対応する機能的/記述的な意味の単位を措定したりとか、考えなきゃならないことは多い。んでもってこれらを実装する段階になって詰まることもかなり多いだろうから、時間かかりそう。卒論と同時に大枠の要件や処理機構を書き出して並べていって、来年度から実装かなぁとか考えてたけど、もっとさっさと書き始めないといけないなぁ。
 ちなみにTwitterbotじゃなくて「どんなウェブサイトのテキストにも対応して意味解析できるような自立的なAI」を作ろうとすると、たとえば「Twitterがどのような用途で人々に利用されているか」を理解することから導いてあげないといけないので、一気に難易度が上がる。人間はおおよそコンピュータの画面を見てそれがどのような類のサイトで必要な情報をどのように取得すればいいのかを(視覚情報をベースにして)経験し学習し利用しているので、同じことをそのAIにさせなければ一般のウェブサイトの情報取得や翻訳などは綺麗にできない。ここに大きな山があって、現時点ではサイトごとにチューニングしてあげることで対応させるくらいが暫定的な解決策になるかと思う。やっぱり本当は人間そのものの知覚と内部状態に近いものを用意してあげたいなぁ。でもそのモデルを考えるまでには至ってない。
 それはそれ、これはこれとして、卒論の文献読まないと……。ああ、セキュスペの対策全然やってない……。

広告を非表示にする