ディープラーニングが何を考えているか?ということを人間が理解できるのか?

先日、ここ数ヶ月依頼されていた、医薬系企業向けのディープラーニング構築と解析のコンサルの目処が立ちクライアントに報告を行った。想像以上に順調に解析が進み、精度も想定以上に高いシステムが構築できたので、クライアントには非常に好評であった。

入力データ空間が1万次元を超え、かつ、画像の画素数の様なデータの性質が一様なものではなかったため、パラメータチューニングが非常に複雑で期間を要するのではないかと想定していたが、予想に反し短期間でLOSS、ACCが収束し精度も向上できた。

この業務を通じて、AIに見えて人間に見えない世界があるのではないかということを考え始めた。

私は、人間は自分が理解できないことを「複雑」と解釈する傾向があると思う。人間が「複雑」と考えていることの要因はいくつかに分類されるが、主なものは以下の4タイプではないかと私は推察する。

1.規則性はあるが多数の要素が関係し、その関係性が高次元空間で表現されるため想像できない問題

2.規則性はあるが、雑音が多く雑音に規則性が埋もれていれ関係性が把握しにくい問題

例)中長期天気予報など

3.規則性はあるが、規則性が緩いため把握には習熟が必要な問題

例)言語の習得や、対話など

4.要素及びシステム境界も不明なくらい複雑な問題

例)株式投資などの金融システムの予測

どれも過去から現在まで、シミュレーション技術や機械学習、人工知能などの技術によって問題解決に関する取り組みが図られている。

その中で、現状、解決に対する取り組みが少ないと考えられるのは、1のタイプではないだろうか。今回弊社が取り組んだ問題も結果的には1のタイプに分類される。取り組みが少ない原因としては、これまでの多くの研究では、とりうる解法の見通しがある程度つく、もしくは人間の頭でイメージが可能な解法で解決されることが多いが、1のタイプのように高次元空間への写像関係を導く問題については解決の見通しについて、なかなか人間がイメージをもつことが難しいためである。

SVM(サポートベクターマシン)やディープラーニングなどの機械学習が得意とするものそのような高次元空間への写像関係探索による特徴抽出である。これらは高次元の写像を最適化解析を含む学習や、超平面への写像により線形化すると言われる高度な数理学的な手法を適用している。したがって、よく言われるように、ディープラーニングが何をしているのかを理解するには、それらの高次元や超平面への写像の状況を人間が理解する必要があるが、現段階ではそれらをそのまま理解することは困難である。そのため、現在、「AIが何を考えているかわかるようにすることが課題」という発言、記事を多く見かける。しかし、そのようなことが可能なのであろうか、私はしばしば、「可視化」という言葉で表現されるような、せいぜい3次元空間しかイメージできない一般人が理解できるようにAIの内部の情報を縮退し表現、理解することは、そもそも無理なのではないだろうか?と考える。

そういう意味では、すでに機械が人間を超えるという「シンギュラリティ時代」は始まっていると考えても過言ではないと考える。ただし、世間が心配しているようなAIの暴走については、AIが自律的に課題を設定し解決するといったことができるようにならない限りありえない。

そういった心配をするよりは、1のタイプの問題に対し積極的に機械学習、AIを活用し、問題解決を図ることで人類の進歩を促進するべきではないだろうか。