現在、某企業との共同研究で深層学習で生成モデルを学習させるGANというアルゴリズムを使っているが、この技術はすごいと思った。単なるCNNやRNNでは認識や判別ができるだけで応用範囲は限定される(それでもかなりの範囲だが)と考えていたが、このGANはコンテンツを生成できるという意味で応用範囲はとてつもなく広いと感じる。
その研究というのは、詳細は言えないが簡単に言うと、人間の視覚ではなかなか判別できない事象を現在では科学的に可視化しているが、それにはコスト、時間、人件費がかかる、それを画像を学習させたAIに自動で描画させようとする研究だ。ちょっとやっただけで高精度で描画できることがわかった。
教師あり学習と教師なし学習の混合なので当然、その元になるデータや、目標となる良質な教師データは必要になる。教師データの質が高ければ高いほど学習後のネットワークは良質なコンテンツを出力できるようになる。その良質な教師データは共同研究チームのメンバーが専門性を活かして作成してくれている。その仕事は非常に丁寧で賞賛されるべきものである。
しかし、ふと考えた、このAIが完成し普及した後は、この技術者のノウハウ、スキルはAIによって再現されるので、この技術者の持つこの技術に対する付加価値は低下する、のだと。
これがまさしく、機械との競争であり、技術的失業なのだと。この技術者は他にもスキルはあるのですぐに失業ということはないが、少なくともこの作業にかける人件費は不要になるのでその分の何がしかの収入が減少する技術者はいるのだろう。
また、GANの応用でPix2Codeというアルゴリズムを開発してるデンマークのベンチャー(https://www.uizard.io)がある。先週、米国のディープラーニングクラウドを提供しているベンチャー(https://www.floydhub.com)がこのPxi2Codeを利用したサービスを開始すると発表した。このPix2CodeというアルゴリズムはWebやスマホアプリのUIのデザインし、その画像データを入力するだけで画面まわりのHTML等を自動で出力するというアルゴリズムである。近年の画面まわりの技術はHTMLだけでなくCSSやJavascriptなど様々な言語を組みわせてリッチな機能を提供するのが主流なので画像情報からどこまで抽出できるか興味があるがこれが実現できれば、開発工数がかなり削減できるとともに、クライアントとのトラブルの元になる操作性の評価が実際の画面を色々変更させながらできるのでUI/UXの向上にもつながることが期待できる。
※こちらについてはマーズスピリット社でも現在、評価しているので後ほど結果を投稿する
上記と同様にPix2Codeについても、これが普及すれば中途半端なコードしかかけないデザイナーやデザイナーがつくった画面イメージをコードに実装するだけのWebエンジニアは失業することになる。
これまでは、技術的失業というのはシンギュラリティが実現すると技術者ではなくそれ以外のホワイトカラー層に降りかかるものだと考えていたが、そうとも言い切れず、特に特化型AIでまず技術者層に発生し、その後AIの汎用化にともない他の層に広がって行くと考える。
技術者の自分としては、この競争から逃げるしかないと考えるが、競争を支配的に逃げるためには自らが持つ技術の限界を破り、この世の不可能という常識をAIを用いて壊しながら逃げるしかないと考えるこの頃である。