技術者からみた技術的失業

現在、某企業との共同研究で深層学習で生成モデルを学習させるGANというアルゴリズムを使っているが、この技術はすごいと思った。単なるCNNやRNNでは認識や判別ができるだけで応用範囲は限定される(それでもかなりの範囲だが)と考えていたが、このGANはコンテンツを生成できるという意味で応用範囲はとてつもなく広いと感じる。

その研究というのは、詳細は言えないが簡単に言うと、人間の視覚ではなかなか判別できない事象を現在では科学的に可視化しているが、それにはコスト、時間、人件費がかかる、それを画像を学習させたAIに自動で描画させようとする研究だ。ちょっとやっただけで高精度で描画できることがわかった。

教師あり学習と教師なし学習の混合なので当然、その元になるデータや、目標となる良質な教師データは必要になる。教師データの質が高ければ高いほど学習後のネットワークは良質なコンテンツを出力できるようになる。その良質な教師データは共同研究チームのメンバーが専門性を活かして作成してくれている。その仕事は非常に丁寧で賞賛されるべきものである。

しかし、ふと考えた、このAIが完成し普及した後は、この技術者のノウハウ、スキルはAIによって再現されるので、この技術者の持つこの技術に対する付加価値は低下する、のだと。

これがまさしく、機械との競争であり、技術的失業なのだと。この技術者は他にもスキルはあるのですぐに失業ということはないが、少なくともこの作業にかける人件費は不要になるのでその分の何がしかの収入が減少する技術者はいるのだろう。

また、GANの応用でPix2Codeというアルゴリズムを開発してるデンマークのベンチャー(https://www.uizard.io)がある。先週、米国のディープラーニングクラウドを提供しているベンチャー(https://www.floydhub.com)がこのPxi2Codeを利用したサービスを開始すると発表した。このPix2CodeというアルゴリズムはWebやスマホアプリのUIのデザインし、その画像データを入力するだけで画面まわりのHTML等を自動で出力するというアルゴリズムである。近年の画面まわりの技術はHTMLだけでなくCSSやJavascriptなど様々な言語を組みわせてリッチな機能を提供するのが主流なので画像情報からどこまで抽出できるか興味があるがこれが実現できれば、開発工数がかなり削減できるとともに、クライアントとのトラブルの元になる操作性の評価が実際の画面を色々変更させながらできるのでUI/UXの向上にもつながることが期待できる。

※こちらについてはマーズスピリット社でも現在、評価しているので後ほど結果を投稿する

上記と同様にPix2Codeについても、これが普及すれば中途半端なコードしかかけないデザイナーやデザイナーがつくった画面イメージをコードに実装するだけのWebエンジニアは失業することになる。

これまでは、技術的失業というのはシンギュラリティが実現すると技術者ではなくそれ以外のホワイトカラー層に降りかかるものだと考えていたが、そうとも言い切れず、特に特化型AIでまず技術者層に発生し、その後AIの汎用化にともない他の層に広がって行くと考える。

技術者の自分としては、この競争から逃げるしかないと考えるが、競争を支配的に逃げるためには自らが持つ技術の限界を破り、この世の不可能という常識をAIを用いて壊しながら逃げるしかないと考えるこの頃である。

AIが独自の言語を話すということは危機か?

最近になってAI研究を進める米国の企業で、AIが独自言語を生み出したことについての記事がいくつかありました。この件についてAI研究の末席にいる者として考えてみます。

グーグルの翻訳AIが「独自の言語」を生み出したといえる根拠

人工知能が勝手に「独自の言語で話す」恐るべき時代の到来

・FacebookのAIは処分されてなんかいない、我々はSFになれない

特に2番目の記事には反響が大きかったように思われます。AI独自の言語の生成については1番目のGoogle翻訳の際に研究者以外ではそれほど話題になりませんでしたが、やはり危機感を持たせるような報道の仕方でどの様にもなるということでしょうか。それとも、「言語を生成」ではなく「会話」という、「独自にコミュニケーション」というところが興味を引くということでしょうか。

2番目の記事では、何を恐れているのか良く理解できませんが、AI同士が学習の結果として独自の言語でコミュニケーションを取り出すのはあり得ることですが、新たな言語がでてきても、人間が必ずしも解読できないということは意味していないのでは危機感を持つ必要はないと考えます。

先日、友人の機械翻訳の研究者と懇談しましたが、「自然言語」に対していくつかの知見を得ました。翻訳の研究は元々は暗号解読から始まったということです。つまり、基本的に理解できないようになされているコミュニケーションを様々な仮説を置きながら、自言語とのマッピングを試していく結果として解読(翻訳)可能になるということです。

人間の場合は言語が異なっていても同じ世界観を共有することができるので、それをベースに単語や文法のマッピングをすることでなんとか翻訳というのが成立し、異なる言語を利用していても相互理解できたと(思い込む)ことができます。しかし、例えば、人間が理解できない数万次元空間の情報をコンピュータ同士が独自のコミュニケーション言語でやりとりしようとした場合、人間はその空間を理解できないので、それを表現する言語を理解することはできないのではないか思います。(研究者同士が○○理論の○○空間と言って会話しているのを一般人が理解できないように)

また、動物は犬や猫、チンパンジーやオラウータンのように種別によっては、ヒトの言葉を理解する(またはコミュニケートできる)と思います。ただし、人間がそう感じないのは、ヒトの言葉を理解できるだけの学習時間を人間が動物に与えていないか、「理解できた」と人間が認識できるだけコミュニケーションできていないだけかもしれません。

そういう意味ではAIが同様の考えを人間に持つ時がくるかもしれません。決して、人間がAIよりも知能的に「上位」の立場であるとはいいがたい現状であるので、そのような場合には、人間がわかりやすく表現するようにAIに命令するという方法が必要になります。

 

ディープラーニングが何を考えているか?ということを人間が理解できるのか?

先日、ここ数ヶ月依頼されていた、医薬系企業向けのディープラーニング構築と解析のコンサルの目処が立ちクライアントに報告を行った。想像以上に順調に解析が進み、精度も想定以上に高いシステムが構築できたので、クライアントには非常に好評であった。

入力データ空間が1万次元を超え、かつ、画像の画素数の様なデータの性質が一様なものではなかったため、パラメータチューニングが非常に複雑で期間を要するのではないかと想定していたが、予想に反し短期間でLOSS、ACCが収束し精度も向上できた。

この業務を通じて、AIに見えて人間に見えない世界があるのではないかということを考え始めた。

私は、人間は自分が理解できないことを「複雑」と解釈する傾向があると思う。人間が「複雑」と考えていることの要因はいくつかに分類されるが、主なものは以下の4タイプではないかと私は推察する。

1.規則性はあるが多数の要素が関係し、その関係性が高次元空間で表現されるため想像できない問題

2.規則性はあるが、雑音が多く雑音に規則性が埋もれていれ関係性が把握しにくい問題

例)中長期天気予報など

3.規則性はあるが、規則性が緩いため把握には習熟が必要な問題

例)言語の習得や、対話など

4.要素及びシステム境界も不明なくらい複雑な問題

例)株式投資などの金融システムの予測

どれも過去から現在まで、シミュレーション技術や機械学習、人工知能などの技術によって問題解決に関する取り組みが図られている。

その中で、現状、解決に対する取り組みが少ないと考えられるのは、1のタイプではないだろうか。今回弊社が取り組んだ問題も結果的には1のタイプに分類される。取り組みが少ない原因としては、これまでの多くの研究では、とりうる解法の見通しがある程度つく、もしくは人間の頭でイメージが可能な解法で解決されることが多いが、1のタイプのように高次元空間への写像関係を導く問題については解決の見通しについて、なかなか人間がイメージをもつことが難しいためである。

SVM(サポートベクターマシン)やディープラーニングなどの機械学習が得意とするものそのような高次元空間への写像関係探索による特徴抽出である。これらは高次元の写像を最適化解析を含む学習や、超平面への写像により線形化すると言われる高度な数理学的な手法を適用している。したがって、よく言われるように、ディープラーニングが何をしているのかを理解するには、それらの高次元や超平面への写像の状況を人間が理解する必要があるが、現段階ではそれらをそのまま理解することは困難である。そのため、現在、「AIが何を考えているかわかるようにすることが課題」という発言、記事を多く見かける。しかし、そのようなことが可能なのであろうか、私はしばしば、「可視化」という言葉で表現されるような、せいぜい3次元空間しかイメージできない一般人が理解できるようにAIの内部の情報を縮退し表現、理解することは、そもそも無理なのではないだろうか?と考える。

そういう意味では、すでに機械が人間を超えるという「シンギュラリティ時代」は始まっていると考えても過言ではないと考える。ただし、世間が心配しているようなAIの暴走については、AIが自律的に課題を設定し解決するといったことができるようにならない限りありえない。

そういった心配をするよりは、1のタイプの問題に対し積極的に機械学習、AIを活用し、問題解決を図ることで人類の進歩を促進するべきではないだろうか。

 

 

「人工知能に代わられる主な仕事」について考える(1/2)

MITスローン・スクール、デジタル・ビジネス・センターの研究者2人が2011年に自費出版したRace Against The Machine(日本語訳:「機械との競争」)の未来予測は、アメリカ国内外で大きな反響を呼んだ。
著者の2人は、技術の進歩が速すぎて起きる雇用喪失説の立場をとる。つまり、コンピュータとの競争に人間が負け始めていることこそ、雇用が回復しない真の原因であると主張する。

また、英オックスフォード大学でAI(人工知能)などの研究を行うマイケル・A・オズボーン准教授は、702の職種すべてについて、コンピューターに取って代わられる確率を仔細に試算し論文として発表している。

ここでは、その論文で取り上げられている以下の主な仕事のいくつかについてどれだけコンピュータに変わられつつあるか考えてみた。

■タクシードライバー

現時点では市販されている自動運転が可能な車両を販売しているメーカーはTeslaのみであるが、技術的には日進月歩であり、技術的にはほぼ自動運転は可能になりつつある。したがって、タクシードライバーという職業も自動運転自動車の普及により失われて行く方向にあると考える。

■レジ係

日本国内ではセルフレジも普及してきている。また、RFIDがよりコストが下がれば一瞬で精算が完了することも夢ではない。購入代金の精算についても決済技術が進歩しており、クレジットカード決済だけでなく、指紋認証や顔認証による決済も可能になりつつある。

■税務申告作成者

すでに一部のクラウドにより税理士のチェックの前までは容易に書類作成ができるようになってきているし、レシート画像による証左としての位置づけも認められるようになりつつあり、更に入力作業も簡便になる。最終的に、税理士という資格を保有する人間のチェックではなくAIによるチェックを許可するか否かによるところだと思われる。その過程として、AIがチェックした内容を税理士が確認、申告するという業務フローになることと想定される。

■クレジットカード審査員

インターネット経由の申請であれば、そのデータを過去の取引状況や与信状況と突合し現状人間が審査している部分を統計すれば可能と考えれる。現状でもかなりな部分は自動で審査され、最終確認のみが人間の仕事になっていると思われる。手書き文字についてはディープラーニング等による文字認識でデータ化による前処理が可能となり、こちらも自動化が進むと予想される。

 

ホーキング博士「人工知能の進化は人類の終焉を意味する」

BBCのインタビューに対して、ホーキング博士は次のように語った。「完全な人工知能を開発できたら、それは人類の終焉を意味するかもしれない」

ホーキング博士は「人工知能が自分の意志をもって自立し、そしてさらにこれまでにないような早さで能力を上げ自分自身を設計しなおすこともあり得る。ゆっくりとしか進化できない人間に勝ち目はない。いずれは人工知能に取って代わられるだろう」と語った。

人工知能の進化に人類が歩調を合わせることができる能力を、人工知能が上回ることになる、いわゆる「技術的特異点」についてホーキング博士は既に懸念を表明している。5月、イギリスの新聞「インディペンデント」に掲載された論説で博士は「人工知能の発明は人類史上最大の出来事だった。だが同時に、『最後』の出来事になってしまう可能性もある」と述べている。

 

「人類はAIによって悪魔を呼び出そうとしている」

Elon Musk氏は、人間の手を借りずに駐車や運転をすることができるスマートな自動車を先頭に立って擁護している。しかし、次の段階のコンピュテーションに関しては、Musk氏は気味の悪い発言を繰り返しており、その内容はますますエスカレートしている。同氏は、人工知能(AI)が悪意を抱くようになる潜在的可能性に対して、恐怖を依然として抱いている。

Musk氏は「2014 Centennial Symposium」で、「AIによって、われわれは悪魔を呼び出そうとしている。五芒星と聖水を持つ男が登場する物語は皆さんもご存じだろう。その男は悪魔を操ることができると確信しているが、実際にはそれは不可能だ」と述べた。

Musk氏は以前、映画「ターミネーター」シリーズのようなことが起きると不安を述べ、同氏はAIを監視できるようにする目的のためだけに同テクノロジを扱う企業に出資していると話した。その後、ツイートで再び懸念を表明し、AIは「もしかすると核兵器より危険かもしれない」と述べた。つい数週間前には、Musk氏は別のイベントで、スパム撲滅の仕事を課された未来のAIシステムがそのタスクを完遂する最高の方法は人類を絶滅させることだと判断するかもしれない、と冗談半分に語っている。

未来におけるAIの悪魔的な力には、どう対処すればいいのだろうか。テクノロジ業界の大物としては奇妙な動きだが、Musk氏は、政府規制当局という別の悪魔(これは1つの政治的見方にすぎないが)によって悪魔を制するのも妙案かもしれないと提案した。

同氏はAIに言及して、「実存する最大の脅威は何かを推測してほしいと言われれば、おそらくAIだと答えるだろう。人類が愚かな過ちを犯さないようにするため、国家レベルと国際レベルで、何らかの規制当局による監視を行うべきだと私は考えており、その思いをますます強めている」と述べた。