「なぜ日本は労働生産性が低いのか?」をパレート論から考えてみた

労働生産性については、労働者個々の話と日本全体的な話を区別しないと議論が噛み合わない。

個々の一般論としては、労働生産性が高い労働者には高賃金を払うべきであると考えるし、企業としては労働生産性が高い従業員だけを雇用したい、と考えるのが普通であろう。ここでは全体的な話を考えてみたいと思う。

日本で実施されている新卒一括採用では最初から、労働生産性が高いか否かはわからない。本人にとっても業務への適正は不明である。したがって、従来は、企業は教育コストと期間をかけて新卒採用者を育成した。でも、確率的に何割かは向いていない業務に配属せざるを得ない状況が発生することがあった。結果として、全体的な労働生産性は最大化されないという状況になる。

さらに、経済学では良く知られる理論として、パレート理論がある。パレート理論の概要を紹介すると以下のようになる。
・イタリアの経済学者ヴィルフレド・パレートが提唱
・所得の分布について「社会全体の富の8割は上位2割の高額所得者に集中し、残りの2割が8割の低所得者に分配される」という理論
・さまざまな方向に拡大解釈され、たとえば「企業の売上げのうち8割は優秀な上位2割の社員によってもたらされる」などと考えられるようになった。

パレート理論に従えば、労働生産性も2割の社員が8割を実行し、それ以外の8割の社員が残りの2割を実行するということになり、結果として、全体の平均としては労働生産性はベストに比較すれば低い状況になる。よって、製品・サービスのコストは高くなり、利益は圧縮されるため、労働生産性が高い社員の賃金は抑えられ、低い社員の賃金は若干高めになる。

日本の場合、労働法として解雇は容易ではないため、労働生産性をベストにする手段は従業員個々の能力向上または、社内人事異動に限られる。つまり、海外に比較すれば自分に向いた業務や組織を探すことを企業がから提示する選択肢は限られており、自分で一歩を踏み出すしかない。その状況で企業が製品・サービスが価格競争にさらされた場合、製造コストと利益を下げざるを得なくなる。結果、コスト低減は下請け企業への価格転嫁、利益低減は従業員の賃金削減によって実現される。

下請け企業は、価格転嫁されることでより厳しくなるため、正規雇用から非正規雇用の採用に切り替えることでコストの圧縮を図る、結果、労働生産性が低いことによって、労働環境や賃金は悪化してきた。

海外では新卒一括採用についてはあまり見られないが、パレート法則は人種に問わず有効らしいので、日本と同様に海外でも労働生産性は低くなると考えられる。しかし、海外では、労働力は流動性があるため、その業務に対して向いてなく労働生産性が低い従業員は転職するか、解雇される。その従業員は

1.自分に向いている職業または企業を探す
2.自己研鑽で能力向上する
のどちらかを選択する。企業側は求める労働生産性をもつ新たな従業員を採用することで会社としての労働生産性を高め、より競争力を向上させ、コストを削減し、高い賃金で従業員に応えるようになっていると考えられる。

しかし、パレート法則が興味深いのは、どんな人員構成でも普遍性があるということである、つまり、優秀な人材を集めても、ある期間を経ると2:8の法則が成り立つということである。これは、個々の人間の能力が優秀か劣っているかの問題ではなく、人間という生物が本能的にもつ性質なのであろうか?したがって、海外では常に全体的な労働生産性を高く維持するために活発な解雇と採用を繰り返しているのだと考える。さらに興味深いのは、解雇された人間は、再雇用先でも8割に入るかというと、逆に2割に入ることも珍しくないということである。これらのことから考えると、ある組織で労働生産性が低い従業員は能力が低いということではなく、その組織や業務と相性が良くないだけであり、相性が良い組織と業務と出会うことで高い労働生産性を発揮することが可能ということである。

現在、日本でも、徐々にではあるが転職意欲の高まりによって労働者の流動性が高くなりつつある。結果として、個々の労働者が意欲的に取り組むことができる組織、業務につくことで全体として労働生産性が向上されていくことを期待している。

現在、政策論争で、企業の「解雇権」や「労働者を守れ!!」といった論争があがっているが、パレート理論から考えれば、その企業では8割側に入っていて将来的な賃金アップが期待できない従業員も、組織や業務が異なれば2割側に入り能力が発揮でき賃金アップが望める可能性があるのだから、労使双方のメリットのためにもっと流動性を高めても良いのではないかと考える。もちろん、身体的や精神的な問題もあるのでセーフティーネットの充実も合わせて必要とは考えるが。。。。。

将来の職業選択肢を広げるための小学生向けオンラインプログラミングスクール ミライ・Codeはこちら(https://www.mirai-code.com/)

AI半導体におけるNVIDIAの強み

 AIエンジニアの間ではGPUの製造メーカーとして良く知られているNVIDIAであるが、投資家の間では、四半期ごとに発表される業績が注目されており、NVIDIAの業績によって米国の株式市場の株価の傾向だけでなく、日本をはじめとする世界中の株価の傾向を左右する状態になっている。

 今でこそ、GPUといえばNVIDIA、NDIVAといえばGPUというように、AIに利用されるGPUの代表的なサプライヤーになっているが、私がデータセンター事業会社で執行役員をしていた10年前はNVIDIAのGPUはオンラインゲームで利用されるコンピュータ向けのデバイスとして認識されていた。ディープラーニングの研究目的で、当時でそれなりにハイスペックのGPUを搭載したタワー型PCを1台だけ自作コンピュータ販売会社にネットで注文したところ、先方の法人営業担当から直接会いたいという連絡があり、面談することになった。今思えば、当時はガチャを中心としたスマホゲームが伸び盛りだったためデータセンター事業会社がGPUを購入するということは何かゲームビジネスのネタがあり、もっと大量発注が控えているかもしれないという想像をしていたのかもしれない。面談では営業担当だけでなく部長クラスの方も同席されており、一通りのアイスブレイクの会話の後、GPUの利用目的を質問された。私は「ディープラーニングの学習で使うので」と回答した。しかし、先方は怪訝な顔をされ、「社内教育向けですか・・・」と言われたので、「そっか、これはきちんと説明をしないと理解してもらえないと考え、20分ぐらいかけて、人工知能の概要と、当時の技術トレンド、なぜディープラーニングが注目されているのか、なぜGPUが必要なのかというのを簡単に説明した。反応は、「そうなんですね、いやーそんなものにGPUが使われるとは全然知りませんでした。その分野の研究機関への販売の可能性についても検討していきます。」と言われていたのを記憶している。その後、2016年になるとAI向けサーバDGX-1がNVIDIAから発売され、さらにハードウェアだけではなく、AIに関するソフトウェアを数多く無料提供することでNVIDIAは2014年ごろから始まるAIブームを牽引していくことになっている。

 AMDやIntelなど別メーカーからもGPUが販売されているが、なぜAI利用となるとNVIDIAが選ばれるのか?というと、それはCUDA(Compute Unified Device Architecture)という汎用並列コンピューティングプラットフォーム(並列コンピューティングアーキテクチャ)およびプログラミングモデルが存在するからである。簡単にいうとCUDAはアプリケーションから簡単にGPUを使うためのツールである。現在のAI/機械学習に関する研究開発環境はarXiv,githubに公開された研究結果、プログラムを参照して追加、改善するというサイクルになっているため、基本的にそれらが動作する環境に依存する。したがって、元々の環境がCUDAでGPUを使う環境であれば、その環境を求めるという流れである。学習効率を上げるには、CUDAが使えれば高性能なGPUに変えるだけでAIアプリケーションとしてはそのままでなにもせず対応できるためAIエンジニアとしてはNVIDIAのGPU一択となっている。

ビジネスとして他のメーカーのGPUを選択する際のネックになるのが、既存のAIアプリケーションを動作させるためのCUDA互換性の有無である。昨今のネット記事にあるようにAIアプリでのデータセンター利用増加により電力利用増加が予測されるため、省電力化というのが課題になるのだが、NVIDIAよりも省電力な環境を採用したとしてもその上で動作するアプリケーションがない、もしくは動作環境移行コストがかかるのは魅力的に見えないというのが問題である。

 このたぐいで似たような話は以前からあり、PCのOSでWindowsを利用するよりもLinux系のOSを利用した方がコスト的にもセキュリティ的にも安価で済むが、Office製品やその他業務系アプリで多くの人が慣れているアプリがLinux系OSでは使えないためいまだにWindowsのシェアが大きいという例が代表的なものである。

 この状況を変えていくには、Googleがクラウドで提供しているAI開発環境 ColaboratryでTensorFLow+TPU(Tensor Processing Unit)を使えばCUDAは必要なくなるというように、NVIDIA以外のAI半導体会社もしくは、そこと協業する会社がソフトウェア開発ルーツに投資をしっかりしてCUDA依存しないAIアプリケーションを開発する必要がある。もしくは、CUDA互換がある開発ツールを提供することで現状のNVIDIA優位な状況を変えることは可能かと考える。

JAXAのプログラミング教材(ロケット編)

先日の記事で、NASAのJPL(ジェット推進研究所)がSTEM教育向け教材を提供していることを書いたが、日本のJAXAでも宇宙教育センターが作成した子供向けのプログラミング教材を公開している。宇宙教育センターは、プログラミング教材以外にも子供向けに科学が身近に感じられる教材を多数公開している。

プログラミング教材は、小学校でのプログラミング教育の開始に伴い2020年に作成され、ロケット編、はやぶさ2編、人工衛星編、地球観測編、HTV-X編の5つが公開されている。
https://edu.jaxa.jp/materialDB/contents/search/result.html#/kw=%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%9F%E3%83%B3%E3%82%B0

ロケット編の説明資料は、
1.JAXAについて
2.ロケットについて
3.Scratchでロケット打上げゲームを作ろう!
で構成されている。

ロケットについては、ロケットの役割と、ロケットとプログラムの関係が簡単に説明されている。もう少し説明した方が、次のゲームの流れが理解できて良いと感じるが、そのあたりについては教師に任されているようである。

ロケット打ち上げゲームについては、地球からロケットが打ち上げられ、ロケットの第一段を切り離す高度、第二段を切り離す高度、フェアリングを切り離す高度でプレイヤーがタイミングを合わせてキー操作をすると、切り離しが成功し、最終的に背景が地球全体に切り替わり人工衛星が周回軌道を回り続けるという流れで進むものである。キー操作のタイミングが合わないと、人工衛星は周回軌道に投入されずに画面に「失敗」の文字が表示される。

プログラムについては配布されたScratch向けプログラムファイルをScratchで読み込むことで開始できるようになっている。ロケットゲーム用のオリジナルのロケットスプライトや人工衛星スプライト、地球背景が含まれており、ブロックを組み合わせるだけでプログラムを作成することができる。基本的に資料に沿ってブロックを配置していけばゲームができるように資料は作成されているが、なぜそうするか?などの細部の解説はなく授業の自由度が高いため教師が補足説明する必要があると考える。

学習指導案をみると、ロケット打ち上げについて学習しようという教材にしては説明が少し物足りない。また、ロケット打ち上げを題材としたゲームをプログラミングしようというには生徒に考えさせる場面が少ないと考える。

実際にこの教材をつかってゲームを作成させるには、最初にゲームの内容を伝え、そのために必要なスプライトの動作のフローや操作入力によるスプライトの反応を考えるといった、全体の流れを論理的に考えさせべきかと考える。その後、その論理を実現するための細部の実装を考えさせたほうが、子供にとってもScratchのブロックの配置についてよく理解できるのではないかと考える。

小学生向けオンラインプログラミングスクール ミライ・Codeはこちら(https://www.mirai-code.com/)

NASAが提供するSTEM教育

以前、有料動画配信サイトで「人工衛星を制御せよ! 〜“宇宙キッズ”のひと夏〜」というNHK-BSで放送された世界のドキュメンタリー番組を視聴した(現在は配信されていないようである、残念!!)。それはとても興味深い内容であった。原題:Zero Gravity(アメリカ 2021年)という3年前にアメリカで制作されたドキュメンタリーである。以下にそのあらすじを紹介する。(以前の記憶で記載するので細部の違いについてはご容赦ねがいます)

あらすじ————–毎年夏にNASA JPL(ジェット推進研究所)とMITが子ども向けにワークショップを実施している。それは、全米から数千人が参加し、5週間かけてコンピュータープログラミング、ロボットや宇宙のことを学んだ上で人工衛星を制御するプログラムを作成するものである。このドキュメンタリーの題材となっているプログラムは、ある条件下で目的を達成したことで得られる合計得点を競い合う1対1の対戦型ゲームの戦略を自動実行する人工衛星の制御プログラムである。ゲームに関するプログラミングはScratchで作成できるように拡張されている。ゲーム上で人工衛星はプログラムにしたがって自動で制御されるため、ゲームの勝敗はどういう場面でどう動かすかという事前に立案する戦略に依存する。

参加者は小学校単位で参加グループが構成されワークショップに参加する。プログラムは提出期限までに作成され、提出後の変更は不可能である。その後、作成されたプログラムによって各州でトーナメント方式で対戦が行われて各州の代表チームが選抜される。各州の代表チーム選抜後はNASA JPLに集まり州代表対抗のトーナメントが実施される。各州のトーナメントでは人工衛星や宇宙空間などのゲーム環境はコンピュータ・シミュレーション上で実現されるが、最後のJPLでのステージではゲームの舞台は宇宙空間にあるISS(国際宇宙ステーション)内部で現実のマイクロ衛星を制御して対戦が行われる。

プログラム作成にはメンターとして、事前にJPLでセミナーを受講した小学校の教師が参加する。教師はあくまでもメンターとしての参加であり、戦略立案は生徒が話し合って決めていく。このドキュメンタリーでは、JPLの地元であるカルフォルニア州のある小学校を舞台に、メンターである先生がJPLのセミナーを受講しグループメンバーを募集するところから始まる。7,8名で構成されるグループメンバーから3名の小学生にスポットを当て、その小学生の家庭環境、将来の夢、このワークショップに参加したことによって将来へのモチベーションがどう変化したか等を中心にインタビュー形式で取材していく。スポットがあてられた生徒たちは、家庭が裕福であるとか、両親が教育に熱心であるとか、高学歴であるとかではなく、移民系であったりなどむしろアメリカの多様性がある社会を反映した家庭環境である。生徒自身も特に宇宙やプログラミングに興味を持っているというわけでもなく、生物学や経済に興味を持っていて、勉強も遊びも普通の子どもたちと同じように楽しんでいる。そんな生徒たちが、5週間のワークショップに参加し、先生の指導を受けながらプログラムを開発し、最終ステージでは宇宙飛行士が見守る中、目的を達成する早さと精度を競う。参加した3人の子どもを追い、自らの可能性に目覚めて更なるチャレンジに意欲を燃やす姿を描くというストーリーである。———————————-

NASAのJPLというのは、主に惑星探査を中心に研究をしている研究所であり、日本のJAXAでいえば相模原の研究所に相当する。こちらは毎年、小学生向けでなく中学生、高校生、大学生向に様々なSTEM教育の教材を公開・提供している。近年ではJAXAも小学生のプログラミング教育向けに宇宙を題材としたSTEM教育教材を公開しており。このような教材がもっと広まって今以上に科学に興味を持つ生徒たちが増えていけば良いと考えている。このブログでもそのような教材を紹介することで、そのような動きを促進することに協力していきたい。

小学生向けオンラインプログラミングスクール ミライ・Codeはこちら(https://www.mirai-code.com/)

ミライ・Codeの背景と目的

 このたび、当社マーズスピリットでは小学生向けのオンラインプログラミング教育サービス「ミライ・Code」の提供を開始します。そのサービスを企画した背景と目的を御覧ください。

 ミライ・Codeのコンテンツ作成やQ&Aなどには生成AIを活用し効率化を図っております。それらの技術的な情報もこちらのブログで公開していきます。

インターネットとの対比で考えるAIの社会へのインパクト

 AIのビジネス分野への導入が、ChatGPTをはじめとするLLMや生成AIの普及によって加速しています。この進展は社会に非常に大きなインパクトを与えると考えられます。類似の変革として挙げられるのは、インターネットの普及です。最初は情報機器の連携手段としてしか考えられていなかったネットワークが、インターネット周辺の技術革新によって個人のコミュニケーションを始めとした社会生活のインタフェースとして認知され、利用されるようになり、人々の生活は大きく変化しました。また、インターネットの利用により社会構造やビジネス環境も大きく変わり、GAFAMを代表とする世界的なビッグテック企業が多数登場しました。

 一方、日本では世界初の携帯電話からのインターネット接続サービスであるi-modeを開始していたにもかかわらず、既存の業務フローやビジネス環境へのこだわりから、インターネットの利用はコミュニケーションのみに限定され、高効率化や高収益化をもたらすビジネスモデルへの移行は、米国や中国と比べて遅れていると言えます。私は、同じ轍を踏まないためにも、ChatGPTをはじめとするLLMや生成AIのビジネス分野への普及をためらうことなく進めるべきだと考えています。

 インターネットは単なるネットワークに過ぎませんでしたが、それがここまで便利なものとして認識されるようになったのは、Web/ブラウザ技術のおかげです。Web/ブラウザ技術によって、人々は簡単にデータにアクセスできるようになり、さまざまな情報の発信や受信が可能になりました。

 AIにおいて、このWeb/ブラウザ技術に対応するのがChatGPTなどのLLMです。LLMの普及により、人々はプログラムコードではなく言葉で直接AIとコミュニケーションできるようになってきています。また、LLMはシステムやコンピュータに命令するプログラムコードを生成することもできますので、LLMを利用することで人々は言葉でシステムやコンピュータとコミュニケーションすることができるようになっています。この流れは今後ますます急速に加速すると予想されます。

 もう少し細かく考察すると、インターネットの発展も2つの段階にわかれます。その境目を表現するバズワードは、2004年に提唱された”Web2.0”だと思います。Web2.0以前はインターネットの主な利用方法は、検索とメールでした。検索対象となるサイトの所有者は企業またはWeb技術やネットワーク技術を理解できる一部の個人のみであり、普通の個人がインターネットを利用して情報を発信することはほぼなく、いわゆる掲示板(BBS)に書き込みする程度でした。それに比べWeb2.0以降はブログでの個人の情報発信が始まり、TwitterやFacebookなどのSNSによる情報発信、情報拡散が可能となりました。その背景としては、クラウドの登場やWebフレームワークの進化、Web-APIやAjaxの普及など現在の利用されている技術の登場などがあると考えます。ビジネス環境もそれまでは一部の企業でしか提供できなかったECビジネスが急速に拡大し、現在にいたっています。特に2010年代に入ると”ビッグデータ”というバズワードが出現し、ビジネスにおけるデータ収集・活用の重要性が提唱され、それにより大量のデータ収集・活用され現在のビッグテックの発展やAI技術の発展に寄与しています。

 繰り返しになりますが、この間に日本の大部分の企業ではインターネットの活用は、コミュニケーションのためのメールや、情報収集のための検索活用に限定されており、その他のネットワーク利用は社内用インターネット(イントラネット)によるワークフローの電子化が大部分でした。ゆえに、データ活用に向けた収集もそれらの技術開発も遅滞した。この間も国、企業で技術開発に対する投資は行われていたが、対象はすでに大部分のシェアをGoogleが持っていた検索エンジンや、規模的にAWSと比較にならないクラウドサービスを立ち上げるため、いわゆるキャッチアップのために行われていました。1960年〜1980年代のようなまだグローバル化していない時代であれば米国の技術をキャッチアップし、より安価なサービスを構築することでビジネスを立ち上げることは可能でした。しかし、現代のようなインターネットで世界とつながる時代においては国内ユーザ限定と言えどもシェアを取り返すことは容易ではなく、ビジネス的な成功には結びつきませんでした。

 AI普及時代においてこれらの反省を活かすためには、すでに遅れているAIの基礎技術やLLM構築の投資をするのではなく、AIを利用することで他の先進国に対し劣っているとされる生産性の向上や、間近に迫っている生産労働人口の急減に備えるという方向に国や企業の投資をシフトするべきと考えます。現在計画されている、国産LLMに対する数十億円の国の投資額はGAFAMの投資額に比較して2桁も少なく、日本だけでしか使えないLLMは構築かもしれませんがそれ自体のビジネスの成功は日本の市場規模的に難しいと考えます。それよりもAI/LLMをビジネスインフラと捉え、それらを用いたグローバル向けビジネス立ち上げへの投資にシフトするべきと考えます。

Webデザイナーに求められる必須スキル

Webデザイナーとして成功するためには、以下の必須スキルを身につけることが重要です。

  1. ビジュアルデザイン: 良いデザインの基本原則や色彩理論、タイポグラフィ、レイアウトなどの要素を理解し、ユーザーに魅力的で使いやすいデザインを提供する能力。
  2. UX/UIデザイン: ユーザーエクスペリエンス(UX)とユーザーインターフェース(UI)デザインの基本を理解し、ユーザーのニーズに応えた使いやすいウェブサイトやアプリを設計できる能力。
  3. レスポンシブデザイン: さまざまなデバイスや画面サイズに適応するデザインを作成し、ウェブサイトやアプリのアクセシビリティを向上させる能力。
  4. HTML/CSS: ウェブページの構造を作成するためのHTML(HyperText Markup Language)と、スタイルやレイアウトを適用するためのCSS(Cascading Style Sheets)の基本を理解すること。
  5. JavaScript: ウェブページのインタラクティブ性を向上させるために、JavaScriptを使用したプログラミングの基本を習得すること。
  6. コーディングツール: エディターやバージョン管理システム(Gitなど)を使いこなす能力。
  7. SEO: サイトの検索エンジン最適化(SEO)を行い、ウェブページが検索エンジンで上位に表示されるようにデザインする知識とスキル。
  8. コミュニケーションスキル: クライアントやチームメンバーと効果的にコミュニケーションし、プロジェクトの目標を達成する能力。
  9. タイムマネジメント: 複数のプロジェクトやタスクを効率的に管理し、期限内に成果を出す能力。
  10. 学習意欲: ウェブデザインや開発の技術は日々進化しているため、新しい技術やトレンドをキャッチアップし、スキルを継続的に向上させる意欲が求められます。

これらのスキルを身につけることで、Webデザイナーとしての競争力を高め、クライアントやユーザーに価値ある( By ChatGPT(GPT-4))

VTuberを作成する手順

VTuberを作成するには、キャラクターデザイン、モデリング、リギング、アニメーション、配信ソフトウェアの設定などのステップが必要です。以下に、ステップごとの手順と使用ツールを説明します。

ステップ1: キャラクターデザイン

  1. キャラクターのコンセプトや個性を考えます。どんな見た目や性格を持つか、特徴的な服装やアクセサリーなどを決めます。
  2. イラストレーターを使ってキャラクターを描きます。Adobe IllustratorやClip Studio Paintなどのソフトウェアが役立ちます。

ステップ2: 3Dモデリング

  1. デザインしたキャラクターを3Dモデルに変換します。Blender, Maya, 3ds Maxなどの3Dモデリングソフトウェアを使用します。
  2. テクスチャを作成し、モデルに適用します。Substance PainterやAdobe Photoshopが使えます。

ステップ3: リギング

  1. 3Dモデルにボーンやコントローラーを追加して動きを制御できるようにします。これには、BlenderやMayaのリギング機能が役立ちます。
  2. フェイシャルリギングを行い、表情や口の動きをコントロールできるようにします。

ステップ4: アニメーション

  1. モーションキャプチャー技術を利用して、実際の動きを3Dモデルに適用します。Vive TrackerやXsensなどのモーションキャプチャーシステムが使えます。
  2. キャラクターの表情や目の動きを制御するために、iPhoneのARKitやFaceRigなどのフェイシャルキャプチャーソフトウェアを使用します。

ステップ5: 配信ソフトウェアの設定

  1. VTuberとして配信するために、OBS StudioやXSplitなどの配信ソフトウェアを設定します。
  2. 3Dモデルを表示し、モーションキャプチャーとフェイシャルキャプチャーをリアルタイムで反映させるために、VMagicMirrorやLuppetなどのソフトウェアを使用します。

以上の手順で、VTuberの作成が完了します。作成したVTuberを使って、配信を開始し、視聴者と交流することができます。

AI-Ready化ガイドライン

レベル5 AI−Powered企業として確立・影響力発揮
すべての事業、機能がAIxデータ化し、ぎょうかいそのものの本質的な刷新(disruption)を常時仕掛け、変容を引き起こしている。国内外の競合に対抗し得るレベルでAI-Ready化に向けリソースを投下できている。新しい試みがあらゆるところから雨後の筍のように日々生まれており、常に世界の最先端をリードし注目されている。

レベル4 AI-Ready化からAI−Powered化へ展開
AIxデータの力を解き放つことで、コア事業においてこれまで不可能だった夢や課題解決を実現している。未来を信じ、AI-Readyになるまでリソースを一過性でなく投下し続けている。

レベル3AI-Ready化を進行:中〜大規模なインターネット企業の多く
既存の業務の機械化にはめどがつき、今後の成長と事業刷新のための重要なレバーとしてAIxデータの利活用を開始。これに向け、まとまったリソースの再配分が行われている。

レベル2 AI-Ready化の初期段階:先端的な大企業/初期のネット系スタートアップ
外部の専門家の力を借りてAIxデータの利活用に着手しているが、取り組みは既存の人間の仕事(業務)を機会に置き換えることが大半。

レベル1 AI-Ready化着手前
製造、物流、販売など基本業務のためのシステム運用とデータマネージメントは行っているいるが、SIerだのみでAIxデータを使った事業の運営、刷新、創造については着手していない。

経営・マネージメント層専門家従業員システムレベル・データ
レベル5・AIxデータを理解するCxOが全社、業界刷新の中心を担う
・業界全体、他社との連携を推進
・全技術者が領域x AI知識を持つ
・AIxデータ活用の技術および研究両面の最先端の人材、経験を持つ
・皆が理数・AIxデータ素養を所持
・社内外の専門家と共同で活用
・ミドル層は資本、人脈で貢献
・リアル空間も含め全てがデータ化、リアルタイム活用
・強調領域では、個別領域のAI機能、API提供、共通PF化
・競争領域ではm独自機能のAI開発、サービス化
レベル4・AIxデータを理解し事業活用する人材を経営層に配置
・AI-Readyになるまで投資継続
・AIxデータ活用の技術開発、研究両面で最先端テーマの取り組み開始・過半が高いAIリテラシーを所持
・データ・倫理課題を整理・遵守
・AIxデータによる業務刷新が推進
・業務システムと分析システムがシームレスに連携
・大半の業務データがリアルタイムに近い形で分析可能
レベル3・経営戦略にAI活用を組込み
・AIへの投資をコミットメント
・幹部社員へのAI教育を実施
・相当数のAI分析・実装要員を持つ
・独自のAI開発・事業展開が可能
・実務へのAI活用が徹底
・そのための手順やルーツも整備
・社員へのAI教育を開始
・業務フロー、事業モデルがデータ化
・業務系にくわえ分析系のデータ基盤も整備開始
・領域特性に応じてAI化、RPA適用等を使い分け
レベル2・AIの可能性を理解し方向性を発信
・具体的な戦略は未着手
・データ・倫理課題は未整理
・小数がAIxデータを理解
・外部と協力し、既存技術を適用
・一部のAI基礎を理解
・AIxデータ素養を持つ社員も存在
・AI人材の採用を開始
・一部業務でAI機能の本格運用を実施
・一部データが分析。活用可能な形で取得可能に
・顧客行動、環境、リアル空間のデータ化は未着手
レベル1・AIへの理解がない
・AIが業界や自社の企業経営に与える影響の認識も不十分
・システムは外部委託中心
・It部門はIT企業とのつなぎ役
・経験、勘、属人的対応が中心
・課題も人員、工数をかけて対応
・理文分離、文系中心の採用
・レガシーシステムが肥大化
・データの収集、取り出し、統合に年単位の時間が必要
・データの意味や示唆の理解も不十分