カテゴリー: 未分類
「なぜ日本は労働生産性が低いのか?」をパレート論から考えてみた
労働生産性については、労働者個々の話と日本全体的な話を区別しないと議論が噛み合わない。
個々の一般論としては、労働生産性が高い労働者には高賃金を払うべきであると考えるし、企業としては労働生産性が高い従業員だけを雇用したい、と考えるのが普通であろう。ここでは全体的な話を考えてみたいと思う。
日本で実施されている新卒一括採用では最初から、労働生産性が高いか否かはわからない。本人にとっても業務への適正は不明である。したがって、従来は、企業は教育コストと期間をかけて新卒採用者を育成した。でも、確率的に何割かは向いていない業務に配属せざるを得ない状況が発生することがあった。結果として、全体的な労働生産性は最大化されないという状況になる。
さらに、経済学では良く知られる理論として、パレート理論がある。パレート理論の概要を紹介すると以下のようになる。
・イタリアの経済学者ヴィルフレド・パレートが提唱
・所得の分布について「社会全体の富の8割は上位2割の高額所得者に集中し、残りの2割が8割の低所得者に分配される」という理論
・さまざまな方向に拡大解釈され、たとえば「企業の売上げのうち8割は優秀な上位2割の社員によってもたらされる」などと考えられるようになった。
パレート理論に従えば、労働生産性も2割の社員が8割を実行し、それ以外の8割の社員が残りの2割を実行するということになり、結果として、全体の平均としては労働生産性はベストに比較すれば低い状況になる。よって、製品・サービスのコストは高くなり、利益は圧縮されるため、労働生産性が高い社員の賃金は抑えられ、低い社員の賃金は若干高めになる。
日本の場合、労働法として解雇は容易ではないため、労働生産性をベストにする手段は従業員個々の能力向上または、社内人事異動に限られる。つまり、海外に比較すれば自分に向いた業務や組織を探すことを企業がから提示する選択肢は限られており、自分で一歩を踏み出すしかない。その状況で企業が製品・サービスが価格競争にさらされた場合、製造コストと利益を下げざるを得なくなる。結果、コスト低減は下請け企業への価格転嫁、利益低減は従業員の賃金削減によって実現される。
下請け企業は、価格転嫁されることでより厳しくなるため、正規雇用から非正規雇用の採用に切り替えることでコストの圧縮を図る、結果、労働生産性が低いことによって、労働環境や賃金は悪化してきた。
海外では新卒一括採用についてはあまり見られないが、パレート法則は人種に問わず有効らしいので、日本と同様に海外でも労働生産性は低くなると考えられる。しかし、海外では、労働力は流動性があるため、その業務に対して向いてなく労働生産性が低い従業員は転職するか、解雇される。その従業員は
1.自分に向いている職業または企業を探す
2.自己研鑽で能力向上する
のどちらかを選択する。企業側は求める労働生産性をもつ新たな従業員を採用することで会社としての労働生産性を高め、より競争力を向上させ、コストを削減し、高い賃金で従業員に応えるようになっていると考えられる。
しかし、パレート法則が興味深いのは、どんな人員構成でも普遍性があるということである、つまり、優秀な人材を集めても、ある期間を経ると2:8の法則が成り立つということである。これは、個々の人間の能力が優秀か劣っているかの問題ではなく、人間という生物が本能的にもつ性質なのであろうか?したがって、海外では常に全体的な労働生産性を高く維持するために活発な解雇と採用を繰り返しているのだと考える。さらに興味深いのは、解雇された人間は、再雇用先でも8割に入るかというと、逆に2割に入ることも珍しくないということである。これらのことから考えると、ある組織で労働生産性が低い従業員は能力が低いということではなく、その組織や業務と相性が良くないだけであり、相性が良い組織と業務と出会うことで高い労働生産性を発揮することが可能ということである。
現在、日本でも、徐々にではあるが転職意欲の高まりによって労働者の流動性が高くなりつつある。結果として、個々の労働者が意欲的に取り組むことができる組織、業務につくことで全体として労働生産性が向上されていくことを期待している。
現在、政策論争で、企業の「解雇権」や「労働者を守れ!!」といった論争があがっているが、パレート理論から考えれば、その企業では8割側に入っていて将来的な賃金アップが期待できない従業員も、組織や業務が異なれば2割側に入り能力が発揮でき賃金アップが望める可能性があるのだから、労使双方のメリットのためにもっと流動性を高めても良いのではないかと考える。もちろん、身体的や精神的な問題もあるのでセーフティーネットの充実も合わせて必要とは考えるが。。。。。
将来の職業選択肢を広げるための小学生向けオンラインプログラミングスクール ミライ・Codeはこちら(https://www.mirai-code.com/)
AI半導体におけるNVIDIAの強み
AIエンジニアの間ではGPUの製造メーカーとして良く知られているNVIDIAであるが、投資家の間では、四半期ごとに発表される業績が注目されており、NVIDIAの業績によって米国の株式市場の株価の傾向だけでなく、日本をはじめとする世界中の株価の傾向を左右する状態になっている。
今でこそ、GPUといえばNVIDIA、NDIVAといえばGPUというように、AIに利用されるGPUの代表的なサプライヤーになっているが、私がデータセンター事業会社で執行役員をしていた10年前はNVIDIAのGPUはオンラインゲームで利用されるコンピュータ向けのデバイスとして認識されていた。ディープラーニングの研究目的で、当時でそれなりにハイスペックのGPUを搭載したタワー型PCを1台だけ自作コンピュータ販売会社にネットで注文したところ、先方の法人営業担当から直接会いたいという連絡があり、面談することになった。今思えば、当時はガチャを中心としたスマホゲームが伸び盛りだったためデータセンター事業会社がGPUを購入するということは何かゲームビジネスのネタがあり、もっと大量発注が控えているかもしれないという想像をしていたのかもしれない。面談では営業担当だけでなく部長クラスの方も同席されており、一通りのアイスブレイクの会話の後、GPUの利用目的を質問された。私は「ディープラーニングの学習で使うので」と回答した。しかし、先方は怪訝な顔をされ、「社内教育向けですか・・・」と言われたので、「そっか、これはきちんと説明をしないと理解してもらえないと考え、20分ぐらいかけて、人工知能の概要と、当時の技術トレンド、なぜディープラーニングが注目されているのか、なぜGPUが必要なのかというのを簡単に説明した。反応は、「そうなんですね、いやーそんなものにGPUが使われるとは全然知りませんでした。その分野の研究機関への販売の可能性についても検討していきます。」と言われていたのを記憶している。その後、2016年になるとAI向けサーバDGX-1がNVIDIAから発売され、さらにハードウェアだけではなく、AIに関するソフトウェアを数多く無料提供することでNVIDIAは2014年ごろから始まるAIブームを牽引していくことになっている。
AMDやIntelなど別メーカーからもGPUが販売されているが、なぜAI利用となるとNVIDIAが選ばれるのか?というと、それはCUDA(Compute Unified Device Architecture)という汎用並列コンピューティングプラットフォーム(並列コンピューティングアーキテクチャ)およびプログラミングモデルが存在するからである。簡単にいうとCUDAはアプリケーションから簡単にGPUを使うためのツールである。現在のAI/機械学習に関する研究開発環境はarXiv,githubに公開された研究結果、プログラムを参照して追加、改善するというサイクルになっているため、基本的にそれらが動作する環境に依存する。したがって、元々の環境がCUDAでGPUを使う環境であれば、その環境を求めるという流れである。学習効率を上げるには、CUDAが使えれば高性能なGPUに変えるだけでAIアプリケーションとしてはそのままでなにもせず対応できるためAIエンジニアとしてはNVIDIAのGPU一択となっている。
ビジネスとして他のメーカーのGPUを選択する際のネックになるのが、既存のAIアプリケーションを動作させるためのCUDA互換性の有無である。昨今のネット記事にあるようにAIアプリでのデータセンター利用増加により電力利用増加が予測されるため、省電力化というのが課題になるのだが、NVIDIAよりも省電力な環境を採用したとしてもその上で動作するアプリケーションがない、もしくは動作環境移行コストがかかるのは魅力的に見えないというのが問題である。
このたぐいで似たような話は以前からあり、PCのOSでWindowsを利用するよりもLinux系のOSを利用した方がコスト的にもセキュリティ的にも安価で済むが、Office製品やその他業務系アプリで多くの人が慣れているアプリがLinux系OSでは使えないためいまだにWindowsのシェアが大きいという例が代表的なものである。
この状況を変えていくには、Googleがクラウドで提供しているAI開発環境 ColaboratryでTensorFLow+TPU(Tensor Processing Unit)を使えばCUDAは必要なくなるというように、NVIDIA以外のAI半導体会社もしくは、そこと協業する会社がソフトウェア開発ルーツに投資をしっかりしてCUDA依存しないAIアプリケーションを開発する必要がある。もしくは、CUDA互換がある開発ツールを提供することで現状のNVIDIA優位な状況を変えることは可能かと考える。
JAXAのプログラミング教材(ロケット編)
先日の記事で、NASAのJPL(ジェット推進研究所)がSTEM教育向け教材を提供していることを書いたが、日本のJAXAでも宇宙教育センターが作成した子供向けのプログラミング教材を公開している。宇宙教育センターは、プログラミング教材以外にも子供向けに科学が身近に感じられる教材を多数公開している。
プログラミング教材は、小学校でのプログラミング教育の開始に伴い2020年に作成され、ロケット編、はやぶさ2編、人工衛星編、地球観測編、HTV-X編の5つが公開されている。
https://edu.jaxa.jp/materialDB/contents/search/result.html#/kw=%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%9F%E3%83%B3%E3%82%B0
ロケット編の説明資料は、
1.JAXAについて
2.ロケットについて
3.Scratchでロケット打上げゲームを作ろう!
で構成されている。
ロケットについては、ロケットの役割と、ロケットとプログラムの関係が簡単に説明されている。もう少し説明した方が、次のゲームの流れが理解できて良いと感じるが、そのあたりについては教師に任されているようである。
ロケット打ち上げゲームについては、地球からロケットが打ち上げられ、ロケットの第一段を切り離す高度、第二段を切り離す高度、フェアリングを切り離す高度でプレイヤーがタイミングを合わせてキー操作をすると、切り離しが成功し、最終的に背景が地球全体に切り替わり人工衛星が周回軌道を回り続けるという流れで進むものである。キー操作のタイミングが合わないと、人工衛星は周回軌道に投入されずに画面に「失敗」の文字が表示される。
プログラムについては配布されたScratch向けプログラムファイルをScratchで読み込むことで開始できるようになっている。ロケットゲーム用のオリジナルのロケットスプライトや人工衛星スプライト、地球背景が含まれており、ブロックを組み合わせるだけでプログラムを作成することができる。基本的に資料に沿ってブロックを配置していけばゲームができるように資料は作成されているが、なぜそうするか?などの細部の解説はなく授業の自由度が高いため教師が補足説明する必要があると考える。
学習指導案をみると、ロケット打ち上げについて学習しようという教材にしては説明が少し物足りない。また、ロケット打ち上げを題材としたゲームをプログラミングしようというには生徒に考えさせる場面が少ないと考える。
実際にこの教材をつかってゲームを作成させるには、最初にゲームの内容を伝え、そのために必要なスプライトの動作のフローや操作入力によるスプライトの反応を考えるといった、全体の流れを論理的に考えさせべきかと考える。その後、その論理を実現するための細部の実装を考えさせたほうが、子供にとってもScratchのブロックの配置についてよく理解できるのではないかと考える。
小学生向けオンラインプログラミングスクール ミライ・Codeはこちら(https://www.mirai-code.com/)
NASAが提供するSTEM教育
以前、有料動画配信サイトで「人工衛星を制御せよ! 〜“宇宙キッズ”のひと夏〜」というNHK-BSで放送された世界のドキュメンタリー番組を視聴した(現在は配信されていないようである、残念!!)。それはとても興味深い内容であった。原題:Zero Gravity(アメリカ 2021年)という3年前にアメリカで制作されたドキュメンタリーである。以下にそのあらすじを紹介する。(以前の記憶で記載するので細部の違いについてはご容赦ねがいます)
あらすじ————–毎年夏にNASA JPL(ジェット推進研究所)とMITが子ども向けにワークショップを実施している。それは、全米から数千人が参加し、5週間かけてコンピュータープログラミング、ロボットや宇宙のことを学んだ上で人工衛星を制御するプログラムを作成するものである。このドキュメンタリーの題材となっているプログラムは、ある条件下で目的を達成したことで得られる合計得点を競い合う1対1の対戦型ゲームの戦略を自動実行する人工衛星の制御プログラムである。ゲームに関するプログラミングはScratchで作成できるように拡張されている。ゲーム上で人工衛星はプログラムにしたがって自動で制御されるため、ゲームの勝敗はどういう場面でどう動かすかという事前に立案する戦略に依存する。
参加者は小学校単位で参加グループが構成されワークショップに参加する。プログラムは提出期限までに作成され、提出後の変更は不可能である。その後、作成されたプログラムによって各州でトーナメント方式で対戦が行われて各州の代表チームが選抜される。各州の代表チーム選抜後はNASA JPLに集まり州代表対抗のトーナメントが実施される。各州のトーナメントでは人工衛星や宇宙空間などのゲーム環境はコンピュータ・シミュレーション上で実現されるが、最後のJPLでのステージではゲームの舞台は宇宙空間にあるISS(国際宇宙ステーション)内部で現実のマイクロ衛星を制御して対戦が行われる。
プログラム作成にはメンターとして、事前にJPLでセミナーを受講した小学校の教師が参加する。教師はあくまでもメンターとしての参加であり、戦略立案は生徒が話し合って決めていく。このドキュメンタリーでは、JPLの地元であるカルフォルニア州のある小学校を舞台に、メンターである先生がJPLのセミナーを受講しグループメンバーを募集するところから始まる。7,8名で構成されるグループメンバーから3名の小学生にスポットを当て、その小学生の家庭環境、将来の夢、このワークショップに参加したことによって将来へのモチベーションがどう変化したか等を中心にインタビュー形式で取材していく。スポットがあてられた生徒たちは、家庭が裕福であるとか、両親が教育に熱心であるとか、高学歴であるとかではなく、移民系であったりなどむしろアメリカの多様性がある社会を反映した家庭環境である。生徒自身も特に宇宙やプログラミングに興味を持っているというわけでもなく、生物学や経済に興味を持っていて、勉強も遊びも普通の子どもたちと同じように楽しんでいる。そんな生徒たちが、5週間のワークショップに参加し、先生の指導を受けながらプログラムを開発し、最終ステージでは宇宙飛行士が見守る中、目的を達成する早さと精度を競う。参加した3人の子どもを追い、自らの可能性に目覚めて更なるチャレンジに意欲を燃やす姿を描くというストーリーである。———————————-
NASAのJPLというのは、主に惑星探査を中心に研究をしている研究所であり、日本のJAXAでいえば相模原の研究所に相当する。こちらは毎年、小学生向けでなく中学生、高校生、大学生向に様々なSTEM教育の教材を公開・提供している。近年ではJAXAも小学生のプログラミング教育向けに宇宙を題材としたSTEM教育教材を公開しており。このような教材がもっと広まって今以上に科学に興味を持つ生徒たちが増えていけば良いと考えている。このブログでもそのような教材を紹介することで、そのような動きを促進することに協力していきたい。
小学生向けオンラインプログラミングスクール ミライ・Codeはこちら(https://www.mirai-code.com/)
ミライ・Codeの背景と目的
このたび、当社マーズスピリットでは小学生向けのオンラインプログラミング教育サービス「ミライ・Code」の提供を開始します。そのサービスを企画した背景と目的を御覧ください。
ミライ・Codeのコンテンツ作成やQ&Aなどには生成AIを活用し効率化を図っております。それらの技術的な情報もこちらのブログで公開していきます。
Webデザイナーに求められる必須スキル
Webデザイナーとして成功するためには、以下の必須スキルを身につけることが重要です。
- ビジュアルデザイン: 良いデザインの基本原則や色彩理論、タイポグラフィ、レイアウトなどの要素を理解し、ユーザーに魅力的で使いやすいデザインを提供する能力。
- UX/UIデザイン: ユーザーエクスペリエンス(UX)とユーザーインターフェース(UI)デザインの基本を理解し、ユーザーのニーズに応えた使いやすいウェブサイトやアプリを設計できる能力。
- レスポンシブデザイン: さまざまなデバイスや画面サイズに適応するデザインを作成し、ウェブサイトやアプリのアクセシビリティを向上させる能力。
- HTML/CSS: ウェブページの構造を作成するためのHTML(HyperText Markup Language)と、スタイルやレイアウトを適用するためのCSS(Cascading Style Sheets)の基本を理解すること。
- JavaScript: ウェブページのインタラクティブ性を向上させるために、JavaScriptを使用したプログラミングの基本を習得すること。
- コーディングツール: エディターやバージョン管理システム(Gitなど)を使いこなす能力。
- SEO: サイトの検索エンジン最適化(SEO)を行い、ウェブページが検索エンジンで上位に表示されるようにデザインする知識とスキル。
- コミュニケーションスキル: クライアントやチームメンバーと効果的にコミュニケーションし、プロジェクトの目標を達成する能力。
- タイムマネジメント: 複数のプロジェクトやタスクを効率的に管理し、期限内に成果を出す能力。
- 学習意欲: ウェブデザインや開発の技術は日々進化しているため、新しい技術やトレンドをキャッチアップし、スキルを継続的に向上させる意欲が求められます。
これらのスキルを身につけることで、Webデザイナーとしての競争力を高め、クライアントやユーザーに価値ある( By ChatGPT(GPT-4))
AI-Ready化ガイドライン
レベル5 AI−Powered企業として確立・影響力発揮
すべての事業、機能がAIxデータ化し、ぎょうかいそのものの本質的な刷新(disruption)を常時仕掛け、変容を引き起こしている。国内外の競合に対抗し得るレベルでAI-Ready化に向けリソースを投下できている。新しい試みがあらゆるところから雨後の筍のように日々生まれており、常に世界の最先端をリードし注目されている。
レベル4 AI-Ready化からAI−Powered化へ展開
AIxデータの力を解き放つことで、コア事業においてこれまで不可能だった夢や課題解決を実現している。未来を信じ、AI-Readyになるまでリソースを一過性でなく投下し続けている。
レベル3AI-Ready化を進行:中〜大規模なインターネット企業の多く
既存の業務の機械化にはめどがつき、今後の成長と事業刷新のための重要なレバーとしてAIxデータの利活用を開始。これに向け、まとまったリソースの再配分が行われている。
レベル2 AI-Ready化の初期段階:先端的な大企業/初期のネット系スタートアップ
外部の専門家の力を借りてAIxデータの利活用に着手しているが、取り組みは既存の人間の仕事(業務)を機会に置き換えることが大半。
レベル1 AI-Ready化着手前
製造、物流、販売など基本業務のためのシステム運用とデータマネージメントは行っているいるが、SIerだのみでAIxデータを使った事業の運営、刷新、創造については着手していない。
経営・マネージメント層 | 専門家 | 従業員 | システムレベル・データ | |
レベル5 | ・AIxデータを理解するCxOが全社、業界刷新の中心を担う ・業界全体、他社との連携を推進 | ・全技術者が領域x AI知識を持つ ・AIxデータ活用の技術および研究両面の最先端の人材、経験を持つ | ・皆が理数・AIxデータ素養を所持 ・社内外の専門家と共同で活用 ・ミドル層は資本、人脈で貢献 | ・リアル空間も含め全てがデータ化、リアルタイム活用 ・強調領域では、個別領域のAI機能、API提供、共通PF化 ・競争領域ではm独自機能のAI開発、サービス化 |
レベル4 | ・AIxデータを理解し事業活用する人材を経営層に配置 ・AI-Readyになるまで投資継続 | ・AIxデータ活用の技術開発、研究両面で最先端テーマの取り組み開始 | ・過半が高いAIリテラシーを所持 ・データ・倫理課題を整理・遵守 ・AIxデータによる業務刷新が推進 | ・業務システムと分析システムがシームレスに連携 ・大半の業務データがリアルタイムに近い形で分析可能 |
レベル3 | ・経営戦略にAI活用を組込み ・AIへの投資をコミットメント ・幹部社員へのAI教育を実施 | ・相当数のAI分析・実装要員を持つ ・独自のAI開発・事業展開が可能 | ・実務へのAI活用が徹底 ・そのための手順やルーツも整備 ・社員へのAI教育を開始 | ・業務フロー、事業モデルがデータ化 ・業務系にくわえ分析系のデータ基盤も整備開始 ・領域特性に応じてAI化、RPA適用等を使い分け |
レベル2 | ・AIの可能性を理解し方向性を発信 ・具体的な戦略は未着手 ・データ・倫理課題は未整理 | ・小数がAIxデータを理解 ・外部と協力し、既存技術を適用 | ・一部のAI基礎を理解 ・AIxデータ素養を持つ社員も存在 ・AI人材の採用を開始 | ・一部業務でAI機能の本格運用を実施 ・一部データが分析。活用可能な形で取得可能に ・顧客行動、環境、リアル空間のデータ化は未着手 |
レベル1 | ・AIへの理解がない ・AIが業界や自社の企業経営に与える影響の認識も不十分 | ・システムは外部委託中心 ・It部門はIT企業とのつなぎ役 | ・経験、勘、属人的対応が中心 ・課題も人員、工数をかけて対応 ・理文分離、文系中心の採用 | ・レガシーシステムが肥大化 ・データの収集、取り出し、統合に年単位の時間が必要 ・データの意味や示唆の理解も不十分 |
メモ:Excel便利なショートカット
ショートカット | 操作内容 | 備考 |
Ctrl+D | 上のセルと同じ内容を入力 | macではCtrlキーはcommandキー |
Ctrl+R | 左のセルと同じ内容を入力 | macではCtrlキーはcommandキー |
Alt+↓ | 列に入力済の内容をリストで表示 | macではAltキーはoptionキー |
Tab | 右のセルに移動 | |
Alt+Shift+= | sum関数式を挿入 | MacではCommand+Shift+T |
Ctrl+; | 今日の日付を入力 | macではCtrlキーはcommandキー |
Ctrl+: | 現在の時刻を入力 | macではCtrlキーはcommandキー |
Ctrl+Shift+1 | 数値に桁区切りを適用 | macではCtrlキーはcommandキー |
Ctrl+1 | セルの書式設定を開く | macではCtrlキーはcommandキー |
Ctrl+Alt+V | 形式を選択して貼り付け | macではAltキーはoptionキー |
F2 | セルを編集状態にする | macではCtrl+U |
Ctrl+Shift+→ | 表の右端まで選択 | macではCtrlキーはcommandキー |
Ctrl+Shift+↓ | 表の末尾行まで選択 | macではCtrlキーはcommandキー |
Shift+Space | 行を選択 | |
Ctrl+Space | 列を選択 | |
Shift+drag | 行やセルを別の場所に挿入 | |
Ctrl+ – | 行やセルを削除 | |
Ctrl+ + | 行やセルを追加 | |
Ctrl+ End | 表の最後のセルに移動 | |
Ctrl+→ | 表の右端に移動 | |
Ctrl+Home | A1セルに戻る | |
Ctrl+↓ | 表の末尾行に移動 | |
Ctrl+E | 法則性がある連続データを自動補完入力 |
メモ:Stable Baseline3 PPO 出力内容
出力項目 | 数値例 | 内容 |
approxkl | 0.00013371343 | 新しい方策から古い方策へのKullback-Leibler divergence |
clipfrac | 0.0 | クリップ範囲ハイパーパラメータが使用される回数の割合 |
explained_variance | -0.0241 | 誤差の分散 |
fps | 405 | 1秒あたりのフレーム数 |
n_updates | 1 | 更新回数 |
policy_entropy | 1.3861077 | 方策のエントロピー |
policy_loss | -0.00052567874 | 方策の損失 |
serial_timesteps | 128 | 1つの環境でのタイプステップ数 |
time_elapsed | 0 | 経過時間 |
total_timesteps | 128 | 全環境でのタイムステップ数 |
value_loss | 111.95057 | 価値関数更新時の平均損失 |