メモ:Excel便利なショートカット

ショートカット操作内容備考
Ctrl+D上のセルと同じ内容を入力macではCtrlキーはcommandキー
Ctrl+R左のセルと同じ内容を入力macではCtrlキーはcommandキー
Alt+↓列に入力済の内容をリストで表示macではAltキーはoptionキー
Tab右のセルに移動
Alt+Shift+=sum関数式を挿入MacではCommand+Shift+T
Ctrl+;今日の日付を入力macではCtrlキーはcommandキー
Ctrl+:現在の時刻を入力macではCtrlキーはcommandキー
Ctrl+Shift+1数値に桁区切りを適用macではCtrlキーはcommandキー
Ctrl+1セルの書式設定を開くmacではCtrlキーはcommandキー
Ctrl+Alt+V形式を選択して貼り付けmacではAltキーはoptionキー
F2セルを編集状態にするmacではCtrl+U
Ctrl+Shift+→表の右端まで選択macではCtrlキーはcommandキー
Ctrl+Shift+↓表の末尾行まで選択macではCtrlキーはcommandキー
Shift+Space行を選択
Ctrl+Space列を選択
Shift+drag行やセルを別の場所に挿入
Ctrl+ –行やセルを削除
Ctrl+ +行やセルを追加
Ctrl+ End表の最後のセルに移動
Ctrl+→表の右端に移動
Ctrl+HomeA1セルに戻る
Ctrl+↓表の末尾行に移動
Ctrl+E法則性がある連続データを自動補完入力

メモ:Stable Baseline3 PPO 出力内容

出力項目数値例内容
approxkl 0.00013371343新しい方策から古い方策へのKullback-Leibler divergence
clipfrac0.0クリップ範囲ハイパーパラメータが使用される回数の割合
explained_variance-0.0241誤差の分散
fps4051秒あたりのフレーム数
n_updates1更新回数
policy_entropy1.3861077方策のエントロピー
policy_loss-0.00052567874方策の損失
serial_timesteps128 1つの環境でのタイプステップ数
time_elapsed0経過時間
total_timesteps128全環境でのタイムステップ数
value_loss111.95057価値関数更新時の平均損失

AWS Rekognition Custom LabelとAzure Custom Visionの料金体系の特徴

深層学習の精度向上にともない、Google Cloud,AWS,Azureなどクラウドで提供されている画像認識サービスの活用が広がってきている。クラウドの画像認識サービスは、提供されている学習モデルによる画像認識であるため、学習データの収集・ラベリング、学習・評価などの利用開始までの手間が一切かからない。また、料金もリクエスト単位の従量課金であるためコスト面においても利用開始のハードルが低いと言える。

しかし、認識対象は世界共通の物体であったり、分類の粒度が大まかであったり、分類名であるラベルが日本語に対応していなかったりなどユーザのニーズに適合していない場合がある。そうした個別ユーザニーズに対応するために、各クラウドでは画像認識モデルのCustomサービスを提供している。AWSではRekognition Custom Labelであり、AuzreではCustom Visionと呼ぶサービスである。

どちらもユーザが独自に訓練用画像データを収集・ラベリングしたデータセットを用いて、サービス上で学習・評価を実施することで独自の分類や物体認識を実現する学習モデルを構築し、API経由で学習モデルを利用し画像認識することが可能となるサービスである。それらの精度については別途記述するが大きな差はなく、十分な訓練データ量を準備すれば高精度の画像認識モデルを得ることが可能である。

2つのサービスの大きな違いは料金体系の違いにある。簡単にいうと、Azure Custom Visionは通常の画像認識サービスと同様にトランザクション単位の従量課金であるのに対し、AWS Rekognition Custom LabelはEC2インスタンスと同様にカスタムモデル起動時間単位であるというのが違いである。

Azure Custom Visionの料金体系は(https://azure.microsoft.com/ja-jp/pricing/details/cognitive-services/custom-vision-service/)によれば以下の表のようになっている。予測(認識)は1トランザクションあたり¥0.229となっている。また、時間単位で考えると、10TPSのトランザクションが連続する場合を仮定すると1時間あたり¥8,244、1日あたり¥197,856、1ヶ月あたり¥5,935,680となる。

インスタンス1 秒あたりのトランザクション数 (TPS)機能料金
無料2 TPSアップロード、トレーニング、予測のトランザクション
最大 2 個のプロジェクト
1 か月あたり最大 1 時間のトレーニング
5,000 枚のトレーニング画像は無料 (プロジェクトあたり)
1 か月あたり 10,000 回の予測
Standard10 TPS予測トランザクション
最大 100 個のプロジェクト
¥229.870/1,000 トランザクション
Standard10 TPSトレーニングコンピューティング時間あたり ¥1,149.350
Standard10 TPS画像ストレージ
それぞれ最大 6 MB
1,000 枚の画像あたり ¥80.455
価格オプションの詳細

AWS Rekognition Custom Labelの料金体系は(https://aws.amazon.com/jp/rekognition/pricing/)によれば以下の表のようになっている。つまり、2022年1月5日現在の為替相場に沿って1ドル115円と想定すると、推論は1時間¥460となり、1日あたり¥11,040、1ヶ月あたり¥331,200となる。

特徴料金
推論4.00USD/時間
トレーニング1.37USD/時間

単純な比較では、PoCまたはアプリのベータ版リリースや初期立ち上げ時のようにリクエストが頻繁でない場合は、アイドリングタイムが発生するためAWSよりはAzureの方がコストがかからず利用しやすいと言える。しかし、リクエストが高頻度または連続する場合は、AWSの方がコストかからないように見える。

ここで詳細に比較するにはAWSの性能を考える必要がある。AWSのサイトをみると、”1 日あたり 440,000 枚の画像の規模では、ニーズを満たすために少なくとも 2 個の推論リソースを並行して実行する必要があります。”という記述があり、”44 時間 / 日 x 4 USD / 時間 = 180.00 USD / 日”となっているので、AWS Rekognition Custom Labelの推論能力を2.7TPSと想定する。つまり、Azure Custom Visionの推論性能は(最大時で)AWS Rekognition Custom Labelの約4倍近い。そのため、AWS Rekognition Custom Labelで同等の性能を得るには4個の推論リソースを並行実行する必要があるが、それでもコストはAzure Custom Visionの1/4以下である。

よって、2つのクラウドの使い分けは以下の通りと考えられる。もちろん、一般的に言われるように継続的に利用する場合、クラウドよりもオンプレミスの方がコストが低減できる場合もある。(その場合は、画像認識モデルを自前で構築する必要があるので、弊社でも対応可能)

  • リクエスト頻度が2,3TPS程度であればAzure Custom Vision利用の方がリーズナブル
  • リクエスト頻度が3TP以上であればAWS Rekognition Custom Label利用の方がリーズナブル

プログラミングスクールによるリスキリング

 最近、リスキリング(Re-skilling)という言葉がネット上で見る機会が増えてきた。リスキリングとは、経済産業省の審議会の資料によれば「新たにスキルを身につけること」と定義されている。HRペディアによれば「職業能力の再開発、再教育」とされている。現在注目されている背景と目的は経済産業省の審議会でリクルートワークス研究所 人事研究センター長 石原直子氏が発表した資料に、「新しい職業に就くために、あるいは、今の職業で必要とされるスキルの大幅な変化に適応するために、必要なスキルを獲得する/させること」と表現されている。

 AI/IoTに代表されるデジタルテクノロジーを活用したDX(デジタルトランスフォーメーション)が注目されていることや、政府が掲げている成長戦略の一つとしても注目されている。(日本経済新聞「成長シフトへ再教育 政府、制度拡充で30万人支援」

 そのような動きの中で、「リスキリング=プログラミングだ!!」のような反射神経を刺激するかのように、巷では社会人向けのプログラミングスクールが盛んになっていると聞く。しかも、著名なYouTuberも、「プログラミングは将来のために身につけておいた方がいいですよ。」とか言っているためか、ニーズは高いようである。

 実はプログラミングといっても幅が広い。Webやアプリのフロントエンドの用途とバックエンドの用途では細部が異なる。また、教育のゴールも様々である。小学生のようにプログラムの論理的な思考を身につけるのもプログラミング教育であるし、用途に応じたプログラミング言語の使い方を身につけることや、プログラミングを効率化するフレームワークの使い方を身につけるのもプログラミング教育である。

 「リスキリング」時代前まではプログラミング教育というと主に大学や、専門学校での教育がメインであった。しかし、大学の情報関係の学部・学科やソフトウェア系の専門学校以外の場合、あくまでカリキュラムの一つとして半年または1年間の講座としてコンピュータやソフトウェアに関する基礎や現状の知識をさらっと教えているだけであり、研究室等で本格的にプログラミング技術を利用、獲得している学生は少数派であると考える。

 以前、所属していた企業の新卒採用面接で面接官としてプログラミング経験の有無について質問をしていたが、経験があると回答した学生のほとんどが「授業でサWebサイトを構築した際にプログラミングをした」という回答をしていた。さらに授業以外でプログラミングした経験の有無を質問をすると、ほとんどの学生は未経験であり、まれにサークルのメンバー管理サイトやスケジュール調整用サイトを構築したという回答がある状況であった。

 「リスキリング」時代のプログラミング教育はどのようになるのであろうか。文科省の方針によって小中学生時点でのプログラミング教育の充実や高校、大学でのデータサイエンスの拡大が図られるので初学者の幅は広がると予想する。現在の社会人の教育としては、書籍やネットを活用した独学、UdemyやCourseraなどのオンライン教材の活用、講師やメンターによるプログラミングスクールなどの方法が考えられる。1番目の独学はコストが最もかからないが初学者にとってはプログラミング環境構築だけでも一苦労であり、理解できない内容があった場合にどのように解決すれば良いかが判断がつかずハードルが高い。2番目のオンライン教材は、コストも安く講師が順序立てて動画で説明わかりやすく説明しているため1番目よりはハードルが低いが、プログラミング環境構築のハードルは残る。3番目のプログラミングスクールは、内容が理解できない場合に質問できる体制が準備されており受講者が困らないようになっているが、学費の相場感としては、HTML,CSSの3ヶ月教育であっても20万円〜70万円と非常に高額である。どの方法でも自分のベースにあった方法を選べば良いと考えるが、懸念点としては、どの方法も教育を受講するだけで企業にとっての即戦力となる人材になるというわけではないということである。特に、プログラミングスクールの中には「受講すると転職できます」(いくつかの規定があるらしいが・・)という内容を特徴にしているスクールもあるが、私は思い通りに転職できるか、転職後に活躍できるかは受講内容をいかに業務に活かすかという努力に懸かってると考える。

 私も一時期、プログラミングスクールにてpythonによるAI/機械学習入門のメンターとして従事していたことがあったが、その際に、受講生から、「この内容を受講終われば企業でAIエンジニアとして活躍できるんですよね」と言われて回答に困ったことがあった。講座自体は市販されている書籍にある機械学習で何ができるか紹介されている代表的・簡単なpythonのコード例を一通りpythonで動作させてみるというものであった。したがって、その講座を受講完了したからといって、企業側の開発現場の担当者としては「はい採用!!」とは言いにくいと常々思っていたからだ。ましてや、アルゴリズムもプログラムの基本的な内容も理解できておらず、単純に書籍の内容通りにコードを打ち込んだだけで動作しないと質問してくる受講生に直面した際には、ビジネスとはいえ、このプログラミング講座の受講を認めることは受講生本人にとってプラスになるのだろうか?と疑問を感じた。

 教育全般に言えることであるが、教育を受けたことによって全てがうまくいくわけではなく、それを応用し自らがスキルを高めるという努力を継続することが重要であると私は考えている。義務教育は、受けさせる、受けることに意味があったが、社会人になってからの「リスキリング」は「何のために」(目的・目標)、「どう活用したか(するか)」(目標評価)が大切である。

 結論としては、プログラミングに関するリスキリングに関する要は、受講者一人ひとりが自分の業務にてどのようにデジタルを活用するかということを考え、教育がその業務に活かす意識を持って教育に臨めるかということである。

利用可能性ヒューリスティック

人は「よく見かける」「インパクトが強い」「友人が使っている」のように記憶に強く残り、思い出しやすいものを、直感的に選んでしまう。このように、なじみがあるものを選択する意思決定プロセスを「利用可能性ヒューリスティック」と呼ぶ。

企業は消費者に近づくために、テレビCM、Webページ、SNSを活用するのもこの利用可能性ヒューリスティックを活用するためである。ブランドロゴやジングル(サウンドロゴ)の利用も利用可能性ヒューリスティックの活用である。

また、雑音の中で自分が興味がある内容だけが聞こえてくる「カクテルパーティ効果」も利用可能性ヒューリスティックによるものである。

コネクトームの最新動向

コネクトーム(connectome)とは、「生物の神経系内の各要素(ニューロン、ニューロン群、領野など)の間の詳細な接続状態を表した地図、つまり神経回路の地図のこと。つながる、接続するといった意味を持つ英語のコネクト(connect)という言葉と、「全体」を表す-オーム(-ome)という接尾語から作られた言葉。人間の神経回路地図全体のことを言うときは特にヒト・コネクトーム(Human connectome)と名付けられている」(wikipediaより)である。まだ解明されていない人間の脳を知るためには、コネクトームが必要であるという観点に立ち、日米欧で2010年代から大型の予算を投じて研究が進められている。

2021年11月20日の日本経済新聞の記事「脳の地図がみえた 神経細胞1000億、医療やAI進化」を以下に抜粋する。

10月7日付の英科学誌ネイチャーは脳科学の特集号になった。米国が13年に始めた脳科学の大型研究「ブレイン・イニシアチブ」でまとまった17本の論文を一挙に掲載したからだ。中心となった米国立衛生研究所(NIH)傘下の10研究機関を含め、45以上の研究機関の250人を超える研究者が関わった。

理化学研究所脳神経科学研究センターの糸原重美プロジェクトマネージャーは「優れた戦略に立った素晴らしい研究だ」と語る。

今回の論文が示した重要な点は、哺乳類の脳の「一次運動野」と呼ぶ部位のどこにどの神経細胞があるのかを明らかにしたことだ。いわば脳の地図を初めて作ったといえる。玉川大学脳科学研究所の松田哲也教授は「脳を知るには神経細胞の配線図が必要だ。地図の作製は配線を探る第一歩になる」と解説する。

脳にはおよそ1000億個の神経細胞がある。それぞれが複雑につながり、学習や記憶などを担う。神経細胞も特定のアミノ酸や金属イオンに反応する種類に分かれ、役割を分担している。地図は一部とはいえ、その様子を明確に示した。松田教授は「働いている遺伝子の状況まで追跡し、脳機能の解明に役立つ」と付け加える。

日本経済新聞より

運動野とは大脳皮質の中で運動のコントロールに関する神経細胞が集まっている領域であり、その中でも一次運動野は脊髄などの各部位に信号を送る器官にもっとも関係が深い領域である。

上記の表に示されているように、米国の予算規模は大きく、その結果としての研究成果につながっていると考えられる。欧州は計算機による脳の模擬実験で計画を始めたが、研究者間の連携に課題があり結果を出すに至っていない。予算額が米国の8分の1の日本は、統合失調症など精神・神経系の疾患を治す目標に注力し独自性を出そうとしている。

ヒューリスティックとシステマティック

 ヒューリスティックとは、人間の意思決定を手助けするように働く思考プロセスのことである。このプロセスによって自身の経験をもとに最適な手段を見つけ出すことが可能になる。ヒューリスティックの最大の特徴は判断の速さであり、深く考える必要のない場面で「直感」的に瞬時に答えを導き出す、その反面、瞬時に判断することによるデメリットもある。

 一方、情報を集めてじっくり、熟考する思考を「システマティック」という。人は場面ごとに「直感」と「熟考」を使い分けている。このように、人間が2つの思考タイプを使い分けるという理論を二重過程理論という。ヒューリスティックの特徴は以下の通りである

ヒューリスティックの特徴

  • 直感・即決
  • 高速
  • 努力を要さない
  • 経験的

システマティックの特徴

  • 熟考
  • 低速
  • 努力を要する
  • 合理的

瞬時に判断するには情報が多すぎる情報過多の状態で効率よく判断するにはヒューリスティックが多用される。ヒューリスティックを分類すると3つが代表的なものと分類される。

  • 利用可能性ヒューリスティック
    • なじみのあることはよく起こると判断されるケース
  • 代表性ヒューリスティック
    • 代表的な例が全体を反映していると勘違いするケース
  • 固着性ヒューリスティック
    • 自分の考え方や直前に見聞きしたものに固着することから勘違いするケース

自動運転アルゴリズムのオープンソース

最近、自動運転について投稿をしてきたが、最後に自動運転アルゴリズムのオープンソース化の流れについてまとめてみる。

自動運転という技術は、その対象である自動車がなくては実現不可能な技術であるため主な開発企業はToyotaやAudi,BMWなどの伝統的な自動車メーカーである。しかし、自動運転アルゴリズムは、人間の認知機能の代替手段であるため、自動車の動作原理や動的特性、制御機構とは切り離して考えることが可能である。したがって、Googleのような情報処理を取り扱う企業、Teslaのような電気自動車会社でも開発が可能である。自動車メーカーとは異なる組織によって開発された自動運転アルゴリズムの一部はオープンソースとしても公開されている。

Autoware(名古屋大,TierⅣ etc.)

  • AutowareはROSベースのオープンソースソフトウェア
  • 自動運転移動体をオープンシティエリアに展開することを可能するモジュールを提供
    • 位置特定 :GNSS  およびIMUセンサーを組み合わせた3Dマップ及び SLAMアルゴリズム  によって実現
    • 物体検出:センサーフュージョンアルゴリズム、ディープニューラルネットワーク(YoLo,SSDなど)を備えたカメラとLiDARを使用
    • 予測と計画: 確率論的ロボティクス とルールベースシステムに基づく(一部にディープラーニングを利用)
  • 車両への出力:車両制御系への入力となる速度と角速度(舵角)
  • Autowareは自動運転技術のための完全なソフトウェアスタックを提供

Apollo(Baidu etc.)

  • AutowareはROSベースのオープンソースソフトウェア(最新版はBaidu独自のCyber RTに移行)
  • Apolloは、パートナーが車載およびハードウェアプラットフォームを通じて独自の自律走行システムを開発するための、オープンで信頼性の高い安全なソフトウェアプラットフォームを提供
  • Apolloが提供するモジュール
    • 世界をリードするHD地図サービス
    • 唯一のオープン自律運転シミュレーションエンジン
    • End-to-Endディープラーニングアルゴリズム
  • Apolloは自律走行車の開発、テスト、そして展開を加速する。参加が増えるにつれて、より多くの蓄積データが利用可能
  • クローズドな研究開発系と比較してApolloはより早く進化し、プロジェクトメンバーにより大きな利益をもたらし、そして継続的に成長

NVIDIA® DriveWorks(NVIDIA)

  • Drive OS
    • DRIVE OS には、センサー入力処理のための NvMedia、効率的な並列コンピューティング実装のための NVIDIA CUDA® ライブラリ、リアルタイムに AI 推論を行うための NVIDIA TensorRT など、ハードウェア エンジンにアクセスするための開発者向けのツールやモジュールが含まれる
  • DriveWorks
    • 自動運転車開発に欠かせない、DRIVE OS 上で動作するミドルウェア機能を提供。DriveWorks には、センサー抽象化レイヤー (SAL) やセンサー プラグイン、データ レコーダー、車両 I/O のサポート、ディープ ニューラル ネットワーク (DNN) フレームワークが含まれる。DriveWorks はモジュラー型かつオープンで、自動車産業のソフトウェア規格に準拠するように設計されている。
  • Drive AV
    • DRIVE AV ソフトウェア スタックは、認知レイヤー、マッピング レイヤー、プランニング レイヤーのほか、高品位な実世界の運転データでトレーニングされたさまざまな DNN で構成されており、自動運転とマッピングのどちらにも活用可能。プランニングと制御のレイヤーでは、NVIDIA Safety Force Field 計算処理モジュールが、プライマリ プランニング システムのアクションをチェックし、車両を衝突から守る。
  • Drive IX
    • DRIVE IX は、車室内をセンシングするオープン ソフトウェア プラットフォームで、革新的な AI コクピット ソリューションを提供する。DRIVE IX は、先進のドライバーおよび搭乗者モニタリング、AR/VR ビジュアライゼーション、車両と搭乗者間の自然言語インタラクションを実現する機能や DNN を使用した、認知アプリケーションを提供する。

(現状の)自動運転を過信する人間

前回、自動車が完全自動運転になるまでに、段階が5段階設定されており、現在ではレベル2〜3の間であることを紹介した。つまり、現在では、運転者である人間は、完全に運転を自動運転システムに任せることは認められておらず、限定された場面以外では運転に介在する、または、限定された場面でも自動運転システムの動きを監視し、安全ではないと認識した場合は即時に介入できるように備える必要があることを示している。しかし、現実では、そうした条件を運転手が理解せず自動運転システムを過信して利用した結果、事故を回避することができないという不幸な事象が発生している。もちろん、運転総時間に比較すれば事故発生率は低いため、この事例をもって自動運転は危険だ、と主張する気は全くない。ここでは、完全自動運転システムが開発される前の段階ではシステムを過信することなく適切に利用する必要があるということを考えたい。

テスラ Model Sがトレーラー側面に衝突

 2016年5月7日、オートパイロットを作動させた「Model S」のドライバーが米フロリダ州の中央分離帯のあるハイウェイ(幹線道路)を運転中、前を横切った大型トレーラーの側面に衝突し、死亡した。現場は信号のない交差点で、トレーラーが対向車線から交差点を左折中、側面にModel Sが突っ込んだという。 テスラは当初、事故の原因として日差しの強さを挙げ、白いトレーラーが日光を反射したことでシステムもドライバーもトレーラーを認識できなかったとする見解を発表 ´国家運輸安全委員会(NTSB)の調査後の報告によると、ドライバーは事故当時「部分的な自動運転システム」を稼働していたが、ハンドルに手を添えていなければならない37分間のうち、わずか25秒間しか手で触っていなかったことが明らかになっている。システム側はドライバーに対し、ハンドルを握るよう警告を7回出していたという。 テスラはその後、2016年9月に警告にドライバーが反応しなかった場合は自動運転機能を使用不可にするなどの仕様変更を発表している。また、NTSBは車自体には欠陥がなかったと結論づけた。

テスラ Model Xが高速道路で衝撃緩和用バリアに衝突し炎上

 2018年3月23日、オートパイロットを作動させた「Model X」のドライバーが米西部カリフォルニア州の高速道路を運転中、中央分離帯に衝突・炎上し死亡した。 ´テスラの発表によると、事故は高速道路分岐点のコンクリート壁の前に置かれている衝撃緩和用バリアへの衝突で、衝突前の150メートルにわたり車線を外れて走行していたという。また、車線を外れていた約6秒の間、ドライバーはハンドルを握っていなかったとしている。 一方、死亡したドライバーの遺族は、過去に事故現場で何度もオートパイロットが車線を外れて中央分離帯の緩衝バリアへ向かって行きかけたことを主張し、オートパイロットの不具合を指摘している。 NTSBが同年6月に発表した予備調査結果によると、Model Xは衝突の18分55秒前にオートパイロットをオンにして、前走車両に追随して時速65マイル(約104キロ)で走行していた。衝突の15分前にはオートパイロットがハンドルを握るよう警告を発し、男性はそれに従ってハンドルを握っていた。その後もハンドル警告は3度発報され、その都度ドライバーはハンドルを握っていたという。 ´衝突の7秒前にオートパイロットがハンドルを左に切る動作を開始衝突4秒前には完全に前走車両の追随から外れたと認識したため、クルーズコントロールの設定上限速度に向けて加速し始めた。衝突の6秒前に再度ハンドル警告が発生しているが、その際にハンドルを握ったというデータは残っていなかったという。

ウーバーが自動運転中に歩行者と死亡事故

 アメリカのライドシェア最大手であるウーバーテクノロジーズ社の自動運転車が2018年3月18日、自転車を押しながら車道を渡っていた49歳の歩行者を時速約64キロではねて死亡させる事故をアリゾナ州で起こした。 ´事故は自動運転車が自動運転システムを稼働させていたときに発生した。当時は運転席には自動運転システムの稼働状況を監督する「人」も同乗していた。この事故を受け、ウーバーテクノロジーズ社は北米4都市の公道での走行試験を中断した(その後、2018年12月に実証実験を再開している)。 この死亡事故は、自動運転において世界で初めて歩行者を死亡させた事故 ´原因としては、センサーで検知した物体のうち、無視してOKなものとそうでないものをソフトウェアで判定する機能の判定基準が「無視してOK」寄りに、つまり、感度が低い設定になっていた。(高感度(安全サイド)になっていると急ブレーキが頻発し、乗り心地が悪いと判断した模様) モニターすべき運転手が事故発生直前に携帯電話でテレビ番組を視聴していたことなども明らかになっている。 ベースになっているボルボの緊急自動ブレーキシステムはオフにされていた。

自動停止」付きと勘違い 業務上過失傷害容疑で車販売店員ら書類送検 千葉県警

自動車販売店で新型車を体験試乗した男性客(38)が追突した事故。事故は、同乗したこの男性社員の「勘違い」が原因だった。男性客が運転支援機能を体験するため新型車を走行中、同乗の男性社員は「本来はブレーキを踏むのですが、我慢してください」などと指示。客はブレーキを踏まず、そのまま前に止まっていた車に追突し、追突された車に乗っていた男女2人にけがを負わせたとしている。男性社員は、事故を起こした新型車に前方の危険を検知して自動停止する最新の機能がついているとして男性客に指示。しかし、実際には自動停止する機能はなかった。男性社員は客に対し、勘違いして「時速40キロの設定速度で走行すると、前方の停止車両を検知して自動停止する」などと誤った解説をしていた。県警は、監督責任があるとして、男性社員の上司に当たる販売店の男性店長(46)も同容疑で書類送検。さらに、実際に運転していた男性客も自動車運転処罰法違反(過失運転致傷)の疑いで地検に書類送検した。

豪雨時の自動ブレーキは過信禁物、40km/hで衝突のおそれ JAF検証

JAF(日本自動車連盟)は、豪雨時の衝突被害軽減ブレーキ(自動ブレーキ)の作動について検証を行い、その結果を7月17日よりホームページに公開した。 テストは日本自動車研究所特異環境試験場(茨城県つくば市)で実施。天候は雨のない状況と、気象庁用語で「猛烈な雨」とされる雨量80mm/h、速度は30km/hと40km/hを設定し、自動ブレーキが適切に作動して、障害物との衝突を回避できるのかを検証。 雨が降っていない状況では、30km/h と40km/hのいずれの速度でも、障害物の手前で停止。 ´雨量80mm/hの場合、30km/hでは停止できたが、40km/hでは障害物を一瞬検知したものの、自動ブレーキが作動せず、障害物に衝突。JAFでは、車種、検知システム、雨量、速度などによって結果は異なると前置きした上で、自動ブレーキはドライバーのミスをカバーしたり、衝突時の被害を軽減するものだが、悪天候時は正常に作動しないこともあるので、機能を過信しないことが大切だと注意を呼びかけている。

自動運転の自動化のレベル定義

ここ最近、自動運転を支える技術について投稿しているが、今回は、自動運転を実現するまでの過程を明確にする、自動化のレベル定義について紹介する。この定義は、自動運転に関する情報サイトには掲載されており、一般的に引用されるので知っておきたいところだ。完全自動化に向けての過程は以下の5つのレベルに分けて定義されている。

現状の自動運転のレベルは、レベル2からレベル3への過渡期 となっているようである。日本ではレベル2以下の自動車は「自動運転機能」の表示ではなく「運転支援機能(ADAS)」と表示することでメーカーと国土交通省で合意があり、最近ではADASを搭載車の一部はサポカーと呼ばれている。

レベル3の定義をわかりやすく言うと、ある場面に限定しすべて自動で運転(加減速、操舵)できるが、運転手は自動運転の障害発生を監督し、障害があると思った場合または自動運転システムが運転手の介入を要請した場合、運転を交代する、程度の自動化である。もうじき販売されるホンダのレジェンドのレベル3は、高速自動車道路での運転に限定した機能である。

世界初のレベル3の市販車として2017年にドイツのアウディA8が発表されたが、実際には販売されておらず、実際に市販される製品としてホンダのレジェンドが世界初になる。 BMWは2021年にレベル3量産へという計画も以前発表されているため、来年以降本格的な自動運転時代が到来することが予想される。

レベル4は、自動運転場面は限定されるが、障害発生時に運転手の介入を要求しないということであり、レベル5は完全自動運転(場面を限定しない)である。レベル4までは、運転手が運転する場面があるため、現状の操作デバイス(ハンドル、アクセル、ブレーキなど)は装備するが、レベル5になると、運転する場面が想定されないため、SFやコンセプトカーなどに見られるようにハンドルも、アクセル、ブレーキもない車両になる。

レベル0(運転自動化なし):運転者が全ての動的運転タスクを実行(予防安全システムによって支援されている場合も含む)

レベル1(運転支援):運転自動化システムが動的運転タスクの縦方向(進行方向)又は横方向(操舵方向)のいずれか(両方同時ではない)の車両運動制御のサブタスクを特定の限定領域において持続的に実行。この際、運転者は残りの動的運転タスクを実行する事が期待される 。

レベル2(部分運転自動化):運転自動化システムが動的運転タスクの縦方向及び横方向両方の車両運動制御のサブタスクを特定の限定領域において持続的に実行。この際、運転者は動的運転タスクのサブタスクである対象物・事象の検知及び応答を完了し、システムを監督する事が期待される 。

レベル3(条件付き運転自動化):運転自動化システムが全ての動的運転タスクを限定領域において持続的に実行。この際、作動継続が困難な場合への応答準備ができている利用者は、他の車両システムにおける動的運転タスク実行システムに関連するシステム故障だけでなく、自動運転システムが出した介入の要求を受け容れ、適切に応答することが期待される。

レベル4(高度運転自動化):運転自動化システムが全ての動的運転タスク及び作動継続が困難な場合への応答を限定領域において持続的に実行。作動継続が困難な場合、利用者が介入の要求に応答することは期待されない

レベル5(完全運転自動化):運転自動化システムが全ての動的運転タスク及び作動継続が困難な場合への応答を持続的かつ無制限に(すなわち、限定領域内ではない)実行。作動継続が困難な場合、利用者が介入の要求に応答することは期待されない。