JP7176573B2 - 危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラム - Google Patents

危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラム Download PDF

Info

Publication number
JP7176573B2
JP7176573B2 JP2020556646A JP2020556646A JP7176573B2 JP 7176573 B2 JP7176573 B2 JP 7176573B2 JP 2020556646 A JP2020556646 A JP 2020556646A JP 2020556646 A JP2020556646 A JP 2020556646A JP 7176573 B2 JP7176573 B2 JP 7176573B2
Authority
JP
Japan
Prior art keywords
scene
learning model
dangerous scene
dangerous
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020556646A
Other languages
English (en)
Other versions
JPWO2020100408A1 (ja
Inventor
康則 二木
吉弘 三島
篤司 福里
淳 中山田
健治 傍田
雄樹 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020100408A1 publication Critical patent/JPWO2020100408A1/ja
Application granted granted Critical
Publication of JP7176573B2 publication Critical patent/JP7176573B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Neurology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、運転中に想定される危険シーンを予測する危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラムに関する。
近年、ドライバによる運転を自動化する自動運転技術や、運転中の危険なシーンを予測するための危険シーン予測技術が注目されている。例えば、特許文献1には、安全な視点での運転方法を運転者に与えることで適切な運転を支援する運転支援装置が記載されている。特許文献1に記載された運転支援装置は、生成源となった観測情報に関する認識の信頼度に応じてリテラルのコストを調整した観測論理式を生成し、知識ベースで生成される知識論理式と観測論理式とを用いて、危険な状況についての仮説推論を実行する。
特開2017-187848号公報
一方、運転中に各種処理を行う演算デバイスはリソースが限られており、危険シーンの予測についてのリソースも同様である。そのため、予測される全ての危険シーンを想定して高精度に処理を行うことは、リソース的に困難な場合も多い。そのため、特許文献1に記載されている運転支援装置は、想定される全ての危険について予測することを試みるため、予測に用いるリソースとの関係から、高精度に危険シーンを予測できるとは言い難い。
そこで、本発明は、演算負荷を抑制しながら、運転中に想定される危険シーンの予測精度を向上させることができる危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラムを提供することを目的とする。
本発明による危険シーン予測装置は、車両運転中に生じる危険シーンを予測する危険シーン予測装置であって、車両運転中に得られる情報に基づいて判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択する学習モデル選択合成部と、選択された学習モデルの情報に基づいて、認識の対象とする物体についての情報である認識物体情報を決定する認識物体情報決定部と、認識物体情報に応じて、2以上の学習モデルから物体認識に用いる学習モデルである物体認識モデルを選択する学習モデル選択部と、選択された物体認識モデルを用いて、車両運転中に撮影される画像中の物体を認識する物体認識部と、物体認識部による物体認識結果を、学習モデル選択合成部により選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測する危険シーン予測部とを備えたことを特徴とする。また、本発明による他の危険シーン予測装置は、車両運転中に生じる危険シーンを予測する危険シーン予測装置であって、車両運転中に得られる情報に基づいて判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択する学習モデル選択合成部と、選択された学習モデルを用いて、車両運転中に生じる危険シーンを予測する危険シーン予測部と、判定されたシーンに応じて、物体認識に用いられるニューラルネットワーク、および、危険シーンの予測に用いられる学習モデルを決定するモデル調整部と、決定されたニューラルネットワークを用いて、車両運転中に撮影される画像中の物体を認識する物体認識部とを備え、モデル調整部が、物体認識における処理および危険シーンを予測する処理に要する演算量が、許容される演算量である許容演算量以下になるように、ニューラルネットワークおよび学習モデルを決定し、学習モデル選択合成部が、決定された学習モデルに基づいて、危険シーンの予測に用いる学習モデルを選択し、危険シーン予測部が、物体認識部による物体認識結果を、選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測することを特徴とする。
本発明による危険シーン予測方法は、車両運転中に生じる危険シーンを予測する危険シーン予測方法であって、コンピュータが、車両運転中に得られる情報に基づいて判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択し、コンピュータが、選択された学習モデルの情報に基づいて、認識の対象とする物体についての情報である認識物体情報を決定し、コンピュータが、認識物体情報に応じて、2以上の学習モデルから物体認識に用いる学習モデルである物体認識モデルを選択し、コンピュータが、選択された物体認識モデルを用いて、車両運転中に撮影される画像中の物体を認識し、コンピュータが、上記認識による物体認識結果を、選択された危険シーンの予測に用いる学習モデルに用いて、車両運転中に生じる危険シーンを予測することを特徴とする。
本発明による危険シーン予測プログラムは、車両運転中に生じる危険シーンを予測するコンピュータに適用される危険シーン予測プログラムであって、コンピュータに、車両運転中に得られる情報に基づいて判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択する学習モデル選択合成処理、選択された学習モデルの情報に基づいて、認識の対象とする物体についての情報である認識物体情報を決定する認識物体情報決定処理、認識物体情報に応じて、2以上の学習モデルから物体認識に用いる学習モデルである物体認識モデルを選択する学習モデル選択処理、選択された物体認識モデルを用いて、車両運転中に撮影される画像中の物体を認識する物体認識処理、および、物体認識処理における物体認識結果を、学習モデル選択合成処理で選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測する危険シーン予測処理を実行させることを特徴とする。
本発明によれば、演算負荷を抑制しながら、運転中に想定される危険シーンの予測精度を向上させることができる。
本発明による危険シーン予測装置の第一の実施形態の構成例を示すブロック図である。 シーンごとに定義された学習モデルの例を示す説明図である。 学習モデルを選択して危険シーン予測結果を出力する処理の例を示す説明図である。 第一の実施形態の危険シーン予測装置の動作例を示すフローチャートである。 本発明による危険シーン予測装置の第二の実施形態の構成例を示すブロック図である。 学習モデルと認識物体情報との関係の例を示す説明図である。 シーンおよび認識物体情報ごとに定義された物体認識モデルの例を示す説明図である。 第二の実施形態の危険シーン予測装置の動作例を示すフローチャートである。 シーン判定結果と選択される学習モデルとの関係例を示す説明図である。 本発明による危険シーン予測装置の第三の実施形態の構成例を示すブロック図である。 許容演算量に従ってモデルを決定する処理の例を示す説明図である。 第三の実施形態の危険シーン予測装置の動作例を示すフローチャートである。 第三の実施形態の危険シーン予測装置の他の動作例を示すフローチャートである。 本発明による危険シーン予測装置の第四の実施形態の構成例を示すブロック図である。 危険予測時間の例を示す説明図である。 許容演算量に従ってモデルを決定する処理の他の例を示す説明図である。 第四の実施形態の危険シーン予測装置の動作例を示すフローチャートである。 第四の実施形態の危険シーン予測装置の他の動作例を示すフローチャートである。 少なくとも上述する一実施形態に係るコンピュータの構成を示す概略ブロック図である。 本発明による危険シーン予測装置の概要を示すブロック図である。
以下、本発明の実施形態を図面を参照して説明する。本発明の危険シーン予測装置は、学習モデルを用いて車両運転中に生じ得る危険シーンを予測する。本発明で用いられる各学習モデルは、車両運転中に想定される各危険シーンの発生有無または発生の程度を予測するモデルであり、観測されたデータに基づいて予め学習されているものとする。予測される危険シーンとして、例えば、割込み予測、左折時巻き込み予測、飛び出し横断予測、横侵入予測、および、飛び出し横断予測などが挙げられる。
実施形態1.
図1は、本発明による危険シーン予測装置の第一の実施形態の構成例を示すブロック図である。本実施形態の危険シーン予測装置100は、シーン判定部10と、学習モデル選択合成部20と、危険シーン予測部30と、記憶部90とを備えている。
記憶部90は、後述する危険シーン予測部30が用いる複数の学習モデルを記憶する。また、記憶部90は、危険シーン予測装置100の動作に必要な各種情報を記憶していてもよい。記憶部90は、例えば、磁気ディスク等により実現される。
シーン判定部10は、車両の状態を検出する各種センサにより取得された情報の入力を受け付ける。車両の状態を検出するセンサの例として、位置情報を取得するGPS(global positioning system )受信機や、ミリ波情報を検知するミリ波レーダ、対象物までの距離を取得するLiDAR(Laser Imaging Detection and Ranging)や、周辺の画像を撮影するカメラなどが挙げられる。
シーン判定部10は、入力された各種センサの情報など、車両運転中に得られる情報に基づいて、その車両のシーンを判定する。ここで、シーンとは、車両を取り巻く外部環境のことを意味し、例えば、車両が走行している場面(高速道路、市街地交差点、駐車場出入り口、市街地直線道路など)が挙げられる。ただし、本実施形態で判定されるシーンは、上述するような、人間が意味を解釈できる表現に限定されず、例えば、外部環境を表わす特徴ベクトルなどで表されていてもよい。ただし、以下では、説明を容易にするために、具体的なシーンを例示して、本実施形態の危険シーン予測装置の動作を説明する。
シーン判定部10がシーンを判定する方法は任意である。シーン判定部10は、ルールベースでシーンを判定してもよく、シーンごとの確からしさを判別する判別モデルを用いてシーンを判定してもよい。シーン判定部10は、例えば、予め与えられた地図情報と、GPSにより取得された位置情報とに基づいて、現在の走行場所(例えば、高速道路、商店街、など)を判定してもよい。他にも、シーン判定部10は、取得可能なセンサ情報に基づいて予め機械学習により生成されたシーン判別モデルを保持しておき、受け付けたセンサ情報に基づいて、シーンを判定してもよい。
学習モデル選択合成部20は、判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択する。例えば、シーンごとに選択する学習モデルを学習モデルの特徴に応じて予め定義しておき、学習モデル選択合成部20は、判定されたシーンに対応する学習モデルを選択してもよい。本実施形態で用いられる学習モデルの態様は任意であり、例えば、ニューラルネットワークなどである。
図2は、シーンごとに定義された学習モデルの例を示す説明図である。図2に示す例では、シーンとして「高速道路」、「市街地交差点」または「駐車場出入り口」、および、「市街地直線道路」が想定されている。ここで、「高速道路」では、危険シーンとして車両前方への割込みが想定される。そこで、図2に示す例において、「高速道路」のシーンでは、割込み予測を行う学習モデルを対応付けておく。同様に、「市街地交差点」または「駐車場出入り口」では、複数の危険シーン(左折時巻き込み、飛び出し横断、および、横侵入)が想定される。そこで、図2に示す例において、「市街地交差点」または「駐車場出入り口」のシーンでは、左折時巻き込み予測、飛び出し横断予測、および、横侵入予測を行う学習モデルを合成したモデルを対応付けておく。「市街地直線道路」のシーンについても同様である。
学習モデル選択合成部20は、図2に例示するように定義されたシーンと学習モデルとの対応関係に基づいて、シーン判定部10で判定されたシーンに対応する学習モデルを選択すればよい。なお、シーン判定部10による判定結果にシーンの確度が含まれる場合、学習モデル選択合成部20は、シーンに対応する学習モデルを選択するとともに、選択された学習モデルにシーンの確度を対応付けておいてもよい。
危険シーン予測部30は、選択された学習モデルを用いて、車両運転中に生じる危険シーンを予測する。具体的には、危険シーン予測部30は、上述するLiDARやミリ波情報などのセンサから取得される物体位置情報に基づいて、車両運転中に生じる危険シーンを予測し、危険シーン予測結果を出力する。危険シーン予測結果は、各危険シーンの発生有無または発生の程度を表わす情報であり、0または1の2値情報であってもよく、危険の確からしさを示す確度情報であってもよい。この危険シーン予測結果に基づいて、例えば、予測される割込みや飛び出しに対して車両が発報するか否かが決定される。
また、例えば、学習モデルにシーンの確度が対応付けられている場合、危険シーン予測部30は、確度に応じて発生の有無または程度を調整してもよい。
図3は、学習モデルを選択して危険シーン予測結果を出力する処理の例を示す説明図である。図3に示す例は、図2に示す例において定義された学習モデルが選択され、危険シーン予測結果が出力される処理を示している。図2に例示するモデルM1~M3は、例えば、ニューラルネットワークである。
例えば、シーンが「市街地交差点」と判定された場合、学習モデル選択合成部20は、左折時巻き込み予測を行う学習モデルm21、飛び出し横断予測を行う学習モデルm22、および、横侵入予測を行う学習モデルm23が合成されたモデルM2を選択する。そして、危険シーン予測部30は、モデルM2を用いて危険シーンの予測を行い、左折時巻き込み、飛び出し横断、および、横侵入について、それぞれの危険シーンの発生確率(例えば、0~1)を出力する。
他にも、例えば、シーンが「高速道路」と判定された場合、学習モデル選択合成部20は、割込み予測を行う学習モデルm11を含むモデルM1を選択すればよい。また、シーンが「市街地直線道路」と判定された場合、学習モデル選択合成部20は、飛び出し横断予測を行う学習モデルm31を含むモデルM3を選択すればよい。危険シーン予測結果は、上述するモデルM2の場合と同様である。
シーン判定部10と、学習モデル選択合成部20と、危険シーン予測部30とは、プログラム(危険シーン予測プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、危険シーン予測装置100の記憶部90に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、シーン判定部10、学習モデル選択合成部20および危険シーン予測部30として動作してもよい。また、シーン判定部10と、学習モデル選択合成部20と、危険シーン予測部30とは、それぞれが専用のハードウェアで実現されていてもよい。
次に、本実施形態の危険シーン予測装置100の動作を説明する。図4は、本実施形態の危険シーン予測装置100の動作例を示すフローチャートである。シーン判定部10は、車両運転中に得られるセンサ情報から取得される物体位置情報などに基づいて、その車両のシーンを判定する(ステップS11)。学習モデル選択合成部20は、判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択する(ステップS12)。そして、危険シーン予測部30は、選択された学習モデルを用いて、車両運転中に生じる危険シーンを予測する(ステップS13)。
以上のように、本実施形態では、学習モデル選択合成部20が、車両運転中に得られる情報に基づいて判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択し、危険シーン予測部30が、選択された学習モデルを用いて、車両運転中に生じる危険シーンを予測する。よって、演算負荷を抑制しながら、運転中に想定される危険シーンの予測精度を向上させることができる。
すなわち、本実施形態では、学習モデル選択合成部20が、シーンに適した危険シーン予測に必要な学習モデルを選択し、危険シーン予測部30が、その学習モデルのみ使用して危険シーンを予測するため、演算量を低減しつつ高精度な危険シーン予測ができる。
実施形態2.
次に、本発明による危険シーン予測装置の第二の実施形態を説明する。第一の実施形態では、検出された物体位置情報を用いて危険シーンを予測する方法を説明した。第二の実施形態では、危険シーンの予測に、検出された物体を認識した結果を用いる方法を説明する。
図5は、本発明による危険シーン予測装置の第二の実施形態の構成例を示すブロック図である。本実施形態の危険シーン予測装置200は、シーン判定部10と、学習モデル選択合成部20と、危険シーン予測部31と、認識物体/姿勢決定部40と、学習モデル選択部50と、物体認識部60と、撮像装置70と、記憶部91とを備えている。シーン判定部10および学習モデル選択合成部20の内容は、第一の実施形態と同様である。
なお、シーン判定部10、学習モデル選択合成部20および危険シーン予測部31と、認識物体/姿勢決定部40、学習モデル選択部50および物体認識部60が、それぞれ異なる装置で実現されていてもよい。
記憶部91は、第一の実施形態における記憶部90と同様、危険シーン予測部31が用いる複数の学習モデルを記憶する。さらに、本実施形態の記憶部91は、後述する物体認識部60が物体の認識に用いる複数の学習モデル(以下、物体認識モデルと記す。)を記憶する。また、記憶部91は、危険シーン予測装置200の動作に必要な各種情報を記憶していてもよい。記憶部91は、例えば、磁気ディスク等により実現される。
認識物体/姿勢決定部40は、学習モデル選択合成部20が選択した学習モデルの情報に基づいて、認識の対象とする物体についての情報(以下、認識物体情報と記す。)を決定する。具体的には、認識物体/姿勢決定部40は、学習モデル選択合成部20によって選択された学習モデルを用いて危険シーンの予測を行う場合に必要な認識物体情報を決定する。認識物体情報は、認識物体そのものを示す情報だけでなく、認識の対象とする物体の箇所(以下、物体の姿勢と記す。)を示す情報が含まれていてもよい。
認識物体情報は、危険シーンの予測を行う際に重要な認識対象物として、危険シーンを予測する学習モデルごとに予め定義される。図6は、学習モデルと認識物体情報との関係の例を示す説明図である。図6に示す例では、各危険シーンを予測する予測モデルごとに、重要な認識対象物および姿勢が対応付けられていることを示す。例えば、危険シーンとして車両の割込みを予測する場合、図6(1)に例示するように、車両(乗用車、トラックおよびバス)の後方の情報が、重要な認識対象物および姿勢であると言える。そこで、車両の割込みを予測するモデル(割込み予測モデル)に対して、「車両(乗用車、トラックおよびバス)の後方」を重要な認識対象物および姿勢として対応付ける。他の予測モデルについても同様である。
学習モデル選択部50は、シーン判定部10によって判定されたシーンおよび認識物体/姿勢決定部40によって決定された認識物体情報に応じて、2以上の物体認識モデルから物体認識に用いる物体認識モデルを選択する。例えば、シーンおよび認識物体情報ごとに選択する物体認識モデルを予め定義しておき、学習モデル選択部50は、判定されたシーンに対応する物体認識モデルを選択してもよい。本実施形態で用いられる物体認識モデルの態様は任意であり、例えば、ニューラルネットワークなどである。
図7は、シーンおよび認識物体情報ごとに定義された物体認識モデルの例を示す説明図である。図7に示す例では、シーンとして「高速道路」、「市街地交差点」または「駐車場出入り口」、および、「市街地直線道路」が想定されている。例えば、物体認識モデル1は車両後方の物体認識の精度が良好であるとする。このとき、「高速道路」と物体認識モデル1を対応付けておき、学習モデル選択部50は、シーン判定部10で判定されたシーンおよび認識物体情報に対応する物体認識モデルを選択すればよい。他のシーンについても同様である。
撮像装置70は、車両運転中の車外の画像を撮像する。撮像装置70が画像を撮像するタイミングは、走行中または停止中のいずれのタイミングでもよい。撮像装置70は、予め定めた期間ごとに画像を撮像してもよく、運転手等や制御装置の指示に応じて画像を撮像してもよい。撮像装置70は、例えば、車外の風景を撮影する車載カメラである。
物体認識部60は、選択された物体認識モデルを用いて、撮像装置70によって撮像された画像中の物体を認識する。なお、物体認識部60が学習モデルを用いて物体を認識する方法は広く知られており、ここでは詳細な説明は省略する。
危険シーン予測部31は、第一の実施形態における物体位置情報に加え、物体認識部60による物体認識結果を選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測する。なお、危険シーン予測部31は、物体認識結果を用いずに(すなわち補助的な情報として物体認識結果を用いて)、危険シーンを予測してもよい。
シーン判定部10と、学習モデル選択合成部20と、危険シーン予測部31と、認識物体/姿勢決定部40と、学習モデル選択部50と、物体認識部60とは、プログラム(危険シーン予測プログラム)に従って動作するコンピュータのCPUによって実現される。また、シーン判定部10と、学習モデル選択合成部20と、危険シーン予測部31と、認識物体/姿勢決定部40と、学習モデル選択部50と、物体認識部60とは、それぞれが専用のハードウェアで実現されていてもよい。
次に、本実施形態の危険シーン予測装置200の動作を説明する。図8は、本実施形態の危険シーン予測装置200の動作例を示すフローチャートである。シーン判定部10が車両のシーンを判定し、危険シーンの予測に用いる学習モデルを選択する方法は、図4に例示するステップS11からステップS12の処理と同様である。
図9は、シーン判定結果と選択される学習モデルとの関係例を示す説明図である。例えば、シーン判定部10が、シーンを「高速道路」と判定した場合、学習モデル選択合成部20は、図6に例示する学習モデル(1)を選択する。また、例えば、シーン判定部10が、シーンを「市街地交差点」または「駐車場出入り口」と判定した場合、学習モデル選択合成部20は、図6に例示する学習モデル(2)、学習モデル(3)および学習モデル(4)を選択する。すなわち、学習モデル選択合成部20は、複数の学習モデルを選択して合成していると言える。同様に、シーン判定部10が、シーンを「市街地直線道路」と判定した場合、学習モデル選択合成部20は、図6に例示する学習モデル(3)を選択する。
認識物体/姿勢決定部40は、学習モデル選択合成部20によって選択された学習モデルの情報に基づいて認識物体情報を決定する(図8におけるステップS21)。学習モデル選択部50は、判定されたシーンおよび認識物体情報に応じて物体認識モデルを選択する(ステップS22)。物体認識部60は、選択された物体認識モデルを用いて、車両運転中に撮影される画像中の物体を認識する(ステップS23)。危険シーン予測部31は、物体認識部60による物体認識結果を選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測する(ステップS24)。
以上のように、本実施形態では、認識物体/姿勢決定部40が、選択された学習モデルの情報に基づいて認識物体情報を決定し、学習モデル選択部50が、判定されたシーンおよび認識物体情報に応じて物体認識モデルを選択する。そして、物体認識部60が、選択された物体認識モデルを用いて、車両運転中に撮影される画像中の物体を認識し、危険シーン予測部31が、選択された学習モデルに物体認識結果を用いて、車両運転中に生じる危険シーンを予測する。
よって、第一の実施形態の効果に加え、危険シーン予測モデルで必要とする認識物体および姿勢を考慮して物体認識モデルを選択できるため、危険シーンの予測精度を向上させることが可能になる。
実施形態3.
次に、本発明による危険シーン予測装置の第三の実施形態を説明する。本実施形態では、危険シーンの予測処理と物体認識処理との演算量を考慮して、使用する学習モデルを選択する方法を説明する。
図10は、本発明による危険シーン予測装置の第三の実施形態の構成例を示すブロック図である。本実施形態の危険シーン予測装置300は、シーン判定部10と、学習モデル選択合成部21と、危険シーン予測部31と、モデル調整部51と、物体認識部61と、撮像装置70と、記憶部92とを備えている。シーン判定部10、危険シーン予測部31および撮像装置70の内容は、第二の実施形態と同様である。
記憶部92は、第一の実施形態の記憶部90と同様、危険シーン予測部31が用いる複数の学習モデルを記憶する。さらに、本実施形態の記憶部92は、後述する物体認識部61が物体の認識に用いる複数のニューラルネットワーク(以下、ニューラルNWと記す。)およびそのニューラルNWに対応する学習モデルを記憶する。また、記憶部92は、危険シーン予測装置300の動作に必要な各種情報を記憶していてもよい。記憶部92は、例えば、磁気ディスク等により実現される。
本実施形態で用いられるニューラルNWは、機械学習により物体認識の推論処理(種別判定)を行うモデルであり、対応する学習モデルに示されたノード間の結合の強さを示す重みやバイアスを使用して推論処理(種別判定)を行う。ニューラルNWの違いにより、物体認識精度や演算量が異なるため、本実施形態では、演算量に応じて複数種類のニューラルNWおよび対応する学習モデルが予め用意される。
モデル調整部51は、シーン判定部10によって判定されたシーンに応じて、後述する物体認識部61が物体認識に用いるニューラルNW、および、危険シーン予測部31が危険シーンの予測に用いる学習モデルを決定する。その際、モデル調整部51は、物体認識処理および危険シーン予測処理に要する演算量が、許容される演算量(以下、許容演算量と記す。)以下になるように、ニューラルNWおよび学習モデルを決定する。
なお、物体認識の場合、ニューラルNWを固定して学習モデルを変更する場合と比較し、ニューラルNW自体を変更する方が、演算量の変化が大きい。そこで、本実施形態では、モデル調整部51は、学習モデルを制御するのではなく、ニューラルNWを制御する。
まず、モデル調整部51は、優先すべき処理を決定する。具体的には、モデル調整部51は、判定されたシーンに応じて物体認識処理と危険シーン予測処理の相対的な優先度を決定する。相対的な優先度は、シーンに応じて予め設定しておけばよい。
例えば、「高速道路」のシーンの場合、物体認識性能よりも危険予測性能が求められていると考えられる。そこで、シーン「高速道路」に対しては、危険シーン予測処理の優先度を物体認識処理の優先度よりも高く設定しておく。また、例えば、「商店街の直線道路」のシーンの場合、歩行者等の小物体が多数存在するため、危険予測性能よりも物体認識性能を求められていると考えられる。そこで、シーン「商店街の直線道路」に対しては、物体認識処理の優先度を危険シーン予測処理の優先度よりも高く設定しておく。モデル調整部51は、この設定に基づいて優先すべき処理を決定すればよい。
そして、モデル調整部51は、決定された優先度に基づいて、双方の処理に要する演算量が許容演算量以下になるように、ニューラルNWおよび学習モデルを決定する。本実施形態では、各ニューラルNWを用いて物体認識を行う際の演算量、および、各学習モデルを用いて危険シーンの予測を行う際の演算量を事前に計測しておき、例えば、記憶部92に予め記憶させておく。モデル調整部51は、事前に計測された演算量に基づいて、双方の処理に要する演算量が許容演算量以下になるように、ニューラルNWおよび学習モデルを決定する。演算量は、例えば、ディジタル信号処理の乗算や加算と言った計算ステップの回数に対応した指標値として定められる。
以下、演算量に基づいてニューラルNWおよび学習モデルを決定する処理を説明するため、演算量レベルを定義する。演算量レベルは、演算量に応じて定義される指標値であり、ここでは、最小レベルを1、最大レベルを4とする。図11は、許容演算量に従ってニューラルNWおよび学習モデルを決定する処理の例を示す説明図である。
図11に示す例では、危険シーン予測処理の優先度を物体認識処理の優先度よりも高く設定されるシーンに対応する処理を「危険シーン予測優先モード」と記し、物体認識処理の優先度を危険シーン予測処理よりも高く設定されるシーンに対応する処理を「物体認識優先モード」と記す。また、「危険シーン予測優先モード」と「物体認識優先モード」の中間に相当する処理を、「中間モード」と記す。
また、図11に示す例では、危険シーン予測合成モデルとして生成される学習モデルを用いた際の演算量を横軸に、ニューラルNWを用いた際の演算量を縦軸に設定したグラフを想定し、各モードの格子の1マスが、1演算量を示すものとする。図11に示す例では、許容演算量が4マスである場合を例示している。
例えば、「危険シーン予測優先モード」では、危険シーン予測処理の優先度が物体認識処理の優先度よりも高いため、モデル調整部51は、学習モデルの演算量レベルを高く、ニューラルNWの演算量レベルを低く決定する。例えば、学習モデルの演算量レベルが4に決定された場合、許容演算量(4マス)を考慮すると、ニューラルNWの演算量レベルは1に決定される。
一方、「物体認識優先モード」では、物体認識処理の優先度が危険シーン予測処理の優先度よりも高いため、モデル調整部51は、学習モデルの演算量レベルを低く、ニューラルNWの演算量レベルを高く決定する。例えば、ニューラルNWの演算量レベルが4に決定された場合、許容演算量(4マス)を考慮すると、学習モデルの演算量レベルは1に決定される。
なお、「中間モード」において、物体認識処理の優先度と危険シーン予測処理の優先度が同等であるとすると、モデル調整部51は、学習モデルの演算量レベルとニューラルNWの演算量レベルを同程度にすると決定する。例えば、ニューラルNWの演算量レベルが2に決定された場合、許容演算量(4マス)を考慮すると、学習モデルの演算量レベルも2に決定される。
物体認識部61は、選択されたニューラルNWを用いて、車両運転中に撮影される画像中の物体を認識する。なお、ニューラルNWを用いて画像を認識する方法は広く知られているため、ここでは詳細な説明は省略する。
また、学習モデル選択合成部21は、選択された学習モデルに基づいて、危険シーンの予測に用いる学習モデルを選択する。そして、危険シーン予測部31は、物体認識部61による物体認識結果を選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測する。
シーン判定部10と、学習モデル選択合成部21と、危険シーン予測部31と、モデル調整部51と、物体認識部61とは、プログラム(危険シーン予測プログラム)に従って動作するコンピュータのCPUによって実現される。また、シーン判定部10と、学習モデル選択合成部21と、危険シーン予測部31と、モデル調整部51と、物体認識部61とは、それぞれが専用のハードウェアで実現されていてもよい。
次に、本実施形態の危険シーン予測装置300の動作を説明する。図12は、本実施形態の危険シーン予測装置300の動作例を示すフローチャートである。図12に例示するフローチャートは、危険シーンを予測する学習モデルを優先する場合の処理を示す。シーン判定部10が車両のシーンを判定する処理は、図4に例示するステップS11の処理と同様である。
モデル調整部51は、まず、危険シーンを予測する学習モデルを決定する(ステップS31)。モデル調整部51は、決定された学習モデルを用いた危険シーン予測処理に要する演算量(演算量レベル)と、予め定められた許容演算量に基づいて、物体認識ニューラルNWを決定する(ステップS32)。
物体認識部61は、選択されたニューラルNWを用いて、車両運転中に撮影される画像中の物体を認識する(ステップS33)。また、学習モデル選択合成部21は、選択された学習モデルに基づいて、危険シーンの予測に用いる学習モデルを選択し(ステップS34)、危険シーン予測部31は、物体認識部61による物体認識結果を選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測する(ステップS35)。
図13は、本実施形態の危険シーン予測装置300の他の動作例を示すフローチャートである。図13に例示するフローチャートは、物体認識に用いるニューラルNWを優先する場合の処理を示す。シーン判定部10が車両のシーンを判定する処理は、図12に例示するステップS11の処理と同様である。
モデル調整部51は、まず、物体認識に用いるニューラルNWを決定する(ステップS36)。モデル調整部51は、決定されたニューラルNWを用いた物体認識処理に要する演算量(演算量レベル)と、予め定められた許容演算量に基づいて、危険シーンを予測する学習モデルを決定する(ステップS37)。以降、危険シーンを予測するまでの処理は、図12に例示するステップS33からステップS35までの処理と同様である。
以上のように、本実施形態では、モデル調整部51が、判定されたシーンに応じて、物体認識処理および危険シーン予測処理に要する演算量が許容演算量以下になるように、ニューラルNWおよび学習モデルを決定し、物体認識部61が、選択されたニューラルNWを用いて、車両運転中に撮影される画像中の物体を認識する。そして、学習モデル選択合成部21が、選択された学習モデルに基づいて、危険シーンの予測に用いる学習モデルを選択し、危険シーン予測部31が、物体認識部61による物体認識結果を選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測する。
よって、第一の実施形態の効果に加え、物体認識を行うニューラルNWおよび危険シーンを予測する学習モデルの演算量を考慮することで、限られたリソース上での危険シーン予測を高精度に行うことが可能になる。
実施形態4.
次に、本発明による危険シーン予測装置の第四の実施形態を説明する。第三の実施形態では、許容演算量が予め定められている場合について説明した。本実施形態では、シーンの判定結果に基づいて許容演算量を決定する方法を説明する。
図14は、本発明による危険シーン予測装置の第四の実施形態の構成例を示すブロック図である。本実施形態の危険シーン予測装置400は、シーン判定部10と、学習モデル選択合成部21と、危険シーン予測部31と、モデル調整部51と、許容演算量決定部52と、物体認識部61と、撮像装置70と、記憶部92とを備えている。すなわち、本実施形態の危険シーン予測装置400は、第三の実施形態の危険シーン予測装置300と比較し、許容演算量決定部52を更に備えている点において、第三の実施形態と異なる。それ以外の構成は、第三の実施形態と同様である。
許容演算量決定部52は、シーン判定部10によって判定されたシーンに応じて、許容演算量を決定する。具体的には、許容演算量決定部52は、判定されたシーンに対する危険シーンの予測に許容される時間(以下、危険予測時間と記す。)が長いシーンの場合に許容演算量を大きくし、危険予測時間が短いシーンの場合に許容演算量を小さくするように決定する。許容演算量は、例えば、シーンに応じて予め設定され、許容演算量決定部52は、判定されたシーンに応じた許容演算量を特定する。
図15は、危険予測時間の例を示す説明図である。例えば、危険シーンとして「衝突」を考えた場合、危険予測時間は、危険予測を発報してから衝突までの時間に対応する。
モデル調整部51は、各処理に要する演算量が許容演算量決定部52によって決定された許容演算量以下になるように、ニューラルNWおよび学習モデルを決定する。なお、モデル調整部51が、演算量に基づいてモデルを決定する方法は、第三の実施形態と同様である。
図16は、許容演算量に従ってニューラルNWおよび学習モデルを決定する処理の他の例を示す説明図である。図16では、危険予測時間の長さに応じて、2種類のモード(「低速演算/高精度モード」および「高速演算/低精度モード」)で処理を行う場合を例示する。「低速演算/高精度モード」は、危険予測時間が長い(例えば、3~10秒前など)場合の例示であり、「高速演算/低精度モード」は、危険予測時間が短い(例えば、3秒以内など)場合の例示である。
また、図16に例示するグラフは、図11に例示するグラフと同様、危険シーン予測合成モデルとして生成される学習モデルを用いた際の演算量を横軸に、ニューラルNWを用いた際の演算量を縦軸に設定したグラフであり、格子の1マスが1演算量を示す。危険予測時間が長いシーンではより多くの演算を行うことが可能であるため、図16に示す例では、例えば、「低速演算/高精度モード」に対して、許容演算量が16マスに設定される。一方、危険予測時間が短いシーンではより演算を行う時間が限られているため、図16に示す例では、例えば、「高速演算/低精度モード」に対して、許容演算量が1マスに設定される。
この場合、「低速演算/高精度モード」では、ニューラルNWおよび学習モデルの演算量レベルを、それぞれ4に設定することができる。一方、「高速演算/低精度モード」では、ニューラルNWおよび学習モデルの演算量レベルを、それぞれ1にのみ設定することができる。
シーン判定部10と、学習モデル選択合成部21と、危険シーン予測部31と、モデル調整部51と、許容演算量決定部52と、物体認識部61とは、プログラム(危険シーン予測プログラム)に従って動作するコンピュータのCPUによって実現される。また、シーン判定部10と、学習モデル選択合成部21と、危険シーン予測部31と、モデル調整部51と、許容演算量決定部52と、物体認識部61とは、それぞれが専用のハードウェアで実現されていてもよい。
次に、本実施形態の危険シーン予測装置400の動作を説明する。図17は、本実施形態の危険シーン予測装置400の動作例を示すフローチャートである。図17に例示するフローチャートは、危険シーンを予測する学習モデルを優先する場合の処理を示す。シーン判定部10が車両のシーンを判定する処理は、図12に例示するステップS11の処理と同様である。
許容演算量決定部52は、判定されたシーンに応じて、許容演算量を決定する(ステップS41)。その後、モデル調整部51が、危険シーンを予測する学習モデルを決定し(ステップS31)、決定された学習モデルを用いた危険シーン予測処理に要する演算量(演算量レベル)と、決定された許容演算量に基づいて、物体認識ニューラルNWを決定する(ステップS32)。以降、危険シーンを予測するまでの処理は、図12に例示するステップS33からステップS35までの処理と同様である。
図18は、本実施形態の危険シーン予測装置400の他の動作例を示すフローチャートである。図18に例示するフローチャートは、物体認識に用いるニューラルNWを優先する場合の処理を示す。シーン判定部10が車両のシーンを判定する処理は、図17に例示するステップS11の処理と同様である。
許容演算量決定部52は、判定されたシーンに応じて、許容演算量を決定する(ステップS41)。その後、モデル調整部51が、物体認識に用いるニューラルNWを決定し(ステップS36)、決定されたニューラルNWを用いた物体認識処理に要する演算量(演算量レベル)と、決定された許容演算量に基づいて、危険シーンを予測する学習モデルを決定する(ステップS37)。以降、危険シーンを予測するまでの処理は、図17に例示するステップS33からステップS35までの処理と同様である。
以上のように、本実施形態では、許容演算量決定部52が、判定されたシーンに対する危険シーンの予測に許容される時間に応じて許容演算量を決定し、モデル調整部51が、物体認識における処理および危険シーンを予測する処理に要する演算量が、決定された許容演算量以下になるように、ニューラルNWおよび学習モデルを決定する。よって、第三の実施形態の効果に加え、シーン判定結果に応じて、物体認識と危険シーン予測の処理速度並びに認識及び予測精度を最適化できる。
次に、本発明の具体例を説明する。図19は、少なくとも上述する一実施形態に係るコンピュータの構成を示す概略ブロック図である。コンピュータ1000は、プロセッサ1001と、主記憶装置1002と、補助記憶装置1003と、インタフェース1004と、出力装置1005と、センサ1006とを備えている。コンピュータ1000は、例えば、車両に搭載される車載コンピュータであり、危険シーンの予測結果に応じて車両を制御するコンピュータである。そのため、コンピュータ1000を、車両制御装置と言うこともできる。この場合、プロセッサ1001は、車両制御部として動作する。
上述の危険シーン予測装置は、コンピュータ1000に実装され、センサ1006(例えば、GPS受信機や、ミリ波レーダ、LiDARや、カメラなど)が検出した各種情報を入力する。そして、上述した各処理部の動作は、プログラム(危険シーン予測プログラム)の形式で補助記憶装置1003に記憶されている。プロセッサ1001は、プログラムを補助記憶装置1003から読み出して主記憶装置1002に展開し、当該プログラムに従って上記処理を実行する。
なお、少なくとも1つの実施形態において、補助記憶装置1003は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース1004を介して接続される磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read-only memory )、DVD-ROM(Read-only memory)、半導体メモリ等が挙げられる。また、このプログラムが通信回線によってコンピュータ1000に配信される場合、配信を受けたコンピュータ1000が当該プログラムを主記憶装置1002に展開し、上記処理を実行しても良い。
また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を補助記憶装置1003に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。
出力装置1005は、コンピュータによる処理結果、すなわち、危険シーン予測装置による危険シーンの予測結果に基づいて、運転手に対し、危険の有無を報知する。出力装置1005は、例えば、音声や表示装置(図示せず)への表示により、運転手に対して危険の発生を報知する。このような情報を通知することで、運転手へ危険を知らせることが可能になる。
また、出力装置1005は、車両の制御装置(図示せず)に対し、予測される危険シーンを通知することで、車両を制御してもよい。このような情報を出力することで、危険シーンに応じた車両の自動制御を行うことが可能になる。
次に、本発明の概要を説明する。図20は、本発明による危険シーン予測装置の概要を示すブロック図である。本発明による危険シーン予測装置は、車両運転中に生じる危険シーンを予測する危険シーン予測装置80(例えば、危険シーン予測装置100~400)であって、車両運転中に得られる情報(例えば、位置情報、ミリ波情報、LiDAR情報、カメラ情報など)に基づいて判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択する学習モデル選択合成部81(例えば、学習モデル選択合成部20)と、選択された学習モデルを用いて、車両運転中に生じる危険シーンを予測する危険シーン予測部82(例えば、危険シーン予測部30)とを備えている。
そのような構成により、演算負荷を抑制しながら、運転中に想定される危険シーンの予測精度を向上させることができる。
また、危険シーン予測装置80(例えば、危険シーン予測装置200)は、学習モデル選択合成部81によって選択された学習モデルの情報に基づいて、認識の対象とする物体についての情報である認識物体情報を決定する認識物体情報決定部(例えば、認識物体/姿勢決定部40)と、車両運転中に得られる情報に基づいて判定されたシーンおよび認識物体情報に応じて、2以上の学習モデルから物体認識に用いる学習モデルである物体認識モデルを選択する学習モデル選択部(例えば、学習モデル選択部50)と、選択された物体認識モデルを用いて、車両運転中に撮影される画像中の物体を認識する物体認識部(例えば、物体認識部60)とを備えていてもよい。そして、危険シーン予測部82は、物体認識部による物体認識結果を、選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測してもよい。そのような構成により、危険シーン予測モデルで必要とする認識物体および姿勢を考慮して物体認識モデルを選択できるため、危険シーンの予測精度を向上させることが可能になる。
一方、危険シーン予測装置80(例えば、危険シーン予測装置300)は、判定されたシーンに応じて、物体認識に用いられるニューラルネットワーク、および、危険シーンの予測に用いられる学習モデルを決定するモデル調整部(例えば、モデル調整部51)と、選択されたニューラルネットワークを用いて、車両運転中に撮影される画像中の物体を認識する物体認識部(例えば、物体認識部61)とを備えていてもよい。そして、モデル調整部は、物体認識における処理および危険シーンを予測する処理に要する演算量が、許容される演算量である許容演算量以下になるように、ニューラルネットワークおよび学習モデルを決定してもよい。そして、学習モデル選択合成部81は、選択された学習モデルに基づいて、危険シーンの予測に用いる学習モデルを選択し、危険シーン予測部82は、物体認識部による物体認識結果を、選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測してもよい。このように、物体認識を行うニューラルNWおよび危険シーンを予測する学習モデルの演算量を考慮することで、限られたリソース上での危険シーン予測を高精度に行うことが可能になる。
具体的には、モデル調整部は、判定されたシーンに応じて、物体認識における処理と危険シーンを予測する処理との相対的な優先度を決定し、決定された優先度に基づいて、物体認識における処理および危険シーンを予測する処理に要する演算量が許容演算量以下になるように、ニューラルネットワークおよび学習モデルを決定してもよい。
また、危険シーン予測装置80(例えば、危険シーン予測装置400)は、判定されたシーンに対する危険シーンの予測に許容される時間に応じて、許容演算量を決定する許容演算量決定部(例えば、許容演算量決定部52)を備えていてもよい。そして、モデル調整部は、物体認識における処理および危険シーンを予測する処理に要する演算量が、許容演算量以下になるように、ニューラルネットワークおよび学習モデルを決定してもよい。そのような構成により、シーン判定結果に応じて、物体認識と危険シーン予測の処理速度並びに認識及び予測精度を最適化できる。
また、危険シーン予測装置80は、車両運転中に得られる情報に基づいて、その車両のシーンを判定するシーン判定部を備えていてもよい。
以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2018年11月13日に出願された日本特許出願2018-212890を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 シーン判定部
20,21 学習モデル選択合成部
30,31 危険シーン予測部
40 認識物体/姿勢決定部
50 学習モデル選択部
51 モデル調整部
52 許容演算量決定部
60,61 物体認識部
70 撮像装置
90,91,92 記憶部
100,200,300,400 危険シーン予測装置

Claims (10)

  1. 車両運転中に生じる危険シーンを予測する危険シーン予測装置であって、
    車両運転中に得られる情報に基づいて判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択する学習モデル選択合成部と、
    選択された前記学習モデルの情報に基づいて、認識の対象とする物体についての情報である認識物体情報を決定する認識物体情報決定部と、
    前記認識物体情報に応じて、2以上の学習モデルから物体認識に用いる学習モデルである物体認識モデルを選択する学習モデル選択部と、
    選択された前記物体認識モデルを用いて、車両運転中に撮影される画像中の物体を認識する物体認識部と、
    前記物体認識部による物体認識結果を、前記学習モデル選択合成部により選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測する危険シーン予測部とを備えた
    ことを特徴とする危険シーン予測装置。
  2. 前記学習モデル選択部は、車両運転中に得られる情報に基づいて判定されたシーンおよび前記認識物体情報決定部によって決定された認識物体情報に応じて、物体認識モデルを選択す
    請求項1記載の危険シーン予測装置。
  3. 車両運転中に生じる危険シーンを予測する危険シーン予測装置であって、
    車両運転中に得られる情報に基づいて判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択する学習モデル選択合成部と、
    選択された学習モデルを用いて、車両運転中に生じる危険シーンを予測する危険シーン予測部と、
    前記判定されたシーンに応じて、物体認識に用いられるニューラルネットワーク、および、前記危険シーンの予測に用いられる学習モデルを決定するモデル調整部と、
    決定された前記ニューラルネットワークを用いて、車両運転中に撮影される画像中の物体を認識する物体認識部とを備え、
    前記モデル調整部は、前記物体認識における処理および危険シーンを予測する処理に要する演算量が、許容される演算量である許容演算量以下になるように、前記ニューラルネットワークおよび学習モデルを決定し、
    前記学習モデル選択合成部は、決定された学習モデルに基づいて、危険シーンの予測に用いる学習モデルを選択し、
    前記危険シーン予測部は、前記物体認識部による物体認識結果を、選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測する
    ことを特徴とする危険シーン予測装置。
  4. モデル調整部は、判定されたシーンに応じて、物体認識における処理と危険シーンを予測する処理との相対的な優先度を決定し、決定された優先度に基づいて、物体認識における処理および危険シーンを予測する処理に要する演算量が許容演算量以下になるように、ニューラルネットワークおよび学習モデルを決定する
    請求項3記載の危険シーン予測装置。
  5. 判定されたシーンに対する危険シーンの予測に許容される時間に応じて、許容演算量を決定する許容演算量決定部を備え、
    モデル調整部は、物体認識における処理および危険シーンを予測する処理に要する演算量が、前記許容演算量以下になるように、ニューラルネットワークおよび学習モデルを決定する
    請求項3または請求項4記載の危険シーン予測装置。
  6. 車両運転中に得られる情報に基づいて、当該車両のシーンを判定するシーン判定部を備えた
    請求項1から請求項5のうちのいずれか1項に記載の危険シーン予測装置。
  7. 車両運転中に生じる危険シーンを予測する危険シーン予測方法であって、
    コンピュータが、車両運転中に得られる情報に基づいて判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択し、
    前記コンピュータが、選択された前記学習モデルの情報に基づいて、認識の対象とする物体についての情報である認識物体情報を決定し、
    前記コンピュータが、前記認識物体情報に応じて、2以上の学習モデルから物体認識に用いる学習モデルである物体認識モデルを選択し、
    前記コンピュータが、選択された前記物体認識モデルを用いて、車両運転中に撮影される画像中の物体を認識し、
    前記コンピュータが、前記認識による物体認識結果を、選択された前記危険シーンの予測に用いる学習モデルに用いて、車両運転中に生じる危険シーンを予測する
    ことを特徴とする危険シーン予測方法。
  8. コンピュータが、車両運転中に得られる情報に基づいて判定されたシーンおよび前記認識物体情報に応じて、物体認識モデルを選択する
    請求項7記載の危険シーン予測方法。
  9. 車両運転中に生じる危険シーンを予測するコンピュータに適用される危険シーン予測プログラムであって、
    前記コンピュータに、
    車両運転中に得られる情報に基づいて判定されたシーンに応じて、2以上の学習モデルから危険シーンの予測に用いる学習モデルを選択する学習モデル選択合成処理
    選択された前記学習モデルの情報に基づいて、認識の対象とする物体についての情報である認識物体情報を決定する認識物体情報決定処理、
    前記認識物体情報に応じて、2以上の学習モデルから物体認識に用いる学習モデルである物体認識モデルを選択する学習モデル選択処理、
    選択された前記物体認識モデルを用いて、車両運転中に撮影される画像中の物体を認識する物体認識処理、および、
    前記物体認識処理における物体認識結果を、前記学習モデル選択合成処理で選択された学習モデルに用いて、車両運転中に生じる危険シーンを予測する危険シーン予測処理
    を実行させるための危険シーン予測プログラム。
  10. コンピュータに、
    前記学習モデル選択処理で、車両運転中に得られる情報に基づいて判定されたシーンおよび前記認識物体情報決定処理で決定された認識物体情報に応じて、物体認識モデルを選択させ
    請求項9記載の危険シーン予測プログラム。
JP2020556646A 2018-11-13 2019-09-13 危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラム Active JP7176573B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018212890 2018-11-13
JP2018212890 2018-11-13
PCT/JP2019/036151 WO2020100408A1 (ja) 2018-11-13 2019-09-13 危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラム

Publications (2)

Publication Number Publication Date
JPWO2020100408A1 JPWO2020100408A1 (ja) 2021-09-24
JP7176573B2 true JP7176573B2 (ja) 2022-11-22

Family

ID=70730704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020556646A Active JP7176573B2 (ja) 2018-11-13 2019-09-13 危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラム

Country Status (3)

Country Link
US (1) US20220001858A1 (ja)
JP (1) JP7176573B2 (ja)
WO (1) WO2020100408A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019209292A1 (de) * 2019-06-26 2020-12-31 Robert Bosch Gmbh Verfahren zum Betreiben einer Umfeldsensorik eines Fahrzeugs und Umfeldsensorik
JP7538892B2 (ja) 2020-06-05 2024-08-22 ガティック エーアイ インコーポレイテッド 自律エージェントのコンテキスト認識型意思決定を行うための方法およびシステム
WO2021247081A1 (en) 2020-06-05 2021-12-09 Gatikai Inc. Method and system for data-driven and modular decision making and trajectory generation of an autonomous agent
JP6963062B1 (ja) * 2020-06-22 2021-11-05 株式会社Yamato 情報処理装置及び情報処理方法
WO2021260910A1 (ja) * 2020-06-26 2021-12-30 三菱電機株式会社 Ai統合システム、ai統合装置及びai統合プログラム
JP7382304B2 (ja) * 2020-12-17 2023-11-16 株式会社日立製作所 リスク管理装置、リスク管理方法及びリスク管理システム
JP7471602B2 (ja) 2021-01-14 2024-04-22 株式会社アイビス・キャピタル・パートナーズ 情報処理装置及び情報処理方法
CN113205037B (zh) * 2021-04-28 2024-01-26 北京百度网讯科技有限公司 事件检测的方法、装置、电子设备以及可读存储介质
CA3240477A1 (en) 2021-12-16 2023-06-22 Apeksha Kumavat Method and system for expanding the operational design domain of an autonomous agent
CA3240409A1 (en) 2021-12-16 2023-06-22 Apeksha Kumavat Method and system for addressing failure in an autonomous agent

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100338A (ja) 2009-11-06 2011-05-19 Hitachi Automotive Systems Ltd 車載用マルチアプリ実行装置
WO2018198823A1 (ja) 2017-04-28 2018-11-01 日立オートモティブシステムズ株式会社 車両電子制御装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07333242A (ja) * 1994-06-13 1995-12-22 Mazda Motor Corp 車両のヨーレート推定方法及びその装置
JP5510471B2 (ja) * 2012-01-20 2014-06-04 トヨタ自動車株式会社 運転モデルの作成装置及び運転モデルの作成方法、並びに運転評価装置及び運転評価方法、並びに運転支援システム
AT513714B1 (de) * 2012-12-12 2015-02-15 Avl List Gmbh Verfahren zur Beurteilung der Beherrschbarkeit eines Fahrzeuges
US10769453B2 (en) * 2017-05-16 2020-09-08 Samsung Electronics Co., Ltd. Electronic device and method of controlling operation of vehicle
MX2018002661A (es) * 2015-12-18 2018-06-13 Hitachi Ltd Dispositivos de determinacion de modelo y metodos de determinacion de modelo.
JP6555175B2 (ja) * 2016-04-01 2019-08-07 株式会社デンソー 運転支援装置及び運転支援プログラム
EP3232413B1 (en) * 2016-04-15 2021-11-24 Volvo Car Corporation Method and system for enabling a vehicle occupant to report a hazard associated with the surroundings of the vehicle
ITUA20164814A1 (it) * 2016-06-30 2017-12-30 Octo Telematics Spa Sistema e procedimento per il bilanciamento dell'elaborazione di dati e segnali di sensori in un veicolo.
US10745009B2 (en) * 2016-12-21 2020-08-18 Samsung Electronics Co., Ltd. Electronic apparatus for determining a dangerous situation of a vehicle and method of operating the same
DE112018000477B4 (de) * 2017-01-23 2023-03-02 Panasonic Intellectual Property Management Co., Ltd. Ereignisvorhersagesystem, Ereignisvorhersageverfahren, Programm und Aufzeichnungsmedium, auf dem dieses aufgezeichnet ist
WO2018173121A1 (ja) * 2017-03-21 2018-09-27 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
US11055605B2 (en) * 2017-04-25 2021-07-06 Nec Corporation Detecting dangerous driving situations by parsing a scene graph of radar detections
US10546197B2 (en) * 2017-09-26 2020-01-28 Ambient AI, Inc. Systems and methods for intelligent and interpretive analysis of video image data using machine learning
EP3495992A1 (en) * 2017-12-07 2019-06-12 IMRA Europe SAS Danger ranking using end to end deep neural network
US11138745B2 (en) * 2018-04-30 2021-10-05 Uatc, Llc Object association for autonomous vehicles
EP3628085B1 (en) * 2018-07-24 2021-07-07 Google LLC Map uncertainty and observation modeling
US11584379B2 (en) * 2018-08-06 2023-02-21 Honda Motor Co., Ltd. System and method for learning naturalistic driving behavior based on vehicle dynamic data
US11861458B2 (en) * 2018-08-21 2024-01-02 Lyft, Inc. Systems and methods for detecting and recording anomalous vehicle events
US11468575B2 (en) * 2018-11-16 2022-10-11 Uatc, Llc Deep structured scene flow for autonomous devices
US10467487B1 (en) * 2018-12-11 2019-11-05 Chongqing Jinkang New Energy Automobile Co., Ltd. Fusion-based traffic light recognition for autonomous driving
US11195067B2 (en) * 2018-12-21 2021-12-07 Ambient AI, Inc. Systems and methods for machine learning-based site-specific threat modeling and threat detection
US11636307B2 (en) * 2019-07-08 2023-04-25 Uatc, Llc Systems and methods for generating motion forecast data for actors with respect to an autonomous vehicle and training a machine learned model for the same
JP7207227B2 (ja) * 2019-08-08 2023-01-18 トヨタ自動車株式会社 運転行動評価装置、運転行動評価方法、及び運転行動評価プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100338A (ja) 2009-11-06 2011-05-19 Hitachi Automotive Systems Ltd 車載用マルチアプリ実行装置
WO2018198823A1 (ja) 2017-04-28 2018-11-01 日立オートモティブシステムズ株式会社 車両電子制御装置

Also Published As

Publication number Publication date
JPWO2020100408A1 (ja) 2021-09-24
US20220001858A1 (en) 2022-01-06
WO2020100408A1 (ja) 2020-05-22

Similar Documents

Publication Publication Date Title
JP7176573B2 (ja) 危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラム
EP3359436B1 (en) Method and system for operating autonomous driving vehicles based on motion plans
US11113547B2 (en) Planning control in response to a driving obstruction during operation of an autonomous driving vehicle (ADV)
WO2020062031A1 (en) A pedestrian interaction system for low speed scenes for autonomous vehicles
EP3342666A1 (en) Method and system for operating autonomous driving vehicles using graph-based lane change guide
US11205342B2 (en) Traffic information processing device
WO2020062032A1 (en) A pedestrian probability prediction system for autonomous vehicles
US20170277192A1 (en) System and method for trajectory planning for unexpected pedestrians
US11055540B2 (en) Method for determining anchor boxes for training neural network object detection models for autonomous driving
KR20180088789A (ko) 차량 주변의 컨텍스트에 기초하여 차량의 하나 이상의 궤적을 예측하는 방법 및 시스템
CN111857118B (zh) 对停车轨迹分段以控制自动驾驶车辆停车
JP4877364B2 (ja) 物体検出装置
CN115701295A (zh) 用于车辆路径规划的方法和系统
EP3655298A1 (en) A tunnel-based planning system for autonomous driving vehicles
JP2011048470A (ja) 環境予測装置
US11662730B2 (en) Hierarchical path decision system for planning a path for an autonomous driving vehicle
JP2012116366A (ja) 走行支援装置
KR20190030344A (ko) 객체 인식 방법 및 장치
JP2007064894A (ja) 物体検出装置、物体検出方法および物体検出プログラム
EP4113477A1 (en) Control system and control method
JP2019209902A (ja) 走行支援方法及び走行支援装置
JP5909144B2 (ja) 車群解消システム
JP7228698B2 (ja) 車両制御装置
US11679761B2 (en) Forward collision warning alert system for autonomous driving vehicle safety operator
KR102370876B1 (ko) 클라우드의 도로 객체 인식을 이용하여 주행 정보를 제공하는 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R151 Written notification of patent or utility model registration

Ref document number: 7176573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151