JP7135665B2 - 車両制御システム、車両の制御方法及びコンピュータプログラム - Google Patents

車両制御システム、車両の制御方法及びコンピュータプログラム Download PDF

Info

Publication number
JP7135665B2
JP7135665B2 JP2018180489A JP2018180489A JP7135665B2 JP 7135665 B2 JP7135665 B2 JP 7135665B2 JP 2018180489 A JP2018180489 A JP 2018180489A JP 2018180489 A JP2018180489 A JP 2018180489A JP 7135665 B2 JP7135665 B2 JP 7135665B2
Authority
JP
Japan
Prior art keywords
image
road mirror
movable object
vehicle
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018180489A
Other languages
English (en)
Other versions
JP2020052647A (ja
Inventor
大輔 橋本
聡 武安
公太 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018180489A priority Critical patent/JP7135665B2/ja
Priority to US16/571,635 priority patent/US11423663B2/en
Publication of JP2020052647A publication Critical patent/JP2020052647A/ja
Application granted granted Critical
Publication of JP7135665B2 publication Critical patent/JP7135665B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/406Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components using wireless transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、物体検出装置、物体検出方法、物体検出用コンピュータプログラム及び車両制御システムに関する。
非特許文献1には、車両等の既知の物体が写った画像を教師データとして用いて学習させたディープニューラルネットワーク(以下「DNN」という。)によって、DNNに入力された画像に映っている物体の種類及び位置を検出する物体検出装置が開示されている。
Wei Liu他、「SSD: Single Shot MultiBox Detector」、ECCV2016、2016年
近年、このような物体検出装置を実装した自動運転車両の開発が進められている。自動運転車両の安全性の向上を図るためには、カメラ等で撮影された画像内の物体を検出する以外にも、カメラ等で撮影された画像内に道路ミラーが存在する場合には、道路ミラーに映り込んでいる例えば歩行者や車、バイク、自転車などの移動可能な物体(以下「移動体」という。)、すなわちカメラ等で撮影した画像の死角に存在する移動体を検出し、その死角に存在する移動体の挙動を考慮した車両の走行計画を作成することが望ましい。
しかしながら、前述した非特許文献1に記載のものは、道路ミラーに映り込んでいる移動体に着目してその移動体を検出するものではなかった。そのため、道路ミラーに映り込んでいる非常に小さい移動体にまで着目してその移動体を精度良く検出できるようにすると演算量が多くなり、物体の検出に利用可能な演算リソースが限られている場合や、リアルタイム性が要求される場合には、道路ミラーに映り込んでいる移動体を検出することが難しいという問題点があった。
本発明は、このような問題点に着目してなされたものであり、演算量を抑制しつつ、道路ミラーに映り込んでいる移動体を精度良く検出できるようにすることを目的とする。
上記課題を解決するために、本発明のある態様による物体検出装置は、画像を低解像度化した画像データに基づいて、前記画像内の道路ミラーを含む物体の種類及び位置と、前記道路ミラーに映り込んだ映り込み物体の有無と、を検出する第1検出部と、映り込み物体が有る場合に、画像から道路ミラーの部分を抽出した高解像度の部分画像データに基づいて、道路ミラー内の移動可能物体と、道路ミラー内における移動可能物体の位置と、を検出する第2検出部と、を備える。
また本発明のある態様による物体検出方法は、画像を低解像度化した画像データに基づいて、前記画像内の道路ミラーを含む物体の種類及び位置と、前記道路ミラーに映り込んだ映り込み物体の有無と、を検出し、映り込み物体が有る場合に、画像から道路ミラーの部分を抽出した高解像度の部分画像データに基づいて、道路ミラー内の移動可能物体と、道路ミラー内における移動可能物体の位置と、を検出する、ことを含む。
また本発明のある態様による物体検出用コンピュータプログラムは、画像を低解像度化した画像データに基づいて、前記画像内の道路ミラーを含む物体の種類及び位置と、前記道路ミラーに映り込んだ映り込み物体の有無と、を検出し、映り込み物体が有る場合に、画像から道路ミラーの部分を抽出した高解像度の部分画像データに基づいて、道路ミラー内の移動可能物体と、道路ミラー内における移動可能物体の位置と、を検出する、ことをコンピュータに実行させるための命令を含む。
本発明のこれらの態様による物体検出装置、物体検出方法及び物体検出用コンピュータプログラムによれば、演算量を抑制しつつ、道路ミラーに映り込んでいる移動体を精度良く検出することができる。
図1は、物体検出装置が実装される車両制御システムの概略構成図である。 図2は、物体検出装置の1つの実施形態である電子制御装置のハードウェア構成図である。 図3は、カメラによって撮影された画像の一例を示す図である。 図4は、物体検出処理を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。 図5は、第1検出部の識別器として利用されるDNNの構成の一例を示す図である。 図6は、第2検出部の識別器として利用されるDNNの構成の一例を示す図である。 図7は、物体検出処理を含む車両制御処理の動作フローチャートである。
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
図1は、物体検出装置が実装される車両制御システムの概略構成図である。図2は、物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。
本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、物体検出装置及び車両制御装置として機能する電子制御装置(ECU)3とを有する。カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク4を介して通信可能に接続される。
カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。カメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。
カメラ2は、画像を生成する度に、その生成した画像を、車内ネットワーク4を介してECU3へ出力する。
ECU3は、車両10を制御する。本実施形態では、ECU3は、カメラ2によって撮影された一連の画像の画像データから、その画像に写っている各種の物体(例えば、車、歩行者、道路ミラー、動物、道路標識、道路標示、落下物、道路上のその他の物体など)を検出し、検出した物体に基づいて加速、操舵、及び制動に関する運転操作が自動的に行われるように、車両10を制御する。そのために、ECU3は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
通信インターフェース21は、通信部の一例であり、ECU3を車内ネットワーク4に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク4を介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU3のプロセッサ23により実行される物体検出処理において使用される各種のデータ、例えば、カメラ2から受信した画像や物体検出処理で利用される識別器を特定するための各種パラメータ、物体検出処理で利用される各種閾値などを記憶する。さらに、メモリ22は、地図情報などを記憶してもよい。
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して物体検出処理を含む車両制御処理を実行する。具体的にはプロセッサ23は、検出された車両10の周囲の物体に基づいて運転計画を作成し、その運転計画に従って加速、操舵、及び制動に関する運転操作を自動的に行う自動運転を実施する。
図3は、カメラ2によって撮影された画像の一例を示す図である。
本実施形態のように自動運転を実施する車両10の安全性の向上を図るためには、カメラ2等で撮影された画像301内の物体を検出する以外にも、カメラ等で撮影された画像301内に道路ミラー302が存在する場合には、道路ミラー302に映り込んでいる移動体(映り込み物体)、すなわち、カメラ2等で撮影した画像301の死角領域303に存在する移動体を検出し、その死角領域303に存在する移動体の挙動を考慮した車両10の運転計画を作成することが望ましい。
しかしながら、道路ミラーに映り込んでいるサイズの小さな移動体を検出できるようにするために、例えば高解像度の画像データを用いて各種の物体検出を行うようにすると、ECU3の演算量(処理負荷)が大きくなって物体検出までに時間がかかり、リアルタイムに物体を検出できなくなるおそれがある。そして、リアルタイムに物体を検出できなくなると、物体との相対速度が大きくなった場合に、当該物体を回避することが困難になるおそれがある。
そこで本実施形態では、演算量を抑制しつつ、道路ミラーに映り込んでいる移動体を検出できるように物体検出装置を構成し、カメラ2等で撮影した画像の死角に存在する移動体の挙動を考慮した車両10の運転計画を作成できるようした。以下、本実施形態によるECU3において実行される物体検出処理を含む車両制御処理の詳細について説明する。
図4は、物体検出処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。
プロセッサ23は、第1検出部31と、第2検出部32と、運転計画部33と、車両制御部34と、を有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる専用の演算回路であってもよい。プロセッサ23が有するこれらの各部のうち、第1検出部31及び第2検出部32が、物体検出処理を実行する。
第1検出部31は、カメラ2から受信した画像に対して解像度変換処理を施して低解像度化した低解像度の画像データを識別器に入力することで、その画像上の複数の領域のそれぞれについて、その領域に検出対象となる物体(例えば、車、歩行者、道路ミラー、動物、道路標識、道路標示、落下物、道路上のその他の物体など)が写っている確からしさを表す確信度を求める。そして第1検出部31は、確信度が所定の確信度閾値以上となる領域の画像上での位置及び範囲と、その領域に表された物体の種類とを、検出対象となる物体のリスト(以下「検出物体リスト」という。)に登録して、検出物体リストを運転計画部33に出力する。
さらに第1検出部31は、確信度が所定の確信度閾値以上となる領域に表された物体の種類が道路ミラーである場合には、その領域内に移動体が存在しているか否か、すなわち道路ミラーに移動体が映り込んでいるか否かを判断する。そして第1検出部31は、道路ミラーに移動体が映り込んでいるか否かの判断結果を運転計画部33に出力すると共に、道路ミラーに移動体が映り込んでいると判断したときは、道路ミラーが表された領域の画像上の位置及び範囲を第2検出部32に出力する。
本実施形態では、第1検出部31は、識別器として、第2検出部32及び運転計画部33に対して上記の出力が得られるように予め学習されたDNNを利用する。
図4は、第1検出部31において識別器として利用されるDNN400の構成の一例を示す図である。
DNN400は、低解像度の画像データが入力される入力側に設けられる主幹部401と、主幹部401よりも出力側に設けられる位置検出部402、種類推定部403及び映り込み検出部404と、を有する。なお、位置検出部402、種類推定部403及び映り込み検出部404のうちの2つ以上が一体的に形成されてもよい。
位置検出部402は、主幹部401からの出力に基づいて、画像上で検出対象となる物体が表された領域の位置及び範囲を出力する。
種類推定部403は、主幹部401からの出力に基づいて、位置検出部402で検出された領域に表された物体の種類を推定して出力する。
映り込み検出部404は、主幹部401からの出力に基づいて、種類推定部403で推定された物体が道路ミラーであった場合に、当該道路ミラーに移動体が映り込んでいるか否かを判断してその判断結果を出力する。
主幹部401は、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するコンボリューションニューラルネットワーク(CNN)とすることができる。その複数の層には2以上の畳み込み層が含まれる。さらに、主幹部401が有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。さらにまた、主幹部401が有する複数の層には、1以上の全結合層が含まれてもよい。
例えば、主幹部401は、非特許文献1に記載されたSingle Shot MultiBox Detector(SSD)のベースレイヤーと同様の構成とすることができる。この場合、主幹部401は、VGG-16と同様に、入力側から順に、2層の畳み込み層→MaxPoolingを行う(すなわち、n×n個の入力のうちの最大値を出力する)プーリング層(以下「プーリング層」という。)→2層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の全結合層で構成されてもよい。あるいは、主幹部401は、VGG-19、AlexNetあるいはNetwork-In-Networkといった他のCNNアーキテクチャに従って構成されてもよい。
主幹部401は、画像データが入力されると、その画像データに対して各層での演算を実行することで、その画像データから算出した特徴マップを出力する。
位置検出部402、種類推定部403及び映り込み検出部404には、それぞれ、主幹部401から出力された特徴マップが入力される。そして位置検出部402、種類推定部403及び映り込み検出部404は、それぞれ、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。位置検出部402、種類推定部403及び映り込み検出部404のそれぞれについて、CNNが有する複数の層には2以上の畳み込み層が含まれる。
また、位置検出部402、種類推定部403及び映り込み検出部404のそれぞれについて、CNNが有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。なお、CNNが有する畳み込み層及びプーリング層は、位置検出部402、種類推定部403及び映り込み検出部404のうちの2つ以上について共通化されてもよい。さらに、位置検出部402、種類推定部403及び映り込み検出部404のそれぞれについて、複数の層には、1以上の全結合層が含まれてもよい。この場合、全結合層は、各畳み込み層よりも出力側に設けられることが好ましい。また全結合層には、各畳み込み層からの出力が直接入力されてもよい。
DNN400の学習に利用される教師データに含まれる画像(教師画像)には、検出対象となる物体の種類と、検出対象となる物体が表された領域を表す、その物体の外接矩形とがタグ付けされる。また本実施形態においては、教師画像において、道路ミラーを囲う外接矩形に対する属性情報として、中に移動体が映りこんでいるかどうかの情報をタグ付けする。さらに、教師画像において、外接矩形で囲まれた道路ミラーが表された領域に含まれる画素のうち、移動体の各画素には、道路ミラーに映り込んだ移動体であることがタグ付けされてもよい。
DNN400は、このような多数の教師画像を用いて、例えば、誤差逆伝搬法といった学習手法に従って学習される。第1検出部31は、このように学習されたDNN400を識別器として利用することで、画像データから検出対象となる物体、特に、多数の教師画像を用意できる物体を精度良く検出できると共に、道路ミラーに移動体が映り込んでいるか否かを精度良く判断できる。本実施形態においては、道路ミラーを囲う外接矩形に対する属性情報として、ミラーの中に移動体が映りこんでいるかどうかのタグ情報を映り込み検出部404に学習させることで、映り込み検出部404がミラーの中に移動体が映りこんでいるかどうかの2クラス分類問題を推定可能になる。
第2検出部32は、第1検出部31から出力されてきた、道路ミラーが表された領域の画像上の位置及び範囲に基づいて、解像度変換処理を施す前のカメラ2から受信した画像(すなわち高解像度の画像データ)に対して、道路ミラーとして表された領域を関心領域(ROI)として部分的に抽出する画像抽出処理を施すことにより高解像度の部分画像データを生成する。そして第2検出部32は、この高解像度の部分画像データを識別器に入力することで、その部分画像上の複数の領域のそれぞれについて、その領域に検出対象となる移動体が写っている確からしさを表す確信度を求める。そして第2検出部32は、確信度が所定の確信度閾値以上となる領域の部分画像上での位置及び範囲と、その領域に表された移動体の種類とを、道路ミラーに映り込んだ移動体のリスト(以下「ミラー内移動体リスト」という。)に登録して、ミラー内移動体リストを運転計画部33に出力する。
本実施形態では、第2検出部32は、識別器として、運転計画部33に対して上記の出力が得られるように予め学習されたDNNを利用する。
図5は、第2検出部32において識別器として利用されるDNN500の構成の一例を示す図である。
DNN500は、高解像度の画像データが入力される入力側に設けられる主幹部501と、主幹部501よりも出力側に設けられるミラー内位置検出部502及びミラー内種類推定部503を有する。なお、ミラー内位置検出部502及びミラー内種類推定部503は、一体的に形成されてもよい。
ミラー内位置検出部502は、主幹部501からの出力に基づいて、画像上で検出対象となる物体が表された領域の外接矩形を出力する。
ミラー内種類推定部503は、主幹部501からの出力に基づいて、ミラー内位置検出部502で検出された領域に表された物体の種類を推定する。
主幹部501は、図4を参照して説明した第1検出部31において識別器として利用されるDNN400の主幹部401と同様の構成とすることができ、画像データが入力されると、その画像データに対して各層での演算を実行することで、その画像データから算出した特徴マップを出力する。
ミラー内位置検出部502及びミラー内種類推定部503には、それぞれ、主幹部501から出力された特徴マップが入力される。そしてミラー内位置検出部502及びミラー内種類推定部503も、図4を参照して説明した第1検出部31において識別器として利用されるDNN400の位置検出部402及び種類推定部403と同様の構成とすることができる。
DNN500の学習に利用される教師データに含まれる画像(教師画像)には、検出対象となる道路ミラーに映り込んだ移動体の種類と、検出対象となる移動体が表された領域を表す、その物体の外接矩形とがタグ付けされる。
DNN500は、このような多数の教師画像を用いて、例えば、誤差逆伝搬法といった学習手法に従って学習される。第2検出部32は、このように学習されたDNN500を識別器として利用することで、部分画像データから検出対象となる移動体、特に、多数の教師画像を用意できる移動体を精度良く検出できる。
このように、本実施形態による物体検出処理では、まず第1検出部31によって、低解像度の画像を使用して画像内の物体の位置及び範囲と、その物体の種類を検出しているので、カメラ2で撮影された高解像度の画像をそのまま使用する場合と比較して、画像内の物体を検出するための演算量を抑制することができる。
そしてさらに、第1検出部31は、道路ミラーに移動体が映り込んでいると判断したときに、道路ミラーが表された領域の画像上の位置及び範囲を第2検出部32に出力するようになっている。すなわち第1検出部31は、道路ミラーに移動体が映り込んでいると判断したときに限り、道路ミラーが表された領域の画像上の位置及び範囲を第2検出部32に出力するようになっている。
したがって換言すれば、第2検出部32は、第1検出部31において道路ミラーに移動体が映り込んでいると判断された場合に限り、カメラ2で撮影された高解像度の画像から道路ミラーの部分を抽出した高解像度の部分画像を使用して、道路ミラーに映り込んだ移動体の詳細な検出を行うことになる。
そのため、カメラ2で撮影された高解像度の画像をそのまま使用して、常に道路ミラーに映り込んだ移動体の詳細な検出を行うようにした場合と比較して、道路ミラー内の移動体を検出するための演算量を抑制することができる。そして、道路ミラーに映り込んだ移動体の詳細な検出を行うときは、高解像度の部分画像を使用するため、道路ミラーに映り込んだ移動体を精度良く検出することができる。
運転計画部33は、検出物体リスト内の各物体の位置、すなわちカメラ2で撮影された画像上に映っている各物体の位置に基づいて、各物体の動きを追跡する。すなわち運転計画部33は、検出物体リスト内の各物体の位置の時系列的な変化に基づいて、各物体の挙動(例えば、進行方向や停止状態であるかなど)を検出する。
また、運転計画部33は、道路ミラーに移動体が映り込んでいると判断されている場合には、さらにミラー内移動体リスト内の各移動体の位置、すなわちカメラ2で撮影された画像上の道路ミラー内に映り込んでいる各移動体の位置に基づいて、各移動体の動きを追跡する。すなわち運転計画部33は、道路ミラーに移動体が映り込んでいると判断されている場合には、さらにミラー内移動体リスト内の各移動体の位置の時系列的な変化に基づいて、各移動体の挙動を検出する。
そして運転計画部33は、道路ミラーに移動体が映り込んでいないと判断されている場合には、道路ミラーに移動体が映り込んでいると判断されていたときの当該移動体の挙動を考慮しつつ、検出物体リスト内の各物体の挙動(追跡結果)に基づいて、車両10がこれらの物体と衝突しないように、車両10の運転計画を作成し、作成した運転計画を車両制御部34に通知する。この際、運転計画部33は、例えば、車両10に搭載されたGPS受信機(図示せず)から得た車両10の現在位置情報と、メモリ22に記憶されている地図情報とを参照して、車両10の運転計画を作成するようにしてもよい。
この場合、例えば運転計画部33は、道路ミラーに移動体が映り込んでいると判断されていたときの当該移動体の進行方向が自車両に向かう方向であれば、道路ミラーから当該移動体が消えてから(すなわち道路ミラーに移動体が映り込んでいないと判断されてから)所定時間(例えば数秒)が経過したか、また、検出物体リスト内の各物体の中に、所定時間以内に自車両と衝突する可能性のある物体が存在していないか等の他車両との衝突の可能性の有無を判断し、車両10の運転計画を作成している。
一方で運転計画部33は、道路ミラーに移動体が映り込んでいると判断されている場合には、道路ミラーにその他の移動体が映り込んでいると判断されていたときの当該その他の移動体の挙動(追跡結果)を考慮しつつ、検出物体リスト内の各物体の挙動(追跡結果)と、さらにミラー内移動体リスト内の各移動体の挙動(追跡結果)と、に基づいて、車両10がこれらの物体及び移動体と衝突しないように、車両10の運転計画を作成し、作成した運転計画を車両制御部34に通知する。
この場合、例えば運転計画部33は、道路ミラーにその他の移動体が映り込んでいると判断されていたときの当該その他の移動体の進行方向が自車両に向かう方向であれば、道路ミラーから当該その他の移動体が消えてから所定時間が経過したか、また、検出物体リスト内の各物体の中に、所定時間以内に自車両と衝突する可能性のある物体が存在していないか、道路ミラー移動体が映っているが、当該移動体は所定時間以上停止しているか等の他車両との衝突の可能性の有無を判断し、車両10の運転計画を作成している。
なお運転計画は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。
このように本実施形態によれば、カメラ2で撮影した画像内の物体の挙動と、その画像内の道路ミラーに映り込んだ死角に存在する移動体の挙動と、に基づいた運転計画を作成することができるので、自動運転の安全性を向上させることができる。
なお本実施形態では、運転計画部33は、道路ミラーに移動体が映り込んでいると判断した時点、すなわち第1検出部31から道路ミラーに移動体が映り込んでいるという判断結果が出力されてきた時点で、一旦、安全を確保するために車両10を減速させる運転計画を作成するようにしている。
これにより、第1検出部31において道路ミラーに何らかの物体の映り込みが検出された時点で車両10を減速させることができるので、自動運転の安全性を一層向上させることができる。また車両10を減速することにより、結果として第2検出部32によって道路ミラーに映り込んだ移動体の挙動を検出するための処理時間を確保することができる。
また本実施形態の変形例として、運転計画を作成するにあたって、道路ミラーに移動体が映り込んでいる状態から映り込んでいない状態に遷移した場合に、道路ミラーに映り込んでいた移動体の進行方向が自車両に向かう方向(以下「自車両方向」という。)であったときは、映り込んでいない状態に遷移したときの画像(カメラ2で撮影された画像、又は当該画像を低解像度化した画像)に対して、道路ミラーに映り込んでいた移動体の画像をテンプレート画像とするテンプレートマッチングを行ってもよい。そして、このテンプレートマッチングによって、道路ミラーに移動体が映り込んでいない状態に遷移したときの画像内に映っている物体(すなわち検出物体リスト内の物体)の中に、道路ミラーに映り込んでいた移動体(すなわちミラー内移動体リスト内の移動体)が存在するか否かを判断するようにしてもよい。
これにより、テンプレートマッチングの結果、検出物体リスト内の物体の中に道路ミラーに映り込んでいた移動体が存在しないと判断されたときは、道路ミラーにもカメラ2で撮影された画像にも映らない死角領域に潜んでいて、自車両方向に向かう移動体が存在する可能性があることを把握することができる。そのため、このような移動体と衝突しないような運転計画を作成することができるため、自動運転の安全性を一層向上させることができる。
また本実施形態の変形例として、第2検出部32は、第1検出部31から出力されてきた、道路ミラーが表された領域の画像上の位置及び範囲に基づいて、解像度変換処理を施す前のカメラ2から受信した画像(すなわち高解像度の画像データ)に対して、道路ミラーとして表された領域を関心領域(ROI)として部分的に抽出する画像抽出処理を施して高解像度の部分画像データを生成するとともに、前記部分画像の時系列データを用いてオプティカルフローを計算する。そして第2検出部32は、この高解像度の部分画像データに加えて、追加チャネルとしてオプティカルフローも識別器に入力することで、その部分画像上の複数の領域のそれぞれについて、その領域に検出対象となる移動体が写っている確からしさをより高精度に求めることができる。
たとえば、入力画像がRGBの3チャネルの場合、第2検出部32はその画像に対するオプティカルフローの水平成分と垂直成分との合計2チャネルからなるオプティカルフローを計算し、前記3チャネルの画像入力と2チャネルのオプティカルフローを合体した5チャネルの入力を前記DNN500に入力する。この場合、DNN500は画像情報に加えてオプティカルフローを含む5チャネルの入力からなる教師データを用いて学習される。オプティカルフローは画素に物体の移動に関する情報が含まれるため、DNN500はより高精度に移動物体を検出することができる。オプティカルフローの計算には計算負荷がかかるが、当該実施例ではオプティカルフローの計算は、移動物体が映りこんでいるミラーの外接矩形にたいしてのみ行われるため、移動物体の高精度な検出を実現しながらも、計算量を可及的に低減することができる。
車両制御部34は、通知された運転計画に従って、加速、操舵、及び制動に関する運転操作を行うために必要な各種の制御部品を制御し、車両10の運転操作を自動的に実施する。車両制御部34には、必要に応じてこのような自動運転を実施するために必要な各種のパラメータ(例えば車速センサ(図示せず)によって検出された車速等)が入力される。
図6は、プロセッサ23により実行される、物体検出処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像を受信する度に、図6に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS1~S6の処理が物体検出処理に対応する。
ステップS1において、プロセッサ23は、カメラ2から受信した画像に対して解像度変換処理を施して低解像度化した低解像度の画像データを第1検出部31の識別器に入力することで、画像内の物体の位置及び範囲と、当該物体の種類と、をそれぞれ検出し、それらを検出物体リストに登録する。
ステップS2において、プロセッサ23は、画像内の物体の中に道路ミラーが存在していて、当該道路ミラーに移動体が映り込んでいるか否かを判断する。プロセッサ23は、画像内の物体の中に道路ミラーが存在していて、当該道路ミラーに移動体が映り込んでいる場合は、ステップS3の処理に進む。一方でプロセッサ23は、画像内の物体の中に道路ミラーが存在していない場合、又は道路ミラーが存在していても移動体が映り込んでいない場合は、ステップS4の処理に進む。
ステップS3において、プロセッサ23は、映り込みフラグFを1に設定する。映り込みフラグFは、画像内の物体の中に道路ミラーが存在していて、当該道路ミラーに移動体が映り込んでいると判断された場合に1に設定されるフラグであって、初期値は0に設定される。
ステップS4において、プロセッサ23は、映り込みフラグFを0に設定する。
ステップS5において、プロセッサ23は、道路ミラーの位置及び範囲に基づいて、解像度変換処理を施す前のカメラ2から受信した画像(すなわち高解像度の画像データ)に対して、道路ミラーとして表された領域を関心領域(ROI)として部分的に抽出する画像抽出処理を施すことにより高解像度の部分画像データを生成する。
ステップS6において、プロセッサ23は、高解像度の部分画像データを第2検出部32の識別器に入力することで、道路ミラー内の移動体の位置及び範囲と、当該移動体の種類と、をそれぞれ検出し、それらをミラー内移動体リストに登録する。
ステップS7において、プロセッサ23は、映り込みフラグFが0に設定されているか否かを判定する。プロセッサ23は、映り込みフラグFが0に設定されていれば、ステップS8の処理に進む。一方でプロセッサ23は、映り込みフラグFが1に設定されていれば、ステップS9の処理に進む。
ステップS8においてプロセッサ23は、映り込みフラグFが0であり、道路ミラーに移動体が映り込んでいないと判断されているときであるため、前述したように、道路ミラーに移動体が映り込んでいると判断されていたときの当該移動体の挙動を考慮しつつ、検出物体リスト内の各物体の挙動(追跡結果)に基づいて、車両10がこれらの物体と衝突しないように、車両10の運転計画を作成する。
ステップS9において、プロセッサ23は、前回処理時において、映り込みフラグFが0に設定されていたか否かを判定する。プロセッサ23は、前回処理時において、映り込みフラグFが0に設定されていた場合は、ステップS10の処理に進む。一方でプロセッサ23は、前回処理時において、映り込みフラグFが1に設定されていた場合は、ステップS11の処理に進む。
ステップS10において、プロセッサ23は、映り込みフラグFが0から1に変化したとき、すなわち、道路ミラーに何らかの移動体の映り込みが検出されたときであるので、一旦、安全を確保するために車両10を減速させる運転計画を作成する。
ステップS11において、プロセッサ23は、映り込みフラグFが1であり、道路ミラーに移動体が映り込んでいると判断されているときであるため、前述したように、道路ミラーにその他の移動体が映り込んでいると判断されていたときの当該その他の移動体の挙動(追跡結果)を考慮しつつ、検出物体リスト内の各物体の挙動(追跡結果)と、さらにミラー内移動体リスト内の各移動体の挙動(追跡結果)と、に基づいて、車両10がこれらの物体及び移動体と衝突しないように、車両10の運転計画を作成する。
ステップS12において、プロセッサ23は、作成された運転計画に従って、加速、操舵、及び制動に関する運転操作を行うために必要な各種の制御部品を制御し、車両10の運転操作を自動的に実施する。
以上説明した本実施形態による物体検出装置は、画像を低解像度化した画像データに基づいて、画像内の道路ミラーを含む物体の種類及び位置と、道路ミラーに映り込んだ移動体(移動可能物体)の有無と、を検出する第1検出部31と、道路ミラーに映り込んだ移動体が有る場合に、画像から道路ミラーの部分を抽出した高解像度の部分画像データに基づいて、道路ミラー内の移動体(移動可能物体)の種類と、道路ミラー内における移動体の位置と、を検出する第2検出部32と、を備える。
この本実施形態による物体検出装置によれば、まず第1検出部31によって、低解像度の画像を使用して画像内の道路ミラーを含む各物体の種類や位置を検出しているので、カメラ2で撮影された高解像度の画像をそのまま使用する場合と比較して、画像内の各物体の種類や位置を検出するための演算量を抑制することができる。
そして第2検出部32は、第1検出部31において道路ミラーに映り込み物体が有ると判断された場合に限り、カメラ2で撮影された高解像度の画像から道路ミラーの部分を抽出した高解像度の部分画像を使用して、道路ミラー内の移動体の種類や位置を検出するようになっている。そのため、カメラ2で撮影された高解像度の画像をそのまま使用して、常に道路ミラーに映り込んだ移動体の種類や位置の検出を行うようにした場合と比較して、道路ミラーに映り込んだ移動体の種類や位置を検出するための演算量を抑制することができる。そして、道路ミラーに映り込んだ移動体の種類や位置の検出を行うときは、高解像度の部分画像を使用するため、道路ミラーに映り込んだ死角に存在する移動体の種類や位置を精度良く検出することができる。
また、第1検出部31では、カメラ2で撮影された画像上で物体の位置を検出し、一方で第2検出部32では、道路ミラー内における移動体の位置を検出しており、本実施形態による物体検出装置ではこれらを独立に検出している。
ここで道路ミラー内における座標系は、車両10に対する道路ミラーの光学的な配置(例えば車両10に対して道路ミラーが互いに向き合うように配置された状態からどの程度傾いているかなど)に応じて、道路ミラー外のカメラ2で撮影された画像上における座標系とは異なるものとなる。したがって、仮にカメラ2で撮影された画像上で道路ミラー内の移動体の位置を検出し、当該移動体の動きを追跡したとしても、当該移動体は、カメラ2で撮影された画像上における座標系とは異なる座標系で動いているものであるため、実際にその移動体がどの方向に向かって動いているのかを把握することは難しい。
これに対し、本実施形態では、第2検出部32において、道路ミラー内における移動体の位置を独立して検出しているため、道路ミラー内における座標系に応じて移動体の挙動を検出することができる。したがって、道路ミラーに映った移動体の挙動を精度良く予測することができる。
また本実施形態によれば、第1検出部31は、第1の学習用画像と、第1の学習用画像内の物体の種類、位置及び道路ミラーに映り込んだ移動体の有無と、が対応付けられた教師データを用いて学習させた学習済みの畳み込み層を有するニューラルネットワーク(DNN400)に、画像データを入力することで、画像内の物体の種類及び位置と、道路ミラーに映り込んだ移動体の有無と、を検出するように構成されている。第2検出部32は、道路ミラーが含まれる第2の学習用画像と、第2の学習用画像内の道路ミラーに映り込んだ移動体の種類及び位置と、が対応付けられた教師データを用いて学習させた学習済みの畳み込み層を有するニューラルネットワーク(DNN500)に、部分画像データを入力することで、道路ミラー内の移動体の種類と、道路ミラー内における移動体の位置と、を検出するように構成されている。
これにより、多数の教師画像を用いて学習されたDNN400、500によって、画像内の物体の種類及び位置等を精度良く検出することができる。
また本実施形態による車両制御システムは、画像を撮影するカメラ2を備えると共に、物体検出装置が実装されており、画像内における物体の位置の時系列データと、道路ミラー内における移動体の位置の時系列データと、に基づいて、車両10の運転計画を作成する運転計画部33と、運転計画に従って車両10を操作する車両制御部34と、を備える。
このように、カメラ2で撮影した画像内の物体の挙動と、その画像内の道路ミラーに映り込んだ死角に存在する移動体の挙動と、に基づいた運転計画を作成し、運転計画に従って車両10を操作することで、自動運転の安全性を向上させることができる。
また本実施形態による運転計画部33は、道路ミラーに映り込んだ移動体の有無に基づいて運転計画を作成するようにさらに構成され、第1検出部31において道路ミラーに映り込んだ移動体が有ると検出されたときは、車両10を減速させる運転計画を作成するようになっている。
これにより、第1検出部31において道路ミラーに何らかの物体の映り込みが検出された時点で車両10を減速させることができるので、自動運転の安全性を一層向上させることができる。また車両10を減速することにより、結果として第2検出部32によって道路ミラーに映り込んだ移動体の種類及び位置を検出するための処理時間を確保することができる。
また本実施形態の変形例によれば、運転計画部33は、道路ミラーに映り込んだ移動体が有ると判断されている状態から無いと判断されている状態に遷移したときは、画像内における物体の中に、道路ミラーに映り込んでいた移動体が有るか否かを判断した上で運転計画を作成するようになっている。
このような判断を行うことで、道路ミラーにもカメラ2で撮影された画像にも映らない死角領域に潜んでいて、自車両方向に向かう移動体が存在する可能性があることを把握することができる。そのため、このような移動体と衝突しないような運転計画を作成することができるため、自動運転の安全性を一層向上させることができる。
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。
例えば車両10には、複数のカメラ2が設けられてもよい。この場合には、プロセッサ23は、カメラ2ごとに、そのカメラ2から得られた画像に対して第1検出部31及び第2検出部32による物体検出処理を実行すればよい。そしてプロセッサ23は、各カメラにより得られた画像から検出された物体に基づいて、運転計画部33及び車両制御部34による処理を実行すればよい。
また第1検出部31及び第2検出部32において、DNN以外の識別器を利用するようにしてもよい。
また第2検出部32において、ミラー内移動体リストに登録された各移動体の動きを追跡し、各移動体の挙動を検出するようにしてもよい。
また物体検出装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
1 車両制御システム
2 カメラ
3 電子制御装置(物体検出装置)
4 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 第1検出部
32 第2検出部
33 運転計画部
34 車両制御部

Claims (6)

  1. 車両の周囲の画像を生成する撮像装置と、
    制御装置と、
    を備える車両制御システムであって、
    前記制御装置は、
    前記画像を低解像度化した画像データに基づいて、前記画像内の道路ミラーを含む物体の種類及び位置と、前記道路ミラーに映り込んだ移動可能物体の有無と、を検出する第1検出部と、
    前記道路ミラーに映り込んだ前記移動可能物体が有る場合に、前記画像から前記道路ミラーの部分を抽出した高解像度の部分画像データに基づいて、前記道路ミラー内の前記移動可能物体の種類と、前記道路ミラー内における前記移動可能物体の位置と、を検出する第2検出部と、
    前記画像内における前記物体の位置の時系列データと、前記道路ミラー内における前記移動可能物体の位置の時系列データと、に基づいて、前記車両の運転計画を作成する運転計画部と、
    前記運転計画に従って、前記車両を操作する車両制御部と、
    を備え、
    前記運転計画部は、
    前記道路ミラーに映り込んだ前記移動可能物体の有無に基づいて前記運転計画を作成するようにさらに構成され、
    前記第1検出部において前記道路ミラーに映り込んだ前記移動可能物体が有ると判断された時点で、前記車両を減速させる運転計画を作成する、
    車両制御システム。
  2. 前記第1検出部は、
    第1の学習用画像と、前記第1の学習用画像内の物体の種類、位置及び前記道路ミラーに映り込んだ前記移動可能物体の有無と、が対応付けられた教師データを用いて学習させた学習済みの畳み込み層を有するニューラルネットワークに、前記画像データを入力することで、前記画像内の前記物体の種類及び位置と、前記道路ミラーに映り込んだ前記移動可能物体の有無と、を検出する、
    請求項1に記載の車両制御システム。
  3. 前記第2検出部は、
    前記道路ミラーが含まれる第2の学習用画像と、前記第2の学習用画像内の前記道路ミラーに映り込んだ前記移動可能物体の種類及び位置と、が対応付けられた教師データを用いて学習させた学習済みの畳み込み層を有するニューラルネットワークに、前記部分画像データを入力することで、前記道路ミラー内の前記移動可能物体の種類と、前記道路ミラー内における前記移動可能物体の位置と、を検出する、
    請求項1又は請求項2に記載の車両制御システム。
  4. 前記運転計画部は、
    前記道路ミラーに映り込んだ前記移動可能物体が有ると判断されている状態から無いと判断されている状態に遷移したときは、前記画像内における前記物体の中に、前記道路ミラーに映り込んでいた前記移動可能物体が存在しているか否かを判断した上で前記運転計画を作成するようにさらに構成される、
    請求項1から請求項3までのいずれか1項に記載の車両制御システム。
  5. 車両の周囲の画像を生成する撮像装置と、
    制御装置と、
    を備える車両の制御方法であって、
    前記制御装置によって、
    前記画像を低解像度化した画像データに基づいて、前記画像内の道路ミラーを含む物体の種類及び位置と、前記道路ミラーに映り込んだ移動可能物体の有無と、を検出し、
    前記道路ミラーに映り込んだ前記移動可能物体が有る場合に、前記画像から前記道路ミラーの部分を抽出した高解像度の部分画像データに基づいて、前記道路ミラー内の前記移動可能物体の種類と、前記道路ミラー内における前記移動可能物体の位置と、を検出し、
    前記画像内における前記物体の位置の時系列データと、前記道路ミラー内における前記移動可能物体の位置の時系列データと、に基づいて、前記車両の運転計画を作成し、
    前記運転計画に従って、前記車両を操作し、
    前記制御装置によってさらに、
    前記道路ミラーに映り込んだ前記移動可能物体の有無に基づいて前記運転計画を作成し、
    前記道路ミラーに映り込んだ前記移動可能物体が有ると判断された時点で、前記車両を減速させる運転計画を作成する、
    車両の制御方法。
  6. 車両の周囲を撮影した画像を低解像度化した画像データに基づいて、前記画像内の道路ミラーを含む物体の種類及び位置と、前記道路ミラーに映り込んだ移動可能物体の有無と、を検出し、
    前記道路ミラーに映り込んだ前記移動可能物体が有る場合に、前記画像から前記道路ミラーの部分を抽出した高解像度の部分画像データに基づいて、前記道路ミラー内の前記移動可能物体の種類と、前記道路ミラー内における前記移動可能物体の位置と、を検出し、
    前記画像内における前記物体の位置の時系列データと、前記道路ミラー内における前記移動可能物体の位置の時系列データと、に基づいて、前記車両の運転計画を作成すると共に、前記道路ミラーに映り込んだ前記移動可能物体の有無に基づいて前記運転計画を作成し、前記道路ミラーに映り込んだ前記移動可能物体が有ると判断された時点で前記車両を減速させる運転計画を作成し、
    前記運転計画に従って、前記車両を操作する、
    ことをコンピュータに実行させるコンピュータプログラム。
JP2018180489A 2018-09-26 2018-09-26 車両制御システム、車両の制御方法及びコンピュータプログラム Active JP7135665B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018180489A JP7135665B2 (ja) 2018-09-26 2018-09-26 車両制御システム、車両の制御方法及びコンピュータプログラム
US16/571,635 US11423663B2 (en) 2018-09-26 2019-09-16 Object detection device, object detection method, and non-transitory computer readable medium comprising computer program for object detection-use

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018180489A JP7135665B2 (ja) 2018-09-26 2018-09-26 車両制御システム、車両の制御方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2020052647A JP2020052647A (ja) 2020-04-02
JP7135665B2 true JP7135665B2 (ja) 2022-09-13

Family

ID=69884911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018180489A Active JP7135665B2 (ja) 2018-09-26 2018-09-26 車両制御システム、車両の制御方法及びコンピュータプログラム

Country Status (2)

Country Link
US (1) US11423663B2 (ja)
JP (1) JP7135665B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2598082A (en) * 2020-07-08 2022-02-23 Continental Automotive Gmbh Road mirror detection system and method
JP7149990B2 (ja) * 2020-07-13 2022-10-07 三菱ロジスネクスト株式会社 人検知装置、産業車両、及び人検知方法
CN112102234B (zh) * 2020-08-06 2022-05-20 复旦大学 基于目标检测神经网络的耳硬化病灶检测及诊断系统
JP6889319B1 (ja) * 2020-08-27 2021-06-18 朝日航洋株式会社 地図データ生成装置および地図データ生成方法
US11899468B2 (en) 2020-12-22 2024-02-13 Waymo Llc Sensor for flashing light detection
JP7484758B2 (ja) 2021-02-09 2024-05-16 トヨタ自動車株式会社 ロボット制御システム
JP2022156732A (ja) * 2021-03-31 2022-10-14 本田技研工業株式会社 物体検知装置、物体検知方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018106668A (ja) 2016-12-27 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、情報処理方法およびプログラム
JP2018107759A (ja) 2016-12-28 2018-07-05 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、及び画像処理システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3343533B1 (en) * 2016-12-27 2019-06-19 Panasonic Intellectual Property Corporation of America Information processing apparatus, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018106668A (ja) 2016-12-27 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、情報処理方法およびプログラム
JP2018107759A (ja) 2016-12-28 2018-07-05 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、及び画像処理システム

Also Published As

Publication number Publication date
US20200097740A1 (en) 2020-03-26
JP2020052647A (ja) 2020-04-02
US11423663B2 (en) 2022-08-23

Similar Documents

Publication Publication Date Title
JP7052663B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
JP7147420B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
KR102499398B1 (ko) 차선 검출 방법 및 장치
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
US11003928B2 (en) Using captured video data to identify active turn signals on a vehicle
JP7078021B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
KR20190039648A (ko) 자동차의 블라인드 스팟 모니터링 방법 및 이를 이용한 블라인드 스팟 모니터
TW202020811A (zh) 用於基於障礙物檢測校正高清晰度地圖的系統和方法
US11829153B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
WO2021096629A1 (en) Geometry-aware instance segmentation in stereo image capture processes
US11776277B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
Liu et al. Vehicle detection and ranging using two different focal length cameras
JP7226368B2 (ja) 物体状態識別装置
US11900690B2 (en) Apparatus, method, and computer program for identifying state of signal light, and controller
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
KR101875517B1 (ko) 영상 처리 방법 및 장치
JP2020076714A (ja) 位置姿勢推定装置
US20230177844A1 (en) Apparatus, method, and computer program for identifying state of lighting
CN113492850B (zh) 倾斜角检测装置及控制装置
US20220012506A1 (en) System and method of segmenting free space based on electromagnetic waves
JP2024024422A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP2022079954A (ja) 物体検出装置
JP2022146384A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R151 Written notification of patent or utility model registration

Ref document number: 7135665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151