JP2022034086A - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents
情報処理装置、および情報処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP2022034086A JP2022034086A JP2018230177A JP2018230177A JP2022034086A JP 2022034086 A JP2022034086 A JP 2022034086A JP 2018230177 A JP2018230177 A JP 2018230177A JP 2018230177 A JP2018230177 A JP 2018230177A JP 2022034086 A JP2022034086 A JP 2022034086A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- frame
- unit
- dimensional box
- box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 47
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000001514 detection method Methods 0.000 claims description 160
- 238000012937 correction Methods 0.000 claims description 92
- 238000012545 processing Methods 0.000 claims description 81
- 238000000034 method Methods 0.000 claims description 60
- 230000008569 process Effects 0.000 claims description 50
- 238000009434 installation Methods 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 32
- 238000004458 analytical method Methods 0.000 description 22
- 230000033001 locomotion Effects 0.000 description 14
- 230000001133 acceleration Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 230000010391 action planning Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000037007 arousal Effects 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/247—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
- G05D1/249—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Abstract
【課題】車両の周囲の物体における3次元情報を用いて、周囲の車両の存在する位置を適切に取得できるようにする。【解決手段】カメラが自車の周囲の画像を撮像し、撮像された画像内における自車の周囲の車両の領域がフレームとして検出される。自車の周囲の物体の3次元情報が検出されて、3次元情報に基づいて、自車の周囲の車両の位置を示す3次元ボックスが生成される。3次元ボックスがフレームに基づいて、補正されて、3次元ボックスが配置されることにより周囲情報が生成される。本開示は、車載システムに適用することができる。【選択図】図4
Description
本開示は、情報処理装置、および情報処理方法、並びにプログラムに関し、特に、車両の周囲の物体における3次元検出情報を用いて、周囲の車両の存在する位置を適切に取得できるようにした情報処理装置、および情報処理方法、並びにプログラムに関する。
自動運転を実現するための技術が提案されている。
自動運転を実現する上では、周囲の状況を認識して、他車や歩行者との接触を回避する走行経路を決定し、車両を移動させることが必要とされる。
自動運転を実現させる上で必要な一連の動作のうち、自らの周囲の状況を認識する技術については、カメラにより撮像される画像に基づいた物体検出や、ミリ波レーダやLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などにより得られる3次元検出情報等の複数の検出結果を用いて取得する技術が知られている。
例えば、カメラにより撮像された矩形の画像内における物体認識結果に、レーダ等の3次元検出情報を合成する技術が開示されている(特許文献1参照)。
しかしながら、特許文献1の技術においては、3次元検出情報を2次元の画像内で合成しているため、3次元検出情報が2次元の情報として扱われてしまっており、物体の位置を適切に取得できない恐れがあった。
また、3次元検出情報は、自車の周囲の車両の表面分布として検出されるため、3次元検出情報を用いて、周囲の車両の位置を特定しようとしても、車両が存在する空間の情報がないので、適切に車両の位置を特定することができない。
本開示は、このような状況に鑑みてなされたものであり、特に、3次元検出情報を用いて周囲に存在する車両の存在する位置情報を適切に取得できるようにするものである。
本開示の一側面の情報処理装置は、自車の周囲の画像を撮像する撮像部と、前記画像内における前記自車の周囲の車両の領域をフレームとして検出するフレーム検出部と、前記自車の周囲の物体の3次元情報を検出する3次元情報検出部と、前記3次元情報検出部により検出された3次元情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスを生成する3次元ボックス生成部と、前記フレームに基づいて、前記3次元ボックスを補正する3次元ボックス補正部とを備える情報処理装置である。
本開示の一側面の情報処理方法およびプログラムは、情報処理装置に対応する。
本開示の一側面においては、自車の周囲の画像が撮像され、前記画像内における前記自車の周囲の車両の領域がフレームとして検出され、前記自車の周囲の物体の3次元情報が検出され、検出された3次元情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスが生成され、前記フレームに基づいて、前記3次元ボックスが補正される。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.本開示の概要
2.本開示の車両を制御する車両制御システムの構成例
3.勾配路における障害物の誤判定を抑制する構成
4.衝突判定処理
5.ソフトウェアにより実行させる例
1.本開示の概要
2.本開示の車両を制御する車両制御システムの構成例
3.勾配路における障害物の誤判定を抑制する構成
4.衝突判定処理
5.ソフトウェアにより実行させる例
<<1.本開示の概要>>
<3次元位置情報の誤検出対策>
本開示の車両制御システムは、自動運転制御に必要とされる、車両の3次元位置情報を適切に取得できるようにするものである。
<3次元位置情報の誤検出対策>
本開示の車両制御システムは、自動運転制御に必要とされる、車両の3次元位置情報を適切に取得できるようにするものである。
本開示の概要について説明する。
車両の3次元位置情報とは、例えば、ミリ波レーダにより検出される3次元検出結果に基づいた自車の周囲の車両の位置を方形状の3次元ボックスにより表現する情報である。
ここで、3次元ボックスとは、ミリ波レーダによる対象物からの反射波のピークが検出される位置の分布のうち、同一の方向に同一の速度で移動するもの同士が同一車両からの反射波であるものとみなされてグルーピングされるとき、同一のグループの分布が包含される範囲を、方形状の範囲として表現したものである。
しかしながら、ミリ波レーダの検出結果については、反射波のピークを基準とするため、例えば、壁や路面などの、自車の周辺の車両以外の物体からの検出結果を、車両からの反射波として誤検出してしまうことがあった。
尚、以降において、現実には車両が存在しないにもかかわらず、誤検出により3次元ボックスが生成される現象をゴースト現象と称し、誤検出により生成された3次元ボックスをゴーストと称する。
そこで、本開示においては、ゴースト現象の発生を抑制するため、カメラにより撮像される画像を用いた物体認識結果と、3次元ボックスとのマッチングを行い、マッチングが取れなかった3次元ボックスをゴーストと見なして除去することでゴースト現象の発生を抑制する。
すなわち、図1の画像Pで示されるように、画像に基づいた物体認識結果として車両であることを示す物体認識結果がフレームF11,F12で表されているものとする。また、図1においては、フレームF11,F12のそれぞれの対応する位置に、3次元検出情報に基づいて、車両が存在することを示す3次元ボックスBm11,Bm12が検出されているものとする。
図1のような場合、画像に基づいた車両を認識する物体認識結果であるフレームF11が、3次元検出結果に基づいた車両の位置を示す3次元ボックスBm11とマッチングするため、3次元ボックスBm11はゴーストではないものとみなすことができる。
同様に、画像に基づいた車両を認識する物体認識結果であるフレームF12が、3次元検出結果に基づいた車両の位置を表す3次元ボックスBm12とマッチングするため、3次元ボックスBm12はゴーストではないものとみなすことができる。
これに対して、3次元検出結果に基づいた車両の位置を表す3次元ボックスBm13については、現実には車両が存在しないにもかかわらず、生成されたものであり、対応する画像に基づいた車両を認識する物体認識結果であるフレームが存在しないため、ゴーストとみなされて、処理対象から削除される。
このような処理により、ゴーストを排除して、適切な3次元ボックスのみを残すことが可能となる。
<3次元位置情報の補正>
3次元ボックスは、上述したようにミリ波レーダの反射波のピーク位置の分布に基づいて生成される。このため、例えば、図2の画像PAで示されるように、自車の走行方向の右前方にトラックのような車両MTが存在する場合、例えば、ピーク位置は、図中の丸印のように表現され、ピーク位置の分布は車両MTの左側面の表面に集中することになる。
3次元ボックスは、上述したようにミリ波レーダの反射波のピーク位置の分布に基づいて生成される。このため、例えば、図2の画像PAで示されるように、自車の走行方向の右前方にトラックのような車両MTが存在する場合、例えば、ピーク位置は、図中の丸印のように表現され、ピーク位置の分布は車両MTの左側面の表面に集中することになる。
このため、車両MTの左側面の表面に分布するピーク位置の情報に基づいて3次元ボックスBmが生成されることにより、図2の画像PBで示されるように、実際の車両MTの本体が存在する位置から、図中の左手前方向に3次元ボックスBmがずれて生成される。
このように、車両が実際に存在する位置からずれた位置に3次元ボックスBmが生成されると、自車と先行する車両MTとの位置関係が誤った状態で認識されることにより、例えば、車両MTとの接近が誤検出されて、衝突回避のための急ブレーキや急ハンドルによる誤動作を引き起こす恐れがあった。
そこで、本開示においては、図2の画像Pcで示されるように、3次元ボックスBmの位置が、画像に基づいた車両の物体認識結果であるフレームFp内に収まるように、実線で示される3次元ボックスBrのような位置にずらして補正されるようにする。このような処理により、図2の3次元ボックスBrは、車両MTの存在する適切な位置に補正されて生成されることになるので、3次元ボックスBrに基づいて適切に車両MTの位置を取得することが可能となる。
これにより、3次元ボックスは、本来の車両が存在する位置に補正されて生成させることで誤検出の抑制が可能となる。
結果として、自車との位置関係が適切な位置に、周囲の車両を表現する3次元ボックスを生成することが可能となる。
<<2.本開示の車両を制御する車両制御システムの構成例>>
次に、図3のブロック図を参照して、本開示の車両の車両制御システムについて説明する。
次に、図3のブロック図を参照して、本開示の車両の車両制御システムについて説明する。
図3は、本開示の車両の動作を制御する車両制御システム100の概略的な機能の構成例を示すブロック図である。
なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
<<3.3次元ボックスを適切に取得する構成>>
次に、図4のブロック図を参照して、3次元ボックスを適切に取得する構成について説明する。尚、図4は、図3を参照して説明した車両制御システム100を実現する機能の構成例のうち、3次元ボックスを適切に取得するための構成であるデータ取得部102と車外情報検出部141を抜粋した構成を示している。
次に、図4のブロック図を参照して、3次元ボックスを適切に取得する構成について説明する。尚、図4は、図3を参照して説明した車両制御システム100を実現する機能の構成例のうち、3次元ボックスを適切に取得するための構成であるデータ取得部102と車外情報検出部141を抜粋した構成を示している。
データ取得部102は、カメラ201、およびミリ波レーダ202を備えている。カメラ201、およびミリ波レーダ202は、いずれも車両11の前方やフロントウィンドウの上部など、車両11の走行方向の前方における物体を検出する。
カメラ201は、走行方向の前方の画像を撮像し、自動運転制御部112における検出部131の車外情報検出部141に出力する。
ミリ波レーダ202は、走行方向の前方にミリ波帯の電波を照射し、物体からの反射波を受信し、反射波のピークからなる受信結果の分布を3次元検出結果として、自動運転制御部112における検出部131の車外情報検出部141に出力する。
車外情報検出部141は、カメラ201により撮像された画像、およびミリ波レーダ202の3次元検出結果に基づいて、車両11の前方の物体認識を行うと共に、認識結果に基づいて自車の周囲の車両の位置情報からなる周囲情報を生成する。
より詳細には、車外情報検出部141は、信号処理部211、物体認識部212、信号処理部213、物体認識部214、3次元ボックス補正部215、および周囲情報生成部216を備えている。
信号処理部211は、カメラ201により撮像された画像信号に基づいて、RGBのそれぞれのデモザイク処理、ノイズ除去、および諧調補正等を行うとともに、画像を生成して物体認識部212に出力する。
物体認識部212は、信号処理部211より出力された画像に基づいて、例えば、セマンティックセグメンテーションにより画素単位で画像内に撮像されている物体を認識する。また、物体認識部212は、物体認識結果のうち、車両とみなされるフレーム(領域)の情報を3次元ボックス補正部215に出力する。ここでいうフレームとは、例えば、図1のフレームF11,F12に対応するものである。
信号処理部213は、ミリ波レーダ202の検出結果である照射したミリ波帯の電波のピーク強度の反射波の分布からなる受信結果に基づいて、距離、速度、および移動方向(角度)からなる3次元検出情報を生成し、物体認識部214に出力する。
物体認識部214は、信号処理部213より出力された3次元検出情報に基づいて、例えば、同一の距離、同一の速度、および同一の移動方向(角度)の3次元検出情報の点群情報の分布をグルーピングし、同一グループの点群情報の分布を包含する方形状の範囲を、車両の存在する範囲を示す3次元ボックスとして特定し、3次元ボックス補正部215に出力する。ここでいう、3次元ボックスとは、例えば、図1の3次元ボックスBm11,Bm12である。
3次元ボックス補正部215は、物体認識部214より供給される3次元ボックスの位置情報を、物体認識部212より供給されるフレームの情報に基づいて補正して、周囲情報生成部216に出力する。
より詳細には、3次元ボックス補正部215は、3次元ボックスと、フレームとのマッチングにより同一位置に存在する3次元ボックスを抽出し、それ以外の3次元ボックスをゴーストとみなして除去する。
3次元ボックス補正部215は、3次元ボックスと、フレームとのペアのそれぞれについてラップ率を求め、所定のラップ率よりも高いペアをマッチングしているものとみなす。
ここで、ラップ率とは、3次元ボックスとフレームとのそれぞれの2次元画像内における領域の総面積に対する同一の範囲、すなわち、ラップしている範囲の割合であり、図5で示される3次元ボックスBmとフレームFpの場合、以下の式(1)により算出される。
Rr=R/(P+M-R)
・・・(1)
・・・(1)
ここで、Rrは、ラップ率であり、Mは、画像内における3次元ボックスBmが存在する領域の面積(2次元の面積)であり、Pは、フレームFpの面積であり、Rは、3次元ボックスBmとフレームFpとがラップしている範囲の面積である。
3次元ボックス補正部215は、3次元ボックスとフレームとの一部でも重なっているペアを検索すると共に、検索されたペアにおけるラップ率を算出して、ラップ率が所定値よりも高い場合、ペアを構成する3次元ボックスがゴーストではなく、車両の位置に対応する3次元ボックスであるものとみなす。
そして、3次元ボックス補正部215は、ペアとして認識した3次元ボックスをフレーム内に収めるように補正する。
すなわち、図6の画像Paで示されるような、3次元ボックスBmとフレームFpとのラップ率が所定値よりも高く、双方によりペアが構成されることが確認されている場合、図6の画像Pbで示されるように、フレームFp内に収まるように3次元ボックスBmを補正することで、3次元ボックスBrを生成する。
ミリ波レーダ202の検出結果に基づいて得られる3次元ボックスは、距離方向については高精度であるが、水平方向および垂直方向については精度が低い。一方、カメラ201により撮像された画像に基づいたフレームは、水平方向および垂直方向については、高精度に得られるが、距離方向の情報は得られない。
そこで、3次元ボックス補正部215は、3次元ボックスBmを3次元ボックスBrに補正する際には、水平方向、および垂直方向について、画像内の情報を利用して補正し、全体としてフレームFp内に収まるように補正する。
より詳細には、水平方向については、図7で示されるように、カメラ201の撮像面201aにおける車両として認識される物体の幅(ピクセル数)xとするとき、実際の車両として認識される物体の幅yは、他車までの距離Dと焦点距離fとの関係から以下の式(2)により求めることができる。
y=D×x/f
・・・(2)
・・・(2)
ここで、式(2)において、yは、車両(他車)として認識された物体の実際の幅であり、Dは、ミリ波レーダ202の検出結果に基づいた自車から他車までの距離であり、xは、カメラ201における撮像面上の幅(ピクセル数)であり、fはカメラ201に用いられる図示せぬ光学系(レンズ)の焦点距離である。
同様に、垂直方向については、図8で示されるように、カメラ201の撮像面201aにおける車両として認識される物体と路面との境界からの高さ(ピクセル数)hとするとき、実際の車両として認識される物体の高さHは、他車までの距離Dと焦点距離fとの関係から以下の式(3)により求めることができる。
H=D×h/f
・・・(3)
・・・(3)
ここで、式(3)において、Hは、車両(他車)として認識された物体の実際の高さであり、Dは、ミリ波レーダ202の検出結果に基づいた自車から他車までの距離であり、hは、カメラ201における撮像面上の他車の路面との境界からの高さ(ピクセル数)であり、fはカメラ201に用いられる図示せぬ光学系(レンズ)の焦点距離である。
すなわち、上述した式(2),式(3)を用いた車両の水平方向の幅と垂直方向の高さに基づいて求められる断面と、ミリ波レーダ202の検出結果より得られる距離(奥行き)の情報とに基づいて、画像より求められるフレームFp内に収まるような位置になるように3次元ボックスBmが補正されることにより、3次元ボックスBrが求められる。
<フレームの他の例>
以上においては、フレームは、カメラ201により撮像された画像内における物体認識結果が車両である領域である例について説明してきたが、2次元の画像に基づいて得られる3次元ボックスの存在する領域をフレームとして用いるようにしてもよい。
以上においては、フレームは、カメラ201により撮像された画像内における物体認識結果が車両である領域である例について説明してきたが、2次元の画像に基づいて得られる3次元ボックスの存在する領域をフレームとして用いるようにしてもよい。
2次元の画像より、車両として認識される3次元検出情報を3次元ボックスとして求める技術としては、例えば、Mobileye社(商標)(https://www.mobileye.com/our-technology/参照)製の3D Boundary Box Vehicle Detectionが知られている。
2次元の画像より、車両として認識される3次元検出情報を3次元ボックスとして求める場合、例えば、図9の画像P11で示されるように、画像の情報のみで、車両が存在する位置に3次元ボックスBp11,Bp12が求められる。また、図9の画像P12で示されるように、画像の情報のみで、車両が存在する位置に3次元ボックスBp21乃至Bp24が求められる。
しかしながら、2次元の画像のみから3次元ボックスを求める場合、単眼カメラにより撮像された2次元の画像から車両の存在する範囲を推定して3次元ボックスが生成されることになるため、ミリ波レーダの距離精度と比較して低精度である。
そこで、本開示において、3次元ボックス補正部215は、カメラ201により撮像された画像に基づいた3次元ボックスの画像内の位置(2次元画像内の位置)に、ミリ波レーダ202の検出結果に基づいた3次元ボックスが収まるように補正する。
すなわち、本開示の3次元ボックス補正部215は、基本的にミリ波レーダ202の検出結果に基づいた3次元ボックスを、カメラ201により撮像された2次元の画像内における車両が存在する領域、または、2次元の画像内における3次元ボックスの領域内に収まるように補正する。
このような処理により、水平方向および垂直方向の精度が高いカメラ201により撮像された画像の情報と、距離精度の高いミリ波レーダ202の検出結果とが合成されることになるので、高精度な3次元ボックスを求めることが可能となる。
周囲情報生成部216は、3次元ボックス補正部215より供給される3次元ボックスの情報に基づいて、周囲情報を生成して出力する。
周囲情報とは、自車と周囲の他車との位置関係を示す情報であり、例えば、図10で示されるようなものである。
すなわち、図10の周囲情報においては、自車を示す3次元ボックスM11、および周囲の他車の3次元ボックスM12乃至M16が示されており、3次元ボックスM12乃至M16のそれぞれには進行方向を示す矢印が付されている。
矢印は、ミリ波レーダ202の検出結果として同一の位置、同一の速度、および同一の方向の検出結果としてグループ化された分布における速度と方向の情報の平均値により設定される。
車外情報検出部141の後段においては、この周囲情報に基づいて、周囲の車両との距離に応じた衝突判定等がなされることにより、自動運転の制御がなされる。
<周囲情報生成処理>
次に、図11のフローチャートを参照して、周囲情報生成処理について説明する。
次に、図11のフローチャートを参照して、周囲情報生成処理について説明する。
ステップS11において、カメラ201は、走行方向前方の所定の範囲の画像を撮像し、画像信号として車外情報検出部141に出力する。
ステップS12において、車外情報検出部141の信号処理部211は、カメラ201により撮像された画像信号に基づいて、RGBのそれぞれのデモザイク処理、ノイズ除去、および諧調補正等を行うとともに、画像を生成して物体認識部212に出力する。
ステップS13において、物体認識部212は、信号処理部211より出力された画像に基づいて、例えば、セマンティックセグメンテーションにより画素単位で画像内に撮像されている物体がどのようなものであるのかを認識する。また、物体認識部212は、物体認識結果のうち、車両とみなされるフレーム(領域)の情報を3次元ボックス補正部215に出力する。
ステップS14において、ミリ波レーダ202は、ミリ波帯の電波を走行方向前方の所定の範囲に照射し、ピーク強度の反射波の分布からなる3次元検出結果を車外情報検出部141に出力する。
ステップS15において、車外情報検出部141の信号処理部213は、3次元検出結果に基づいて、距離、速度、および移動方向(角度)からなる3次元検出情報を生成し、物体認識部214に出力する。
ステップS16において、物体認識部214は、3次元検出結果を、同一の位置、同一の速度、および同一の方向毎のグループとなるようにグルーピングを行う。
ステップS17において、物体認識部214は、グルーピングの結果に基づいて、3次元ボックスを生成し、3次元ボックス補正部215に出力する。
ステップS18において、3次元ボックス補正部215は、物体認識部212より供給される画像内の車両の領域であるフレームの情報と、物体認識部214より供給される3次元ボックスの情報に基づいて、3次元ボックス補正処理を実行して、3次元ボックスの位置を補正して周囲情報生成部216に出力する。
尚、3次元ボックス補正処理については、図12のフローチャートを参照して、詳細を後述する。
ステップS19において、周囲情報生成部216は、3次元ボックス補正処理により位置が補正された3次元ボックスの情報に基づいて、図10を参照して説明した周囲情報を生成して出力する。
ステップS20において、車外情報検出部141は、周囲情報生成処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS11に戻り、それ以降の処理が繰り返される。
そして、ステップS20において、終了が指示された場合、処理は、終了する。
以上の一連の処理により、カメラ201により撮像された画像と、ミリ波レーダ202の検出結果とに基づいて、自車の周囲に存在する車両の位置情報が、3次元ボックスとして求められ、3次元ボックスの情報に基づいて周囲情報が生成される。
<3次元ボックス補正処理>
次に、図12のフローチャートを参照して、3次元ボックス補正処理について説明する。
次に、図12のフローチャートを参照して、3次元ボックス補正処理について説明する。
ステップS31において、3次元ボックス補正部215は、画像の車両の領域であるフレームの情報と、3次元ボックスの情報とについて、それぞれ対応する位置に存在するペアを生成する。
ステップS32において、3次元ボックス補正部215は、上述する式(1)に基づいて、各ペアを構成するフレームと3次元ボックスにおける2次元画像内におけるラップ率を算出する。
ステップS33において、3次元ボックス補正部215は、各ペアのラップ率について、所定値との比較により、ラップ率が所定値よりも高いフレームと3次元ボックスとのペアをマッチング済みペアとして抽出する。
ステップS34において、3次元ボックス補正部215は、抽出したマッチング済みペアのうち、未処理のペアを処理対象ペアに設定する。
ステップS35において、3次元ボックス補正部215は、処理対象ペアにおける3次元ボックスを、図7,図8を参照して説明した手法により水平方向の幅および垂直方向の高さを設定すると共に、フレーム内に収まるように位置を補正する。
ステップS36において、3次元ボックス補正部215は、未処理のマッチング済みペアが存在するか否かを判定し、未処理のマッチング済みペアが存在する場合、処理は、ステップS34に戻る。すなわち、全てのマッチング済みペアの3次元ボックスが補正されるまで、ステップS34乃至S36の処理が繰り返される。
そして、全てのマッチング済みペアの3次元ボックスが補正されて、ステップS36において、未処理のマッチング済みペアがないと判定されると、処理は、終了する。
すなわち、一連の処理により、全ての3次元ボックスのうち、対応する位置に画像に基づいた車両の存在する領域を示すフレームが存在し、かつ、ラップ率が所定値よりも高い3次元ボックスとフレームとがマッチング済みペアとして抽出される。この処理により、3次元ボックスのうち、対応するフレームが存在しないものがゴーストとみなされて除外され、それ以外の3次元ボックスがフレームと共にマッチング済みペアとして抽出される。
そして、マッチング済みペアを構成する3次元ボックスを構成する水平方向の幅と垂直方向の高さの情報が画像より得られる情報により補正され、さらに、フレーム内に収まるように補正されることで、3次元ボックスの位置が補正される。
これにより、3次元ボックスは、ミリ波レーダ202による精度の高い距離方向の情報を残しつつ、画像に基づいて水平方向の幅と垂直方向の高さが補正されると共に、画像による車両として物体認識された領域であるフレーム内に収められて、位置が補正されるので、高精度な3次元ボックスの情報を取得することが可能となる。
結果として、高精度な3次元ボックスを用いて周囲情報を生成することが可能となり、高精度な自動運転の制御を実現することが可能となる。
<カメラとミリ波レーダとの設置位置に応じた補正>
カメラ201とミリ波レーダ202は、いずれも車両における同一の位置から同一の視野角(FOV:Field of View)となるように設置されることが望ましいが、同一の位置ではないこともある。
カメラ201とミリ波レーダ202は、いずれも車両における同一の位置から同一の視野角(FOV:Field of View)となるように設置されることが望ましいが、同一の位置ではないこともある。
この場合、設置位置の違いに応じた補正が必要となる。
例えば、図13で示されるように、自車である車両M1のフロントウィンドウの中央上部にカメラ201が設置される場合、ミリ波レーダ202-1乃至202-3で示されるように、車体前方の右部、中央部、および左部に設けられる位置が異なると、車両M1の右前方の車両M2を認識するようなとき、ミリ波レーダ202によりカバーされる範囲が異なる。
尚、図13は、自車である車両M1のカメラ201およびミリ波レーダ202-1乃至202-3のそれぞれの視野角を一点鎖線および点線で表現しており、図13の左部が上面図であり、図13の右部が車両M2の側面斜視図である。また、ミリ波レーダ202-1乃至202-3の視野角はいずれも同一であるものとする。
図13で示されるように、カメラ201の視野角が一点鎖線で示されるように、車両M2の、左後方部分の全体となる図13の上面図におけるGACの範囲(斜視図におけるGACC’A’G’の範囲)がカバーされるものとする。
また、このとき、車両M1の前方右部に設けられたミリ波レーダ202-3の視野角は、カメラ201における場合と同様の、図13の上面図におけるGACの範囲(斜視図におけるGACC’A’G’の範囲)がカバーされるものとする。
このような場合、ミリ波レーダ202-3が図中の左側にずらされて、車両M1の前方中央部にミリ波レーダ202-2のように設置されるとき、ミリ波レーダ202-2の視野角において車両M2がカバーされる範囲は、カメラ201よりも狭い、図13の上面図におけるGABの範囲(斜視図におけるGABB’A’G’の範囲)となる。
さらに、ミリ波レーダ202-2をさらに図中の左側にずらして、車両M1の前方左部にミリ波レーダ202-1として設けられる場合、ミリ波レーダ202-1の視野角において車両M2がカバーされる範囲は、ミリ波レーダ202-2よりもさらに狭い、図13の上面図におけるGAの範囲(斜視図におけるGAA’G’の範囲)となる。
このようにミリ波レーダ202の設置位置が車体前方の左部、中央部、および右部のそれぞれのように異なると、同一の車両M2をカバーする範囲が変化する。このようにミリ波レーダ202の設置位置に応じて、ミリ波帯の電波を照射できる範囲、および、反射波として検出できる電波の範囲が変化するため、検出される車両M2に対応する3次元ボックスの位置も変化することになる。
すなわち、ミリ波レーダ202-3の場合、車両M2に対してカバーする視野角の範囲は、カメラ201とほぼ同様であることから、それぞれの検出結果から得られるフレームと3次元ボックスとのラップ率は高くなる。
これに対して、ミリ波レーダ202-2の場合、車両M2をカバーする視野角の範囲は、カメラ201の画角よりも狭くなるので、それぞれの検出結果から得られるフレームと3次元ボックスとのラップ率は、ミリ波レーダ202-1の場合よりも低くなる。
また、ミリ波レーダ202-1の場合、車両M2をカバーする視野角の範囲は、ミリ波レーダ202-2の視野角よりもさらに狭くなるので、それぞれの検出結果から得られるフレームと3次元ボックスとのラップ率は、ミリ波レーダ202-2の場合よりもさらに低くなる。
さらに、ミリ波レーダ202の設置位置による視野角の変化に応じて、反射波のピークが検出される分布が変化することで、生成される3次元ボックスの位置が、カメラ201により撮像される画像に対してずれることになり、適切に設定されるべき3次元ボックスがラップ率の低減によりゴーストとして誤認識されて除去される恐れがある。
そこで、カメラ201の設置位置とミリ波レーダ202の設置位置とのずれに応じた補正が必要となる。
図13で示されるように、ミリ波レーダ202が設置される位置がカメラ201に設置位置から左右にずれる場合、ずれた方向に対して反対側の検出位置については、一部がカメラ201の視野角から外れるため、カメラ201の視野角を、ミリ波レーダ202の反射波のピークが検出される領域に制限する必要がある。
すなわち、図13で示されるように、ミリ波レーダ202-1で示されるように車両M1のカメラ201が設置される中央位置から左方向にずれた位置に設置される場合、ずれた方向に対して反対側となる右方向の反射波のピークの検出分布については、右端部の分布が欠如した状態となる。このため、実際の反射波のピークの検出分布の車両M2が実在する領域のうちの、右側の一部が欠如してしまう。
そこで、右前方において生成される3次元ボックスについては、カメラ201により撮像される画像より抽出されるフレームのうち、反射波のピークが検出されることがない右端部を削除するように補正し、補正されたフレームに合わせて3次元ボックスの位置を補正する。
すなわち、図13の場合、カメラ201の視野角は、一点鎖線で示されるGACの範囲(斜視図におけるGACC’A’G’の範囲)であるが、ミリ波レーダ202-1の画角は、図13の上面図におけるGAの範囲(斜視図におけるGAA’G’の範囲)となる。
そこで、ミリ波レーダ202-1の検出結果に基づいた3次元ボックスを補正する場合には、3次元ボックス補正部215は、カメラ201の視野角についても、図13の上面図におけるGAの範囲(斜視図におけるGAA’G’の範囲)に制限し、制限された範囲内の画像認識結果から得られるフレームを用いる。
すなわち、3次元ボックス補正部215は、ミリ波レーダ202の設置位置とカメラ201との位置関係に応じて、カメラ201の視野角を制限するように補正する。このような補正によりラップ率の低減が抑制され、適切に設定された3次元ボックスがラップ率の低減に伴って除去されてしまうようなことが防止され、3次元ボックスとフレームとのマッチング済みペアが適切に設定される。
結果として、適切に3次元ボックスが設定され、3次元ボックスの適切な補正を実現することが可能となる。
<<4.応用例>>
以上においては、カメラ201により撮像された画像に基づいた物体認識結果より得られるフレームと、ミリ波レーダ202の3次元検出結果より得られる3次元ボックスとから、同一の車両に対するフレームと3次元ボックスとのペアを求めて、ペアとなる3次元ボックスをフレーム内に収めるように補正することで、適切な3次元ボックスの情報を取得して、周囲情報を生成する例について説明してきた。
以上においては、カメラ201により撮像された画像に基づいた物体認識結果より得られるフレームと、ミリ波レーダ202の3次元検出結果より得られる3次元ボックスとから、同一の車両に対するフレームと3次元ボックスとのペアを求めて、ペアとなる3次元ボックスをフレーム内に収めるように補正することで、適切な3次元ボックスの情報を取得して、周囲情報を生成する例について説明してきた。
しかしながら、現実には、フレームと3次元ボックスとの両方が常に適切に取得できない状況となることがある。
例えば、図14の画像P51で示されるように、フロントウィンドウ上で可動するワイパブレードWなどが、フロントウィンドウの内側に設けられたカメラ201により撮像される画像内にブラインドを発生させることにより、適切なフレームが得られないことがある。また、カメラ201により撮像される画像は、夜間や荒天時など物体認識ができない状態となることがある。
さらに、図14の画像P52,P53で示されるように、ミリ波レーダ202の検出結果において、ガードレールGLや路面Rdからの反射波のピーク強度の分布により、車両が存在しないにも関わらず、3次元ボックスBe1,Be2で示されるようなゴーストが検出されてしまうことがある。
さらに、ミリ波帯の電波は、物体表面の法線方向に反射波が生じる特性があるため、例えば、外側に凸となる曲面の多い車両などの場合、電波が拡散してしまい、十分な強度の反射波が得られないこともある。
すなわち、カメラ201により撮像される画像より得られるフレーム単体、または、ミリ波レーダ202の検出結果に基づいて得られる3次元ボックス単体では、適切な3次元ボックスの情報を取得することができない。
本開示においては、このような状況に鑑みて、上述したように、フレームと3次元ボックスとのペアを設定し、設定されたペアのフレームの情報を用いて3次元ボックスの位置を補正する例について説明してきたが、上述したように、フレームと3次元ボックスとが常にペアとして取得できない場合がある。
しかしながら、一度ペアとして登録したフレームおよび3次元ボックスについては、所定の期間について、トラッキングすることで、フレームおよび3次元ボックスのいずれかのみに基づいて3次元ボックスを設定するようにしてもよい。
すなわち、例えば、図15の画像P61で示されるように、ミリ波レーダ202の検出結果を用いた3次元ボックスBm31,Bm32は、車両が存在しない領域においても設定されてしまうことがある。
しかしながら、直前にタイミングにおいて、ペアとして検出されたフレームと3次元ボックスについては、ペアとして検出されていたタイミングから所定の期間においては、直前のタイミングにおいて検出された位置から、直前の3次元ボックスにおける速度と方向で、所定の期間だけ移動した位置で、同一のペアとなるフレームと3次元ボックスが検出されることが予想される。
そこで、例えば、画像P61で示されるようなゴーストとみなされる3次元ボックスBm31,Bm32のみが検出されるような場合、所定時間だけ直前の3次元ボックスの速度と方向の情報に基づいて、直前のフレームから所定時間だけ移動した位置に、直前の3次元ボックスを仮想的に移動させた3次元ボックスBc1乃至Bc3を設定する。そして、この仮想的に設定された3次元ボックスBc1乃至Bc3と、画像より得られるフレームFc1乃至Fc3を用いて3次元ボックスを生成するようにしてもよい。
また、図15の画像P62で示されるように、ワイパブレードWにより画像が適切に撮像できない状況であっても、所定時間だけ直前の3次元ボックスの速度と方向の情報に基づいて、直前のフレームから所定時間だけ移動した位置に仮想的にフレームFt21を設定し、この仮想的に設定されたフレームFt21を用いて、ミリ波レーダ202により検出された3次元ボックスを補正するようにしてもよい。
いずれにおいても、直前のタイミングにおいてペアとして設定されたフレームと3次元ボックスのうち、現在のタイミングにおいて欠落した情報については、直前のタイミングに検出された3次元ボックスの位置、速度、および方向の情報を用いて、現在の位置を予測して(トランキングして)使用することで、いずれかの情報が欠落しても3次元ボックスを比較的高い精度で求めることが可能となる。
ただし、ペアとして設定されたフレームと3次元ボックスのうちのいずれかの情報が欠落した状態が継続した状態で、トラッキングし続けると信頼性が低下するため、ペアとして設定されたタイミングから所定の時間が経過するまで、または、所定の距離だけ移動するまで時間が経過するまで使用することとし、それ以上の時間については利用しないようにする。
さらに、例えば、図16で示されるように、一度ペアとして設定されたフレームと3次元ボックスに対応する車両M103が、自車となる車両M101の直前の車両M102の前方に入り込むような場合でも、ミリ波レーダ202は、前走車である車両M102の車体の下の路面を反射する車両M103からの反射波を検出できる。
このため、カメラ201により撮像される画像において、車両M103が前走車である車両M102により死角に入っても、一度フレームと3次元ボックスとをペアとして設定することができれば、所定の期間は、3次元ボックスを設定することが可能となる。
また、図17で示されるように、カメラ201の視野角FOV1とミリ波レーダ202の視野角FOV2がそれぞれ異なるような場合にも応用することができる。
例えば、図17で示されるように、カメラ201の視野角FOV1がミリ波レーダ202の視野角FOV2よりも狭い場合について考える。
カメラ201とミリ波レーダ202の共通の視野角となる視野角FOV1内において、フレームと3次元ボックスとのペアが設定された後は、図17のカーブなどにより、視野角FOV2内であって、視野角FOV1以外の範囲に前走の車両が移動しても、3次元ボックスを生成することが可能である。
すなわち、フレームと3次元ボックスとのペアが設定された後は、前走の車両の現在のミリ波レーダ202による3次元ボックスの情報と、直前の3次元ボックスの位置、速度、および方向の情報に基づいて予測される現在のフレームの位置の情報とに基づいて、3次元ボックスを補正して求めることが可能となる。
また、図17で示される場合と逆に、カメラ201の視野角FOV1がミリ波レーダ202の視野角FOV2より広い場合であっても同様の手法で前走の車両の3次元ボックスを求めることが可能となる。
<応用例における3次元ボックス補正処理>
次に、図18のフローチャートを参照して、応用例における3次元ボックス補正処理について説明する。
次に、図18のフローチャートを参照して、応用例における3次元ボックス補正処理について説明する。
ステップS51において、3次元ボックス補正部215は、画像の車両の領域であるフレームの情報と、3次元ボックスの情報とについて、それぞれ対応する位置に存在するペアを生成する。
ステップS52において、3次元ボックス補正部215は、上述する式(1)に基づいて、各ペアを構成するフレームと3次元ボックスにおける2次元画像内におけるラップ率を算出する。
ステップS53において、3次元ボックス補正部215は、各ペアのラップ率について、所定値との比較により、ラップ率が所定値よりも高いフレームと3次元ボックスのペアをマッチング済みペアとして抽出する。
ステップS54において、3次元ボックス補正部215は、抽出したマッチング済みペアのうち、未処理のペアを処理対象ペアに設定する。
ステップS55において、3次元ボックス補正部215は、処理対象ペアが登録済みペアであるか否かを判定する。
すなわち、3次元ボックス補正部215は、直前までの処理によりマッチング済みペアとして登録された登録済みペアのうち、処理対象ペアと一致するものがあるか否かを検索し、その有無により処理対象ペアが登録済みペアであるか否かを判定する。
より詳細には、3次元ボックス補正部215は、登録済みペアのそれぞれについて、3次元ボックスの情報に含まれる位置、速度、および方向の情報に基づいて、前回の処理からの経過時間で移動することにより求められるフレームと3次元ボックスのペアを予測ペアとして求める。
そして、3次元ボックス補正部215は、登録済みペアの情報から予測される予測ペアのそれぞれと、現在のフレームと3次元ボックスの情報である処理対象ペアとを比較して、一致する(類似する)ものを検索し、その有無により処理対象ペアが登録済みペアであるか否かを判定する。
ステップS55において、処理対象ペアが登録済みペアである場合、3次元ボックス補正部215は、処理対象ペアとなるフレームと3次元ボックスの情報を、最新の登録済みペアの情報として更新する。
一方、ステップS55において、処理対象ペアが登録済みペアではない場合、処理は、ステップS57に進む。
ステップS57において、3次元ボックス補正部215は、処理対象ペアとなるフレームと3次元ボックスの情報を登録済みペアとして新規に登録する。
ステップS58において、3次元ボックス補正部215は、未処理のマッチング済みペアがあるか否かを判定し、未処理のマッチング済みペアがある場合、処理は、ステップS54に戻る。
すなわち、ステップS54乃至S58の処理が繰り返され、マッチング済みペアの全てが、登録済みペアであるか否かが判定されて、登録済みである場合は、フレームと3次元ボックスの情報が更新され、未登録の場合は新規の登録済みペアとして登録される。
そして、ステップS58において、未処理のマッチング済みペアがないとみなされた場合、処理は、ステップS59に進む。
ステップS59において、3次元ボックス補正部215は、未処理の登録済みペアを処理対象ペアに設定する。
ステップS60において、3次元ボックス補正部215は、処理対象ペアである登録済みペアが、マッチング済みペアであるか否かを判定する。すなわち、処理対象ペアである登録済みペアとして登録されているフレームと3次元ボックスとが、今現在において両方とも検出されている状態であるか否かが判定される。
ステップS60において、処理対象ペアである登録済みペアが、今現在においてマッチング済みペアであるとみなされた場合、処理は、ステップS61に進む。
ステップS61において、3次元ボックス補正部215は、処理対象ペアである登録済みペアを構成するフレームに収まるように3次元ボックスを補正する。
ステップS62において、3次元ボックス補正部215は、未処理の登録済みペアが存在するか否かを判定し、未処理の登録済みペアがある場合、処理は、ステップS59に戻る。
そして、未処理の登録済みペアがなくなるまで、ステップS59乃至S66の処理が繰り返され、ステップS62において、未処理の登録済みペアがないとみなされた場合、処理は終了する。
また、ステップS60において、処理対象ペアである登録済みペアが、今現在においてマッチング済みペアではないとみなされた場合、すなわち、処理対象ペアである登録済みのペアを構成するフレーム、および3次元ボックスの少なくともいずれかが検出されていない場合、処理は、ステップS63に進む。
ステップS63において、3次元ボックス補正部215は、処理対象ペアとなっている登録済みペアを構成するフレームおよび3次元ボックスに基づいて予測されるフレームおよび3次元ボックスのいずれかが検出されているか否かを判定する。
より詳細には、3次元ボックス補正部215は、処理対象ペアとなっている登録済みペアを構成する、所定時間だけ直前の3次元ボックスの位置、速度、および方向の情報に基づいて、現在のフレームおよび3次元ボックスの位置を予測する。
そして、3次元ボックス補正部215は、今現在供給されてきているフレームおよび3次元ボックスより、予測されたフレームおよび3次元ボックスの近傍のものを検索し、その有無に基づいて、登録済みペアに対応するフレームおよび3次元ボックスのいずれかが検出されているか否かを判定する。
ステップS63において、処理対象ペアとなっている登録済みペアを構成するフレームおよび3次元ボックスに基づいて予測されるフレームおよび3次元ボックスのいずれかが検出されているとみなされた場合、処理は、ステップS64に進む。
ステップS64において、3次元ボックス補正部215は、登録済みペアを構成するフレームおよび3次元ボックスに対応する、検出されたフレームおよび3次元ボックスのいずれかの情報に基づいて、現在の3次元ボックスを生成する。
より詳細には、3次元ボックス補正部215は、登録済みペアを構成するフレームおよび3次元ボックスのうち、フレームが検出されている場合については、登録済みの直前のタイミングにおける3次元ボックスの位置、速度、および方向の情報に基づいて、現在の3次元ボックスの位置を予測し、予測結果となる3次元ボックスを、今現在検出されているフレームに収まるように補正して3次元ボックスを生成する。
また、3次元ボックス補正部215は、登録済みペアを構成するフレームおよび3次元ボックスのうち、3次元ボックスが検出されている場合については、登録済みの直前のタイミングにおける3次元ボックスの位置、速度、および方向の情報に基づいて、現在のフレームの位置を予測し、予測結果となるフレームに、今現在検出されている3次元ボックスが収まるように補正する。
ステップS65において、3次元ボックス補正部215は、処理対象ペアである登録済みペアを構成するフレームおよび3次元ボックスがマッチング済みペアとみなされない状態が所定時間以上継続している、または、所定の距離だけ移動する時間以上継続しているか否かを判定する。
すなわち、登録済みペアを構成するフレームおよび3次元ボックスに対応するフレームおよび3次元ボックスのいずれかのみしか検出されない状態が、所定時間以上継続している、または、所定距離移動するまで継続しているか否かが判定される。
ステップS65において、処理対象ペアである登録済みペアを構成するフレームおよび3次元ボックスがマッチング済みペアとみなされない状態が所定時間以上継続している、または、所定の距離だけ移動するまで継続しているとみなされた場合、処理は、ステップS66に進む。
ステップS66において、3次元ボックス補正部215は、処理対象ペアである登録済みペアの登録を解除する。
また、ステップS63において、処理対象ペアとなっている登録済みペアを構成するフレームおよび3次元ボックスに基づいて予測されるフレームおよび3次元ボックスのいずれも検出されていないとみなされた場合、処理は、ステップS66に進み、処理対象ペアとなっている登録済みペアは登録が解除される。
以上の一連の処理により、カメラ201により撮像される画像に基づいた物体認識結果より得られる車両の領域であるフレームと、ミリ波レーダ202の検出結果に基づいた車両の存在する3次元情報である3次元ボックスとに基づいて、双方のラップ率が所定値以上であってペアとみなされる状態になると、対応するフレームと3次元ボックスとがマッチング済みペアとみなされ、登録済みペアとして登録される。
また、一度、登録済みペアとして登録されたフレームと3次元ボックスのペアは、以降においてマッチング済みペアとして検出される限り、情報が更新される。
さらに、登録済みペアとして登録されたフレームと3次元ボックスのペアは、以降において、対応するフレームおよび3次元ボックスの両方が検出されているときには、検出されているフレームに基づいて3次元ボックスが補正される。
また、登録済みペアとして登録されたフレームと3次元ボックスのペアに対応する、フレームと3次元ボックスのうちのいずれかのみが、検出されているときには、フレームおよび3次元ボックスのうちの検出された情報と、登録済みの直前のフレームおよび3次元ボックスの情報に基づいて、3次元ボックスが生成される。
ただし、フレームと3次元ボックスのうちのいずれか一方のみしか検出されない状態が所定時間以上継続した場合、所定距離以上移動するまで継続した場合、または、フレームと3次元ボックスがいずれも検出されない場合、登録済みペアを構成するフレームと3次元ボックスは登録が解除される。
これにより、フレームと3次元ボックスのペアとして登録された車両の3次元ボックスの情報は、所定時間内であるか、または、所定距離移動するまでの間であれば、フレームと3次元ボックスのいずれかが検出される限り、生成することが可能となる。
結果として、フレームと3次元ボックスのペアがマッチング済みペアとして認識されて、登録済みペアとして登録されると、一時的にカメラ201により撮像される画像にブラインドが発生してフレームが適切に検出できなかったり、一時的にミリ波レーダ202による検出結果である3次元ボックスにゴーストが発生するような状態になっても、3次元ボックスを生成することが可能となる。これにより、適切に周囲情報を生成し続けることが可能となり、周囲情報を用いた自動運転を適切に継続することが可能となる。
尚、以上においては、3次元ボックスを生成するにあたって、ミリ波レーダ202により検出された3次元検出情報を用いる例について説明してきたが、3次元検出情報であれば他の方法により検出されたものであってもよい。3次元ボックスの生成に使用する3次元検出情報としては、例えば、LiDARや超音波ソナー等により検出される3次元点群情報であってもよい。
<<5.ソフトウェアにより実行させる例>>
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
図19は、汎用のコンピュータの構成例を示している。このコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブル記録媒体1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブル記録媒体1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
尚、図19におけるCPU1001が、図3における自動運転制御部112の機能を実現させる。また、図19における記憶部1008が、図3における記憶部111を実現する。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本開示は、以下のような構成も取ることができる。
<1> 自車の周囲の画像を撮像する撮像部と、
前記画像内における前記自車の周囲の車両の領域をフレームとして検出するフレーム検出部と、
前記自車の周囲の物体の距離情報を検出する距離情報検出部と、
前記距離情報検出部により検出された距離情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスを生成する3次元ボックス生成部と、
前記フレームに基づいて、前記3次元ボックスを補正する3次元ボックス補正部と
を備える情報処理装置。
<2> 前記3次元ボックス補正部は、前記3次元ボックスと、対応する前記フレームとをマッチング済みペアに設定し、前記マッチング済みペアの前記3次元ボックスを抽出する
<1>に記載の情報処理装置。
<3> 前記3次元ボックス補正部は、前記3次元ボックスと、対応する前記フレームとのラップ率を算出し、前記ラップ率が所定値よりも高い、前記3次元ボックスと、前記フレームとを前記マッチング済みペアに設定し、前記マッチング済みペアの前記3次元ボックスを抽出する
<2>に記載の情報処理装置。
<4> 前記3次元ボックス補正部は、前記3次元ボックスを、前記画像内において前記フレーム内に収まるように補正する
<1>乃至<3>のいずれかに記載の情報処理装置。
<5> 前記3次元ボックス補正部は、前記フレーム内の前記画像に基づいて、前記3次元ボックスの水平方向、および垂直方向のサイズを補正し、前記距離情報に基づいて、奥行き情報を補正し、前記3次元ボックスを、前記画像内において前記フレーム内に収まるように補正する
<4>に記載の情報処理装置。
<6> 前記3次元ボックス補正部は、前記撮像部と、前記距離情報検出部との設置位置の位置関係に基づいて、前記ラップ率を補正する
<3>に記載の情報処理装置。
<7> 前記3次元ボックス補正部は、前記マッチング済みペアとなる、前記3次元ボックスと、対応する前記フレームとを登録済みペアに設定し、前記登録済みペアに設定された前記3次元ボックスおよび前記フレームは、前記登録済みペアに設定された以降において、前記登録済みペアを構成する前記フレーム、または、前記3次元ボックスが検出されるとき、前記登録済みペアの前記フレーム、および、前記3次元ボックスを更新する
<6>に記載の情報処理装置。
<8> 前記3次元ボックス補正部は、前記マッチング済みペアとなる、前記3次元ボックスと、対応する前記フレームとを前記登録済みペアに設定し、前記登録済みペアに設定された前記3次元ボックスおよび前記フレームは、前記登録済みペアに設定された以降において、所定の期間においては、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出であるとき、前記登録済みペアとして登録された前記3次元ボックスの速度、および方向に基づいて、前記非検出の前記フレーム、または、前記3次元ボックスを推定し、推定結果を用いて、前記登録済みペアの前記フレーム、および、前記3次元ボックスを更新する
<7>に記載の情報処理装置。
<9> 前記3次元ボックス補正部は、前記登録済みペアに設定された以降において、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出である状態が所定の期間継続したとき、または、前記登録済みペアに対応する前記フレーム、および、前記3次元ボックスの両方が検出されない場合、前記登録済みペアの前記フレーム、および、前記3次元ボックスを登録から解除する
<7>に記載の情報処理装置。
<10> 前記所定の期間は、前記マッチング済みペアが前記登録済みペアに登録されてから所定時間経過するまでの期間、または、前記マッチング済みペアが前記登録済みペアに登録されてから所定距離だけ走行するまでの期間である
<9>に記載の情報処理装置。
<11> 前記登録済みペアに設定された以降において、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出である状態は、前記撮像部における視野角より、前記距離情報検出部の視野角が広い場合、前記登録済みペアに設定された前記フレーム、または、前記3次元ボックスに対応する前記車両が前記撮像部の視野角の外側であって、前記距離情報検出部の視野角内で走行している状態である
<10>に記載の情報処理装置。
<12> 前記登録済みペアに設定された以降において、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出である状態は、前記登録済みペアに設定された前記フレーム、または、前記3次元ボックスに対応する車両が、前走車の前方に移動して走行している状態である
<10>に記載の情報処理装置。
<13> 前記フレーム検出部は、前記画像より2次元情報からなる前記フレームを検出する
<1>乃至<12>のいずれかに記載の情報処理装置。
<14> 前記フレーム検出部は、前記画像より距離情報からなる前記フレームを検出する
<1>乃至<12>のいずれかに記載の情報処理装置。
<15> 前記3次元ボックス生成部は、前記距離情報検出部により検出された距離情報に基づいて、同一の速度で、かつ、同一の方向に移動する分布が包含される範囲を方形状に設定することで、前記自車の周囲の車両の前記3次元ボックスを生成する
<1>乃至<14>のいずれかに記載の情報処理装置。
<16> 前記距離情報検出部は、ミリ波レーダ、LiDAR、または超音波ソナーである
<1>乃至<15>のいずれかに記載の情報処理装置。
<17> 前記3次元ボックスを配置することにより、前記自車の周囲の車両の位置を示す周囲情報を生成する周囲情報生成部をさらに含む
<1>乃至<16>のいずれかに記載の情報処理装置。
<18> 前記周囲情報に基づいて、前記自車の運転を制御する運転制御部をさらに含む
<17>に記載の情報処理装置。
<19> 自車の周囲の画像を撮像する撮像処理と、
前記画像内における前記自車の周囲の車両の領域をフレームとして検出するフレーム検出処理と、
前記自車の周囲の物体の距離情報を検出する距離情報検出処理と、
前記距離情報検出処理により検出された距離情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスを生成する3次元ボックス生成処理と、
前記フレームに基づいて、前記3次元ボックスを補正する3次元ボックス補正処理と
を含む情報処理方法。
<20> 自車の周囲の画像を撮像する撮像部と、
前記画像内における前記自車の周囲の車両の領域をフレームとして検出するフレーム検出部と、
前記自車の周囲の物体の距離情報を検出する距離情報検出部と、
前記距離情報検出部により検出された距離情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスを生成する3次元ボックス生成部と、
前記フレームに基づいて、前記3次元ボックスを補正する3次元ボックス補正部と
してコンピュータを機能させるプログラム。
前記画像内における前記自車の周囲の車両の領域をフレームとして検出するフレーム検出部と、
前記自車の周囲の物体の距離情報を検出する距離情報検出部と、
前記距離情報検出部により検出された距離情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスを生成する3次元ボックス生成部と、
前記フレームに基づいて、前記3次元ボックスを補正する3次元ボックス補正部と
を備える情報処理装置。
<2> 前記3次元ボックス補正部は、前記3次元ボックスと、対応する前記フレームとをマッチング済みペアに設定し、前記マッチング済みペアの前記3次元ボックスを抽出する
<1>に記載の情報処理装置。
<3> 前記3次元ボックス補正部は、前記3次元ボックスと、対応する前記フレームとのラップ率を算出し、前記ラップ率が所定値よりも高い、前記3次元ボックスと、前記フレームとを前記マッチング済みペアに設定し、前記マッチング済みペアの前記3次元ボックスを抽出する
<2>に記載の情報処理装置。
<4> 前記3次元ボックス補正部は、前記3次元ボックスを、前記画像内において前記フレーム内に収まるように補正する
<1>乃至<3>のいずれかに記載の情報処理装置。
<5> 前記3次元ボックス補正部は、前記フレーム内の前記画像に基づいて、前記3次元ボックスの水平方向、および垂直方向のサイズを補正し、前記距離情報に基づいて、奥行き情報を補正し、前記3次元ボックスを、前記画像内において前記フレーム内に収まるように補正する
<4>に記載の情報処理装置。
<6> 前記3次元ボックス補正部は、前記撮像部と、前記距離情報検出部との設置位置の位置関係に基づいて、前記ラップ率を補正する
<3>に記載の情報処理装置。
<7> 前記3次元ボックス補正部は、前記マッチング済みペアとなる、前記3次元ボックスと、対応する前記フレームとを登録済みペアに設定し、前記登録済みペアに設定された前記3次元ボックスおよび前記フレームは、前記登録済みペアに設定された以降において、前記登録済みペアを構成する前記フレーム、または、前記3次元ボックスが検出されるとき、前記登録済みペアの前記フレーム、および、前記3次元ボックスを更新する
<6>に記載の情報処理装置。
<8> 前記3次元ボックス補正部は、前記マッチング済みペアとなる、前記3次元ボックスと、対応する前記フレームとを前記登録済みペアに設定し、前記登録済みペアに設定された前記3次元ボックスおよび前記フレームは、前記登録済みペアに設定された以降において、所定の期間においては、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出であるとき、前記登録済みペアとして登録された前記3次元ボックスの速度、および方向に基づいて、前記非検出の前記フレーム、または、前記3次元ボックスを推定し、推定結果を用いて、前記登録済みペアの前記フレーム、および、前記3次元ボックスを更新する
<7>に記載の情報処理装置。
<9> 前記3次元ボックス補正部は、前記登録済みペアに設定された以降において、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出である状態が所定の期間継続したとき、または、前記登録済みペアに対応する前記フレーム、および、前記3次元ボックスの両方が検出されない場合、前記登録済みペアの前記フレーム、および、前記3次元ボックスを登録から解除する
<7>に記載の情報処理装置。
<10> 前記所定の期間は、前記マッチング済みペアが前記登録済みペアに登録されてから所定時間経過するまでの期間、または、前記マッチング済みペアが前記登録済みペアに登録されてから所定距離だけ走行するまでの期間である
<9>に記載の情報処理装置。
<11> 前記登録済みペアに設定された以降において、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出である状態は、前記撮像部における視野角より、前記距離情報検出部の視野角が広い場合、前記登録済みペアに設定された前記フレーム、または、前記3次元ボックスに対応する前記車両が前記撮像部の視野角の外側であって、前記距離情報検出部の視野角内で走行している状態である
<10>に記載の情報処理装置。
<12> 前記登録済みペアに設定された以降において、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出である状態は、前記登録済みペアに設定された前記フレーム、または、前記3次元ボックスに対応する車両が、前走車の前方に移動して走行している状態である
<10>に記載の情報処理装置。
<13> 前記フレーム検出部は、前記画像より2次元情報からなる前記フレームを検出する
<1>乃至<12>のいずれかに記載の情報処理装置。
<14> 前記フレーム検出部は、前記画像より距離情報からなる前記フレームを検出する
<1>乃至<12>のいずれかに記載の情報処理装置。
<15> 前記3次元ボックス生成部は、前記距離情報検出部により検出された距離情報に基づいて、同一の速度で、かつ、同一の方向に移動する分布が包含される範囲を方形状に設定することで、前記自車の周囲の車両の前記3次元ボックスを生成する
<1>乃至<14>のいずれかに記載の情報処理装置。
<16> 前記距離情報検出部は、ミリ波レーダ、LiDAR、または超音波ソナーである
<1>乃至<15>のいずれかに記載の情報処理装置。
<17> 前記3次元ボックスを配置することにより、前記自車の周囲の車両の位置を示す周囲情報を生成する周囲情報生成部をさらに含む
<1>乃至<16>のいずれかに記載の情報処理装置。
<18> 前記周囲情報に基づいて、前記自車の運転を制御する運転制御部をさらに含む
<17>に記載の情報処理装置。
<19> 自車の周囲の画像を撮像する撮像処理と、
前記画像内における前記自車の周囲の車両の領域をフレームとして検出するフレーム検出処理と、
前記自車の周囲の物体の距離情報を検出する距離情報検出処理と、
前記距離情報検出処理により検出された距離情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスを生成する3次元ボックス生成処理と、
前記フレームに基づいて、前記3次元ボックスを補正する3次元ボックス補正処理と
を含む情報処理方法。
<20> 自車の周囲の画像を撮像する撮像部と、
前記画像内における前記自車の周囲の車両の領域をフレームとして検出するフレーム検出部と、
前記自車の周囲の物体の距離情報を検出する距離情報検出部と、
前記距離情報検出部により検出された距離情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスを生成する3次元ボックス生成部と、
前記フレームに基づいて、前記3次元ボックスを補正する3次元ボックス補正部と
してコンピュータを機能させるプログラム。
11 車両, 100 車両制御システム, 102 データ取得部, 112 自動運転制御部, 201 カメラ, 202,202-1乃至202-3 ミリ波レーダ, 211 信号処理部, 212 物体認識部, 213 信号処理部, 214 物体認識部, 215 3次元ボックス補正部, 216 周囲情報生成部
Claims (20)
- 自車の周囲の画像を撮像する撮像部と、
前記画像内における前記自車の周囲の車両の領域をフレームとして検出するフレーム検出部と、
前記自車の周囲の物体の距離情報を検出する距離情報検出部と、
前記距離情報検出部により検出された距離情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスを生成する3次元ボックス生成部と、
前記フレームに基づいて、前記3次元ボックスを補正する3次元ボックス補正部と
を備える情報処理装置。 - 前記3次元ボックス補正部は、前記3次元ボックスと、対応する前記フレームとをマッチング済みペアに設定し、前記マッチング済みペアの前記3次元ボックスを抽出する
請求項1に記載の情報処理装置。 - 前記3次元ボックス補正部は、前記3次元ボックスと、対応する前記フレームとのラップ率を算出し、前記ラップ率が所定値よりも高い、前記3次元ボックスと、前記フレームとを前記マッチング済みペアに設定し、前記マッチング済みペアの前記3次元ボックスを抽出する
請求項2に記載の情報処理装置。 - 前記3次元ボックス補正部は、前記3次元ボックスを、前記画像内において前記フレーム内に収まるように補正する
請求項1に記載の情報処理装置。 - 前記3次元ボックス補正部は、前記フレーム内の前記画像に基づいて、前記3次元ボックスの水平方向、および垂直方向のサイズを補正し、前記距離情報に基づいて、奥行き情報を補正し、前記3次元ボックスを、前記画像内において前記フレーム内に収まるように補正する
請求項4に記載の情報処理装置。 - 前記3次元ボックス補正部は、前記撮像部と、前記距離情報検出部との設置位置の位置関係に基づいて、前記ラップ率を補正する
請求項3に記載の情報処理装置。 - 前記3次元ボックス補正部は、前記マッチング済みペアとなる、前記3次元ボックスと、対応する前記フレームとを登録済みペアに設定し、前記登録済みペアに設定された前記3次元ボックスおよび前記フレームは、前記登録済みペアに設定された以降において、前記登録済みペアを構成する前記フレーム、または、前記3次元ボックスが検出されるとき、前記登録済みペアの前記フレーム、および、前記3次元ボックスを更新する
請求項6に記載の情報処理装置。 - 前記3次元ボックス補正部は、前記マッチング済みペアとなる、前記3次元ボックスと、対応する前記フレームとを前記登録済みペアに設定し、前記登録済みペアに設定された前記3次元ボックスおよび前記フレームは、前記登録済みペアに設定された以降において、所定の期間においては、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出であるとき、前記登録済みペアとして登録された前記3次元ボックスの速度、および方向に基づいて、前記非検出の前記フレーム、または、前記3次元ボックスを推定し、推定結果を用いて、前記登録済みペアの前記フレーム、および、前記3次元ボックスを更新する
請求項7に記載の情報処理装置。 - 前記3次元ボックス補正部は、前記登録済みペアに設定された以降において、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出である状態が所定の期間継続したとき、または、前記登録済みペアに対応する前記フレーム、および、前記3次元ボックスの両方が検出されない場合、前記登録済みペアの前記フレーム、および、前記3次元ボックスを登録から解除する
請求項7に記載の情報処理装置。 - 前記所定の期間は、前記マッチング済みペアが前記登録済みペアに登録されてから所定時間経過するまでの期間、または、前記マッチング済みペアが前記登録済みペアに登録されてから所定距離だけ走行するまでの期間である
請求項9に記載の情報処理装置。 - 前記登録済みペアに設定された以降において、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出である状態は、前記撮像部における視野角より、前記距離情報検出部の視野角が広い場合、前記登録済みペアに設定された前記フレーム、または、前記3次元ボックスに対応する前記車両が前記撮像部の視野角の外側であって、前記距離情報検出部の視野角内で走行している状態である
請求項10に記載の情報処理装置。 - 前記登録済みペアに設定された以降において、対応する前記フレーム、または、前記3次元ボックスのいずれか一方が非検出である状態は、前記登録済みペアに設定された前記フレーム、または、前記3次元ボックスに対応する車両が、前走車の前方に移動して走行している状態である
請求項10に記載の情報処理装置。 - 前記フレーム検出部は、前記画像より2次元情報からなる前記フレームを検出する
請求項1に記載の情報処理装置。 - 前記フレーム検出部は、前記画像より距離情報からなる前記フレームを検出する
請求項1に記載の情報処理装置。 - 前記3次元ボックス生成部は、前記距離情報検出部により検出された距離情報に基づいて、同一の速度で、かつ、同一の方向に移動する分布が包含される範囲を方形状に設定することで、前記自車の周囲の車両の前記3次元ボックスを生成する
請求項1に記載の情報処理装置。 - 前記距離情報検出部は、ミリ波レーダ、LiDAR、または超音波ソナーである
請求項1に記載の情報処理装置。 - 前記3次元ボックスを配置することにより、前記自車の周囲の車両の位置を示す周囲情報を生成する周囲情報生成部をさらに含む
請求項1に記載の情報処理装置。 - 前記周囲情報に基づいて、前記自車の運転を制御する運転制御部をさらに含む
請求項17に記載の情報処理装置。 - 自車の周囲の画像を撮像する撮像処理と、
前記画像内における前記自車の周囲の車両の領域をフレームとして検出するフレーム検出処理と、
前記自車の周囲の物体の距離情報を検出する距離情報検出処理と、
前記距離情報検出処理により検出された距離情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスを生成する3次元ボックス生成処理と、
前記フレームに基づいて、前記3次元ボックスを補正する3次元ボックス補正処理と
を含む情報処理方法。 - 自車の周囲の画像を撮像する撮像部と、
前記画像内における前記自車の周囲の車両の領域をフレームとして検出するフレーム検出部と、
前記自車の周囲の物体の距離情報を検出する距離情報検出部と、
前記距離情報検出部により検出された距離情報に基づいて、前記自車の周囲の車両の位置を示す3次元ボックスを生成する3次元ボックス生成部と、
前記フレームに基づいて、前記3次元ボックスを補正する3次元ボックス補正部と
してコンピュータを機能させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018230177A JP2022034086A (ja) | 2018-12-07 | 2018-12-07 | 情報処理装置、および情報処理方法、並びにプログラム |
US17/297,951 US11978261B2 (en) | 2018-12-07 | 2019-11-22 | Information processing apparatus and information processing method |
PCT/JP2019/045801 WO2020116206A1 (ja) | 2018-12-07 | 2019-11-22 | 情報処理装置、および情報処理方法、並びにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018230177A JP2022034086A (ja) | 2018-12-07 | 2018-12-07 | 情報処理装置、および情報処理方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022034086A true JP2022034086A (ja) | 2022-03-03 |
Family
ID=70973839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018230177A Pending JP2022034086A (ja) | 2018-12-07 | 2018-12-07 | 情報処理装置、および情報処理方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11978261B2 (ja) |
JP (1) | JP2022034086A (ja) |
WO (1) | WO2020116206A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7359107B2 (ja) * | 2020-08-26 | 2023-10-11 | 株式会社デンソー | 対象物認識装置、移動体衝突予防装置および車両 |
KR20220031224A (ko) * | 2020-09-04 | 2022-03-11 | 현대자동차주식회사 | 차량 및 그 제어방법 |
JP2022067928A (ja) * | 2020-10-21 | 2022-05-09 | 株式会社Subaru | 対象物推定装置、その対象物推定方法、および、車両 |
JP2022152402A (ja) * | 2021-03-29 | 2022-10-12 | 本田技研工業株式会社 | 認識装置、車両システム、認識方法、およびプログラム |
CN114494248B (zh) * | 2022-04-01 | 2022-08-05 | 之江实验室 | 基于点云和不同视角下的图像的三维目标检测系统及方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06223201A (ja) * | 1993-01-22 | 1994-08-12 | Matsushita Electric Ind Co Ltd | 並列画像生成装置 |
JP2005175603A (ja) | 2003-12-08 | 2005-06-30 | Suzuki Motor Corp | レーダを用いた障害物の表示方法及び表示システム |
JP2006047057A (ja) | 2004-08-03 | 2006-02-16 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
US7725547B2 (en) * | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
US7792328B2 (en) * | 2007-01-12 | 2010-09-07 | International Business Machines Corporation | Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream |
US7801332B2 (en) * | 2007-01-12 | 2010-09-21 | International Business Machines Corporation | Controlling a system based on user behavioral signals detected from a 3D captured image stream |
US7840031B2 (en) * | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
JP2009186353A (ja) | 2008-02-07 | 2009-08-20 | Fujitsu Ten Ltd | 物体検出装置および物体検出方法 |
US20110098108A1 (en) * | 2009-07-08 | 2011-04-28 | Exponential Entertainment, Inc. | Integrated online gaming portal offering entertainment-related casual games and user-generated media |
US8842163B2 (en) * | 2011-06-07 | 2014-09-23 | International Business Machines Corporation | Estimation of object properties in 3D world |
GB201115369D0 (en) * | 2011-09-06 | 2011-10-19 | Gooisoft Ltd | Graphical user interface, computing device, and method for operating the same |
JP6365385B2 (ja) | 2015-04-17 | 2018-08-01 | トヨタ自動車株式会社 | 立体物検出装置及び立体物検出方法 |
WO2017057041A1 (ja) | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 信号処理装置、信号処理方法、およびプログラム |
US10360732B2 (en) * | 2017-03-23 | 2019-07-23 | Intel Corporation | Method and system of determining object positions for image processing using wireless network angle of transmission |
US11216673B2 (en) * | 2017-04-04 | 2022-01-04 | Robert Bosch Gmbh | Direct vehicle detection as 3D bounding boxes using neural network image processing |
US10346987B1 (en) * | 2017-12-29 | 2019-07-09 | Datalogic Usa, Inc. | Locating objects on surfaces |
US10586456B2 (en) * | 2018-04-27 | 2020-03-10 | TuSimple | System and method for determining car to lane distance |
WO2020081470A1 (en) * | 2018-10-15 | 2020-04-23 | Flir Commercial Systems, Inc. | Deep learning inference systems and methods for imaging systems |
US10958854B2 (en) * | 2018-11-02 | 2021-03-23 | BriefCam Ltd. | Computer-implemented method for generating an output video from multiple video sources |
-
2018
- 2018-12-07 JP JP2018230177A patent/JP2022034086A/ja active Pending
-
2019
- 2019-11-22 WO PCT/JP2019/045801 patent/WO2020116206A1/ja active Application Filing
- 2019-11-22 US US17/297,951 patent/US11978261B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11978261B2 (en) | 2024-05-07 |
WO2020116206A1 (ja) | 2020-06-11 |
US20220092876A1 (en) | 2022-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7314798B2 (ja) | 撮像装置、画像処理装置、及び、画像処理方法 | |
WO2020116206A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
US11501461B2 (en) | Controller, control method, and program | |
JP7027737B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
WO2019073920A1 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
JPWO2019026715A1 (ja) | 制御装置、および制御方法、プログラム、並びに移動体 | |
JPWO2019181284A1 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
JPWO2019044571A1 (ja) | 画像処理装置、および画像処理方法、プログラム、並びに移動体 | |
KR20220020804A (ko) | 정보 처리 장치 및 정보 처리 방법, 그리고 프로그램 | |
US20220383749A1 (en) | Signal processing device, signal processing method, program, and mobile device | |
US20220390557A9 (en) | Calibration apparatus, calibration method, program, and calibration system and calibration target | |
US20200230820A1 (en) | Information processing apparatus, self-localization method, program, and mobile body | |
US20230370709A1 (en) | Imaging device, information processing device, imaging system, and imaging method | |
US11563905B2 (en) | Information processing device, information processing method, and program | |
US20240056694A1 (en) | Imaging device, image processing method, and image processing program | |
US20210295563A1 (en) | Image processing apparatus, image processing method, and program | |
JP2022028989A (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
JP2022017612A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP7483627B2 (ja) | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 | |
JP7371679B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
WO2023054090A1 (ja) | 認識処理装置、認識処理方法、および認識処理システム |