JP2022017612A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP2022017612A
JP2022017612A JP2018205982A JP2018205982A JP2022017612A JP 2022017612 A JP2022017612 A JP 2022017612A JP 2018205982 A JP2018205982 A JP 2018205982A JP 2018205982 A JP2018205982 A JP 2018205982A JP 2022017612 A JP2022017612 A JP 2022017612A
Authority
JP
Japan
Prior art keywords
information processing
unit
processing apparatus
removal range
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018205982A
Other languages
English (en)
Inventor
崇史 正根寺
Takafumi Shokonji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2018205982A priority Critical patent/JP2022017612A/ja
Priority to PCT/JP2019/038544 priority patent/WO2020090320A1/ja
Publication of JP2022017612A publication Critical patent/JP2022017612A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022017612000001
【課題】物体認識に関する情報処理の負荷を軽減させることができる情報処理装置、情報処理方法及び情報処理プログラムを提供する。
【解決手段】情報処理装置は、移動体が備えるセンサによって撮影された画像を取得する取得部と、センサと移動体が走行する路面との相対関係に応じて、取得された画像に含まれる物体を検出対象から除去する範囲である除去範囲を動的に決定する決定部とを備える。
【選択図】図6

Description

本開示は、情報処理装置、情報処理方法及び情報処理プログラムに関する。詳しくは、移動体に搭載されたセンサによる物体認識処理に関する。
自動車等の移動体に関する技術として、ADASシステム(Advanced Driver Assistance System)等、事故の可能性を事前に検知し回避するための技術が知られている。
このような技術では、車両に搭載されるセンサ(カメラ等)で外部物体を認識する。物体の認識に関する技術として、車両にピッチングが発生した場合にも、カメラ自体の角度を機械的に変更するような複雑な構成を必要とせず、簡単な構成で物体を確実に検出するための技術が知られている。
特開平9-223227号公報
従来技術によれば、ピッチによるずれを演算処理によって補正することで、カメラが捉えた複数の画像間で物体を確実に検出することができる。
しかしながら、従来技術では、物体認識に関する情報処理の負荷を軽減させることは難しい。物体認識処理は、例えばカメラによって撮影された画像上で物体を認識することにより行われるが、誤認識によって検出される物体や、検出する必要性の低い物体(衝突の危険性が低い物体等)も相当数ある。このような状況において、検出された全ての物体に対して衝突の判断等を行うと、情報処理の負荷が大きくなる。
そこで、本開示では、物体認識に関する情報処理の負荷を軽減させることができる情報処理装置、情報処理方法及び情報処理プログラムを提案する。
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、移動体が備えるセンサによって撮影された画像を取得する取得部と、前記センサと前記移動体が走行する路面との相対関係に応じて、前記取得された画像に含まれる物体を検出対象から除去する範囲である除去範囲を動的に決定する決定部と、を備える。
本開示の実施形態に係る情報処理の概要を示す図である。 本開示の実施形態に係る算出処理を説明する図(1)である。 本開示の実施形態に係る算出処理を説明する図(2)である。 本開示の実施形態に係る算出処理を説明する図(3)である。 本開示の実施形態に係る算出処理を説明する図(4)である。 本開示の実施形態に係る情報処理装置の構成例を示す図である。 本開示の実施形態に係る算出処理を説明する図(5)である。 本開示の実施形態に係る算出処理を説明する図(6)である。 本開示の実施形態に係る算出処理を説明する図(7)である。 本開示の実施形態に係る算出処理を説明する図(8)である。 本開示の実施形態に係る算出処理を説明する図(9)である。 本開示の実施形態に係る決定処理を説明する図である。 本開示の実施形態に係る処理の流れを示すフローチャートである。 本開示の変形例に係る情報処理を説明する図である。 本技術が適用され得る移動体制御システムの概略的な機能の構成例を示すブロック図である。 情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
以下に示す項目順序に従って本開示を説明する。
1.実施形態
1-1.実施形態に係る情報処理の概要
1-2.実施形態に係る情報処理装置の構成
1-3.実施形態に係る情報処理の手順
1-4.実施形態に係る変形例
2.その他の実施形態
2-1.移動体の構成
2-2.その他
3.ハードウェア構成
(1.実施形態)
[1-1.実施形態に係る情報処理の概要]
図1は、本開示の実施形態に係る情報処理の概要を示す図である。本開示の実施形態に係る情報処理は、例えば、自動運転を行う所定の移動体が、衝突等を防止するために周囲の物体を認識する処理に利用される。実施形態では、所定の移動体として、自動車を例に挙げる。また、実施形態に係る情報処理は、自動車に搭載される情報処理装置100(図1での図示は省略する)によって実行される。
情報処理装置100は、センサによって周囲の状況を観測し、観測結果に基づいて周囲の物体を認識する。実施形態では、情報処理装置100は、センサとしてステレオカメラ(以下、特に説明のない場合は単に「カメラ」と記載する)を用いて、周囲を撮影して画像を取得する。そして、情報処理装置100は、取得した画像に対して画像認識処理を行うことで、検出の対象となる物体である対象物を検出する。例えば、情報処理装置100は、CNN(Convolutional Neural Network)等を利用して学習された学習器を用いて、予め学習した対象物を画像上で検出する。例えば、情報処理装置100は、1フレームの画像に対して異なる大きさのフィルタ(例えば、5×5ピクセルや、10×10ピクセルなど)を順に用いることで、対象物を精度よく検出することができる。なお、対象物とは、自動車にとって衝突を避けるべき物体や、自動車が認識すべき物体であり、例えば、歩行者、自転車、他の自動車、信号機、標識、特定の照明体(自動車のヘッドランプやテールランプなど)等である。
上記のような画像認識処理を経て、情報処理装置100は、対象物を検出し、検出した対象物の動きを追跡(トラッキング)する。また、情報処理装置100は、対象物を回避するための自動運転を制御したり、対象物に衝突しないよう自動ブレーキ制御を行ったりする。すなわち、情報処理装置100は、対象物の検出や追跡処理を継続しながら、安全な自動運転を行うための制御を行う。
このように、情報処理装置100は、既定のフレーム数(例えば1秒間に30フレーム)に対する画像認識処理や、対象物のトラッキング処理や、対象物への危険度の判定等を継続することを要する。かかる情報処理は、トラッキングしたり衝突判定を行ったりする対象物が少なくなるほど、負荷が軽減する。このため、情報処理装置100は、例えば誤認識した対象物を追跡対象から除去し、処理対象とする対象物を減らすといった対応を採りうる。これにより、情報処理装置100は、処理負荷を軽減したり、ブレーキが誤作動する可能性を低減させたりできる。
しかし、検出した対象物を処理対象から除去するか否か(言い換えれば、検出された対象物が誤認識されたものであるか否か)を判定することは容易でない。例えば、検出処理において、空中に浮遊している対象物や、一般的な対象物(歩行者や自転車等)と比較して明らかに巨大な対象物が検出される場合がある。この場合、検出された物体が所定の高さを超えて浮遊していることや、検出された物体自体の高さが一般的な歩行者等の高さを超えていることを判定基準として、物体を除去することが可能である。具体的には、検出された物体の最下端が路面から2メートル以上離れている場合や、検出された物体自体の高さが2.5メートルを超えている場合等には、それらの物体は、誤認識された物体であると想定される。
しかし、自動車に搭載されるカメラは、車両の挙動等によって正常な位置からずれることが頻繁に起こりうるため、撮影される画像にもぶれが生じる。対象物の高さ情報は画像に基づいて算出されることから、ぶれが生じた画像は、対象物の高さ情報の推定処理に誤差を生じさせる。このため、所定閾値を超える高さの物体を一律に除去する等の設定を行った場合、高さの算出における誤差によって、実際にはその高さを超えない物体が処理対象から除去されるおそれがある。すなわち、所定閾値を超える高さの物体を一律に除去する等の処理では、誤認識と推定された物体を処理対象から適切に除去することが難しい。
そこで、本開示に係る情報処理装置100は、以下に説明する情報処理によって、誤認識した対象物を精度よく除去することを可能にする。具体的には、情報処理装置100は、カメラと、車両が走行する路面との相対関係に応じて、画像に含まれる物体を検出対象から除去する範囲である除去範囲を動的に決定する。なお、除去範囲とは、検出された物体を処理対象から除去するための条件(判定基準)と読み替えてもよい。例えば、情報処理装置100は、カメラが路面と成す角度に応じて、物体を検出対象から除去する高さの閾値を決定する。なお、カメラが路面と成す角度とは、言い換えれば、車両の挙動によって生じるピッチ(カメラの垂直方向の角度)やロール(カメラの回転角)である。
すなわち、情報処理装置100は、車両に生じたピッチやロールに応じて除去範囲を動的に決定することにより、検出された物体が誤認識であるか否かを適切に判定することができる。以下、図1を用いて、本開示の実施形態に係る情報処理の概要を示す。
図1に示す画像10は、情報処理装置100が備えるカメラによって撮影された画像である。情報処理装置100は、画像10を撮影するとともに、画像10に含まれる物体を検出する。物体の検出処理は、上記のように、予め学習された学習器等を用いて実行される。
図1の例では、情報処理装置100が、画像10において、比較的近傍に所在する自転車と、比較的遠方に所在する自転車と、歩行者とを検出したものとする。情報処理装置100は、検出した物体を矩形で表示する。図1の例では、情報処理装置100は、画像10にオーバーレイさせて、近傍に所在する自転車を示す矩形12と、比較的遠方に所在する自転車を示す矩形14と、歩行者を示す矩形16とを表示する。なお、矩形16は、遠方にある木の枝を、情報処理装置100が歩行者と誤認識したものである。また、各矩形は、検出された物体に接する各端点(上端、下端、左端、右端)を通る線分を結ぶこと等により形成される。
物体の検出処理において、情報処理装置100は、物体を検出するとともに、物体までの距離を測定する。例えば、情報処理装置100は、ステレオカメラの2個のレンズを利用したステレオ測距技術を利用して、物体までの距離を測定する。なお、情報処理装置100は、ステレオ測距技術に限らず、任意の測定機器(例えばレーザを利用した測距センサや、LiDAR(Light Detection and Ranging)のように光を利用した測距センサ等)を利用してもよい。
続けて、情報処理装置100は、物体までの距離を利用して、物体の高さ情報を算出する。この点について、図2を用いて説明する。図2は、本開示の実施形態に係る算出処理を説明する図である。
図2に示すように、自動車に搭載された情報処理装置100は、カメラ40によって撮影される画像を取得する。カメラ40が撮影した画像とは、図1に示す画像10に対応する。画像10には、歩行者と誤認識されて検出された矩形16が含まれる。図2では、自動車が走行する路面を示す線44から、撮像面20の矩形16に対応する実際の物体を示した矩形17の下端までの高さYを算出する例を示す。
カメラ40の焦点距離f、撮像面20の大きさ、及び、カメラ40の設置高(図2では「CamHeight」と示す)は、既知である。なお、図2の例では、カメラ40の光軸と、消失点(無限遠点)とが一致するものとする。画像10における消失点の位置及び撮像面20の大きさが既知であると、画像10における矩形16の下端までの高さyを算出可能である。また、高さyが算出できれば、相似を利用して、矩形16の対象物の実際の高さYも算出可能である。なお、カメラ40から矩形17までの距離Zは、上記したステレオ測距等により求められる。高さYは、例えば下記式(1)で求められる。
Figure 2022017612000002
画像10における矩形16の下端までの高さyの算出について、図3を用いて説明する。図3は、本開示の実施形態に係る算出処理を説明する図(2)である。具体的には、図3は、図1に示した画像10に、消失点33と、消失点33を通る水平線34と、水平線34から矩形16の下端までの線分35をオーバーレイした状態を示す。
上述したように、水平線34の高さは、カメラ40の設置高と一致する。また、情報処理装置100は、上述のように、図2に示した撮像面20の大きさに基づいて、画像10における1ピクセル分の高さを算出できる。このため、情報処理装置100は、線分35に相当するピクセル数に基づいて、線分35に対応する高さ(すなわち、高さy)を算出できる。
図2及び図3を用いて示したように、情報処理装置100は、画像10において矩形16を検出するとともに、矩形16に対応する対象物(すなわち矩形17)の現実の高さYを算出する。なお、情報処理装置100は、矩形16のみならず、矩形12や矩形14の高さについても算出する。また、上記と同様の手法により、情報処理装置100は、例えば画像10におけるピクセル数等に基づいて矩形16自体の大きさ(縦横の長さ)を算出することができる。すなわち、情報処理装置100は、検出した物体の路面からの高さ、及び、物体自体の高さのいずれをも算出可能である。
図1に戻り、説明を続ける。各対象物の高さを算出したのち、情報処理装置100は、各対象物が除去範囲に属するか否かを判定する(ステップS1)。なお、ステップS1の場合、画像10が撮像された際に、自動車(カメラ)には、ピッチやロールが生じていないものとする。
この場合、情報処理装置100は、予め設定した除去範囲の設定に従い、検出した物体を対象物から除去するか否かを判定する。除去範囲は、例えば、路面からの高さや、物体自体の高さが現実にそぐわないものであるか否か等に鑑みて決定される。一例として、情報処理装置100は、路面からの高さが2メートルを超える範囲や、物体自体の高さが2.5メートルを超える範囲等を除去範囲として決定する。なお、除去範囲は、検出される物体の種別に応じて変更されてもよい。例えば、情報処理装置100は、検出される物体が歩行者や自転車であれば物体自体の高さが2.5メートルを超える範囲を除去範囲とし、検出される物体が信号機等であれば物体自体の高さが5メートルを超える範囲を除去範囲としてもよい。なお、上記の除去範囲の設定値は一例であり、情報処理装置100は、任意の値を除去範囲と決定してもよい。
説明のため、図1のステップS1後の画像10として、フィルタ18がオーバーレイされている状態を示す。フィルタ18は、カメラから任意の距離において、路面からの高さが閾値を超える範囲を示す。言い換えれば、フィルタ18に覆われる矩形は、路面からの高さが閾値を超えたものであり、除去範囲に属する。図1の例では、矩形16は、フィルタ18に覆われていることから、除去範囲に属する。このため、情報処理装置100は、矩形16が除去範囲に属すると判定し、矩形16を検出対象から除去する。
具体的には、情報処理装置100は、矩形16をトラッキングしたり、安全判定を行う物体としての対象から除去したりするよう、後段の処理部に指示する。例えば、情報処理装置100は、矩形16に対応する対象物については後段の処理部に送らず、矩形12や矩形14の対象物の情報のみを、トラッキングや安全判定を行う物体として、後段の処理部に送る。なお、この例では、説明のため、フィルタ18を画像10にオーバーレイさせた状態を示しているが、情報処理装置100は、フィルタ18の表示を行わず、単に矩形16の高さが除去範囲の条件を満たすか否かを判定し、矩形16を検出対象から除去してもよい。
続いて、図4及び図5を用いて、自動車(カメラ)にピッチやロールが生じた場合における除去範囲の決定について説明する。図4は、本開示の実施形態に係る算出処理を説明する図(3)である。図4には、カメラ40の理想的な光軸(路面と平行)を示す線分42と、路面を示す線44と、物体46とを示す。また、図4には、線分42と、カメラ40と物体46の最下端とを結ぶ線分とが成す角αとを示す。この場合、物体46の最下端までの高さHeightは、下記式(2)で算出される。
Figure 2022017612000003
上記式(2)は、カメラ40が設置角度から傾いていない(自動車にピッチやロールが生じていない)、理想的な状態での物体46の高さの算出式である。
しかしながら、走行中のアクセスやブレーキ等の挙動に伴い、カメラ40には傾きが生じることがありうる。この場合の物体46の高さの算出について、図5を用いて説明する。図5は、本開示の実施形態に係る算出処理を説明する図(4)である。図5には、図4と同様に、線分42と、線44と、物体46とを示す。また、図5には、線分42と、カメラ40と物体46の最下端とを結ぶ線分とが成す角αとを示す。また、図5には、カメラ40自体が傾いたことによって生じたピッチを示す。図5では、ピッチは、理想的な光軸を示した線分42と、傾いたカメラ40の光軸に対応する線分48とが成す角度pitchとして示される。この場合、物体46の最下端までの高さHeight´は、下記式(3)で算出される。
Figure 2022017612000004
上記式(3)に示すように、高さHeight´は、角度pitchに応じて可変する。このことは、カメラ40が傾くことにより、物体の最下端の高さには誤差が生じることを示している。このため、ピッチが生じている場合に、ピッチが生じていない場合の除去範囲を適用すると、適切に物体を除去できない可能性や、本来除去してはいけない物体が除去されるおそれがある。
例えば、図5で説明したように、カメラが下向きに傾いた状態における画像に基づき高さを算出すると、実際の高さよりも大きい値が算出される。そこで、情報処理装置100は、生じたピッチに応じて除去範囲を動的に決定する。具体的には、情報処理装置100は、誤差が生じた場合であっても適切に物体を対象物から除去することができるよう、除去範囲をより上部(すなわち、より大きな値)に引き上げる。
この点について、図1に戻って説明する。例えば、情報処理装置100は、カメラが路面に対して下向きに傾いた場合、ステップS1の場合と比較して、除去範囲として設定される高さがより高くなるよう、除去範囲を変更する(ステップS2)。具体的には、ステップS2では、フィルタ18は、ステップS1の場合と比較して、画像10のより上方にずれたように表示される。詳細については後述するが、ステップS2において、情報処理装置100は、生じたピッチに応じて、除去範囲として設定する高さを引き上げる。
これにより、情報処理装置100は、ステップS2のように画像10に写り込む物体の高さが実際よりも高く算出される場合であっても、適切に除去範囲を設定することができる。そして、情報処理装置100は、物体を対象物から除去することによって、トラッキング等の後段処理を省略することができるため、物体認識に関する情報処理の負荷を軽減させることができる。
以下、上記の情報処理を実行する情報処理装置100の構成や、ピッチのみならずロールが生じた場合の算出処理や、ピッチ等が生じた場合の除去範囲の決定等について、図を用いて詳細に説明する。
[1-2.実施形態に係る情報処理装置の構成]
図6を用いて、情報処理装置100の構成について説明する。図6は、本開示の実施形態に係る情報処理装置100の構成例を示す図である。図6に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130と、検知部140と、入力部150と、出力部160とを有する。なお、図6に示した構成は機能的な構成であり、ハードウェア構成はこれとは異なっていてもよい。また、情報処理装置100の機能は、複数の物理的に分離された装置に分散して実装されてもよい。
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、USB(Universal Serial Bus)ホストコントローラ、USBポート等により構成されるUSBインターフェイスであってもよい。また、通信部110は、有線インターフェイスであってもよいし、無線インターフェイスであってもよい。例えば、通信部110は、無線LAN方式やセルラー通信方式の無線通信インターフェイスであってもよい。通信部110は、情報処理装置100の通信手段或いは送信手段として機能する。例えば、通信部110は、ネットワークN(インターネット等)と有線又は無線で接続され、ネットワークNを介して、他の情報処理端末等との間で情報の送受信を行う。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、各種データを記憶する。例えば、記憶部120は、検出対象を学習した学習器(画像認識モデル)や、検出した対象物に関するデータ等を記憶する。また、記憶部120は、自動運転を実行するための地図データ等を記憶してもよい。
また、記憶部120は、除去範囲の初期設定(言い換えれば、カメラ40にピッチ及びロールが生じていない場合の設定)を記憶してもよい。例えば、記憶部120は、「検出された物体自体の高さが2.5メートルを超える」範囲を、除去範囲として記憶する。あるいは、記憶部120は、「検出された物体の最下端の高さが路面から1.5メートルを超える」範囲を、除去範囲として記憶してもよい。また、記憶部120は、これらの条件を同時に満たす場合のみを除去範囲として記憶してもよい。また、記憶部120は、物体の種別ごとに異なる除去範囲を記憶してもよい。
また、記憶部120は、物体の高さ算出において誤差が生じると予測される場合に、除去範囲を拡大する数値を記憶してもよい。誤差を含めた物体の高さ算出については後述するが、例えば記憶部120は、算出された誤差からマージンを含めて「50センチメートル」拡大した範囲を除去範囲と新たに設定する、といった設定情報を記憶してもよい。なお、上記した数値は一例であり、記憶部120は、例えば管理者等の入力に従い、入力される任意の値を設定値として記憶してもよい。
また、記憶部120は、ユーザによる手動や、情報処理装置100による自動運転によって制御される車両に関する情報を記憶してもよい。例えば、記憶部120は、車体の大きさ、重量、車種等の情報を記憶する。
検知部140は、情報処理装置100に関する各種情報を検知する。具体的には、検知部140は、情報処理装置100の周囲の環境や、情報処理装置100の所在する位置情報や、情報処理装置100と接続されている機器に関する情報等を検知する。検知部140は、各種の情報を検知するセンサと読み替えてもよい。実施形態に係る検知部140は、撮像部141と、測定部142とを有する。
撮像部141は、情報処理装置100の周囲を撮像する機能を有するセンサであり、いわゆるカメラである。例えば、撮像部141は、ステレオカメラや単眼カメラ、レンズレスカメラ等によって実現される。例えば、図1等に示したカメラ40は、撮像部141の一例である。
測定部142は、情報処理装置100及び情報処理装置100が搭載される車両の情報を測定するセンサである。
例えば、測定部142は、情報処理装置100及び情報処理装置100が搭載される車両の挙動を検知する。例えば、測定部142は、車両の加速度を検知する加速度センサや、挙動を検知するジャイロセンサ、IMU(Inertial Measurement Unit)等である。
また、測定部142は、情報処理装置100が搭載された自動車の挙動を測定してもよい。例えば、測定部142は、自動車のブレーキ、アクセル、ステアリングの操作量を測定する。例えば、測定部142は、自動車のブレーキ、アクセル、ステアリングの各々に搭載されたセンサ等を利用して、ブレーキやアクセルに対して加えられた力(圧力等)に応じた量を測定する。また、測定部142は、自動車の速度や加速度、加速及び減速量、ヨーレート情報等を測定してもよい。測定部142は、これら自動車の挙動に関する情報について、上記したセンサ等に限らず、様々な既知の技術によって測定してもよい。
また、測定部142は、情報処理装置100の周囲にある物体との距離を測定するためのセンサを含んでもよい。例えば、測定部142は、情報処理装置100の周辺環境の三次元的な構造を読み取るLiDARであってもよい。LiDARは、赤外線レーザ等のレーザ光線を周囲の物体に照射し、反射して戻るまでの時間を計測することにより、周囲にある物体までの距離や相対速度を検知する。また、測定部142は、ミリ波レーダを使った測距システムであってもよい。また、測定部142は、デプスデータを取得するためのデプスセンサを含んでもよい。
また、測定部142は、情報処理装置100の周囲の音を収集するマイクロフォンや、情報処理装置100の周囲の照度を検知する照度センサや、情報処理装置100の周囲の湿度を検知する湿度センサや、情報処理装置100の所在位置における磁場を検知する地磁気センサ等を含んでもよい。
入力部150は、情報処理装置100を利用するユーザ等から各種操作を受け付けるための処理部である。入力部150は、例えば、キーボードやタッチパネル等を介して、各種情報の入力を受け付ける。
出力部160は、各種情報を出力するための処理部である。出力部160は、例えばディスプレイやスピーカー等である。例えば、出力部160は、撮像部141によって撮像された画像を表示したり、画像内で検出された物体を矩形として表示したりする。
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部に記憶されたプログラム(例えば、本開示に係る情報処理プログラム)がRAM(Random Access Memory)等を作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
図6に示すように、制御部130は、取得部131と、算出部132と、決定部133と、実行部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
取得部131は、各種情報を取得する。例えば、取得部131は、情報処理装置100が搭載された移動体が備えるセンサ(撮像部141)によって撮影された画像を取得する。
例えば、取得部131は、センサとして、ステレオカメラによって撮影された画像を取得する。この場合、取得部131は、例えばステレオ測距によって測定された、物体までの距離を取得する。
なお、取得部131は、センサとして、単眼カメラによって撮影された画像を取得してもよい。この場合、取得部131は、例えばレーザ等を用いた測距センサ(測定部142)によって測定された、物体までの距離を取得する。
取得部131は、取得した情報を、適宜、記憶部120に格納する。また、取得部131は、記憶部120内から、適宜、処理に要する情報を取得してもよい。また、取得部131は、検知部140や入力部150を介して処理に要する情報を取得してもよいし、ネットワークNを介して、外部装置から情報を取得してもよい。
算出部132は、取得部131によって取得された画像に対して画像認識処理を行い、物体を検出する。そして、算出部132は、検出された物体までの距離情報を用いて、当該物体に関する高さ情報を算出する。
図2乃至図4において説明したように、算出部132は、路面に対するセンサの光軸の角度に応じて、物体自体の高さや、路面から物体の最下端までの高さを算出する。
また、図5において説明したように、算出部132は、物体の高さを算出する際には、誤差を含む高さを算出してもよい。
後述する決定部133は、算出部132によって算出された誤差を含む高さ情報を用いて、除去範囲を決定する。上記のように、誤差は、移動体の挙動等によって生じるカメラの光軸のピッチやロールによって生じうる。また、誤差は、カメラ自体の高さが変位することにより生じたり、物体の測距において生じたりする。情報処理装置100は、これらの各要素を含んだ、誤差を含む高さ情報を算出し、算出した値に基づいて、除去範囲を決定する。これらの点について、図7から図11を用いて、詳細に説明する。
図7は、本開示の実施形態に係る算出処理を説明する図(5)である。図7以下では、自動車(情報処理装置100)の挙動によって生じるピッチ及びロールの説明のため、自動車の側方にカメラ40が設置されている例を示す。すなわち、図7では、カメラ40の視野角49は、自動車の側方を向くこととなる。
上述のように、カメラ40は、自動車の挙動等に応じてピッチもしくはロールが生じる。これにより、算出部132が算出する高さ情報に誤差が生じすることになる。この点について、図8以下を用いて説明する。
例えば、自動車のブレーキ等の挙動により、自動車がノーズダイブした状態について説明する。図8は、本開示の実施形態に係る算出処理を説明する図(6)である。図8では、カメラ40が設置された自動車において、自動車の前方が下がった状態(自動車自体にピッチが生じた場合)を示している。
図8に示すように、自動車は、重心位置50を中心として、前方が沈み込んだ状態となる。このとき、カメラ40は、移動前後のカメラ40の中心位置を結ぶ線分54と、重心位置50とカメラ40の中心を結ぶ線分56とが成す角度52だけ傾く。角度52は、自動車にとってのピッチであり、カメラ40にとってはロールとなる。
このとき、カメラ40の高さ方向の変位である線分54を「HeightDiff」と称し、自動車の重心からカメラ40までの距離を「DistanceGravity」と称すると、「HeightDiff」は、下記式(4)で求められる。
Figure 2022017612000005
上記式(4)における「roll」とは、カメラ40から見た場合の路面との相対関係(ロール)を示している。すなわち、ピッチ及びロールが既知であれば、上記式(4)によって、カメラ40の高さの変位を求めることができる。
次に、図9を用いて、算出処理における誤差について説明する。図9は、本開示の実施形態に係る算出処理を説明する図(7)である。
図8で示したように、カメラ40にロールが生じると、カメラ40が取得する画像が回転する。図4を用いて説明したように、算出部132は、画像上の矩形の最下端に基づいて物体の高さを算出するため、画像が回転した場合、算出誤差が生じうる。
図9に示す画像61は、カメラ40にロールが生じる前の画像を示す。また、矩形65は、画像61において検出された任意の物体を示す。ここで、矩形65の最下端の1点の座標を(ximg,yimag)と仮定する。
ここで、カメラ40のロールが生じたものとする(ステップS11)。図9に示す画像62は、カメラ40にロールが生じた後の画像を示す。また、矩形66は、移動後の画像62において検出された任意の物体であり、移動前の矩形65に対応する。ここで、矩形65の1点の座標(ximg,yimag)の移動後の点を座標(ximg´,yimag´)とすると、座標(ximg´,yimag´)は、下記式(5)で表される。
Figure 2022017612000006
続けて、上記のように画像が回転した場合の誤差算出について、図10を用いて説明する。図10は、本開示の実施形態に係る算出処理を説明する図(8)である。
図10に示す物体70は、図9に示した矩形65に対応する物体を示す。また、物体72は、図9に示した矩形66に対応する物体を示す。すなわち、図10では、カメラ40の移動によって、物体70が見かけ上移動した状況を示している。
図10において、物体70から物体72への変位(「HeightDiff imgroll」と称する)を求めることにより、カメラ40の回転による誤差が算出できる。例えば、「HeightDiff imgroll」は、下記式(6)で求められる。
Figure 2022017612000007
次に、カメラ40がステレオカメラであり、ステレオ測距により物体までの距離を測定する場合の誤差について、図11を用いて説明する。図11は、本開示の実施形態に係る算出処理を説明する図(9)である。
ステレオ測距においては、左右カメラの位置がずれること等により、視差ずれが生じることがわかっている。このため、ステレオ測距された対象物までの距離D(Distance)に対して、視差ずれ(誤差)を考慮した場合の距離Distance´は、例えば下記式(7)で求めることができる。
Figure 2022017612000008
上記式(7)において、fは、焦点距離を示す。また、Bは、カメラ間距離(基線長)を示す。また、「Errdiff」は、視差ずれ(誤差)を示す。ここで、視差ずれについては、統計的な観測により求めた値を代入することができる。仮に、統計結果等から、対象物の距離が20メートルの場合に、画像上において1ピクセル程度の誤差が生じることが判明しているとする。この場合、算出部132は、上記式(7)の「Errdiff」に「1」を代入する。そして、算出部132は、焦点距離fやカメラ間距離Bや、対象物までの距離Dについても、単位をピクセルに揃えることで、誤差を含めた距離Distance´を算出することができる。
以上、図7乃至図11において説明したように、誤差を生じうる各要素を求めることで、算出部132は、誤差を含む物体の高さを算出することが可能である。例えば、算出部132は、下記式(8)により、誤差を含む物体の高さを求める。
Figure 2022017612000009
上記式(8)に示されるように、算出部132は、カメラに生じるピッチ及びロール(言い換えれば、画像自体の回転による物体の高さ算出の誤差)、カメラの設置高の変位、及び、ステレオ測距の誤差をそれぞれ求めることで、誤差を含む物体の高さ情報を算出することができる。算出部132は、算出した高さ情報を決定部133に送る。
決定部133は、カメラ40と移動体が走行する路面との相対関係に応じて、取得された画像に含まれる物体を検出対象から除去する範囲である除去範囲を動的に決定する。例えば、決定部133は、物体として、歩行者、自転車、自動車及び二輪車の少なくともいずれかを検出対象から除去する除去範囲を動的に決定する。なお、決定部133は、物体として、信号機や、自動車のヘッドライトやテールライト等を検出対象から除去する除去範囲を決定してもよい。
例えば、決定部133は、相対関係として、移動体が走行する路面に対するカメラ40の光軸の角度に応じて、除去範囲を決定する。一例として、決定部133は、移動体が走行する路面に対するカメラ40の光軸の角度を参照し、角度が初期値(すなわち、カメラの俯角が0度)である場合には、初期設定に基づいて除去範囲を決定する。
また、決定部133は、路面に対するカメラ40の光軸のピッチ及びロールに応じて、除去範囲を決定する。すなわち、決定部133は、決定部133は、移動体が走行する路面に対するカメラ40の光軸の角度を参照し、角度が初期値ではなく、ピッチ及びロールが生じている場合には、上記式(8)に沿って算出部132によって算出される誤差に基づいて、除去範囲を決定する。
上記式(8)に示したように、誤差は、カメラ40のピッチ及びロールが生じることによる算出誤差、及び、ステレオ測距の誤差により生じうる。このため、決定部133は、予めそれらの要素と生じうる誤差の相関関係を求めておき、除去範囲を決定するようにしてもよい。
一例として、物体までのステレオ測距の結果が20メートルであり、ピッチが1度、ロールが1度生じた場合に、物体の高さ情報に「約1メートル」の誤差が生じることが統計的に既知になったものとする。この場合、決定部133は、かかる誤差を考慮し、除去範囲を決定する。なお、現実的には、ピッチやロールの観測値等についても誤差が生じる可能性があるため、決定部133は、いくらかのマージンを含めて除去範囲を決定する。例えば、決定部133は、上記の例の場合、マージンを含めて「1.5メートル」分を許容するような除去範囲を決定する。
具体的には、除去範囲の初期設定が、「検出された物体の最下端が路面から2メートル以上離れている場合」であったとする。これに対して、ステレオ測距の結果が20メートルであり、ピッチが1度、ロールが1度生じた場合には、決定部133は、上記の許容する値を加えて、除去範囲を「検出された物体の最下端が路面から「2+1.5=3.5」メートル以上離れている場合」と決定する。これにより、決定部133は、カメラ40にピッチ等が生じることにより誤差を含めた高さが算出された場合であっても、その誤差を考慮した除去範囲を適切に決定することができる。
なお、図6を用いて示したように、決定部133は、カメラ40に生じるピッチ及びロールの情報が取得可能であれば、カメラ40の取り付け位置が前方であっても側方であっても後方であっても、除去範囲を決定することができる。すなわち、決定部133は、移動体の前方、側方もしくは後方のいずれかに備えられた少なくとも一つのセンサの光軸のピッチ及びロールを用いて、除去範囲を決定することができる。
ここで、移動体のピッチ及びロールの検知について説明する。決定部133は、移動体のピッチ及びロール(言い換えれば、路面に対するカメラ40の光軸のピッチ及びロール)について、種々の手法を用いて取得可能である。
一例として、決定部133は、測定部142によって測定される車両情報からピッチ及びロールを取得してもよい。上述のように、測定部142は、IMU等のセンサにより実現されるため、車両全体の傾き等を測定することが可能である。決定部133は、測定部142により測定されたピッチ及びロールの値を取得し、取得した値に基づいて除去範囲を決定することができる。
また、決定部133は、移動体の挙動を制御する制御情報に基づいて相対関係を算出し、算出した相対関係に応じて除去範囲を決定してもよい。
例えば、決定部133は、移動体の挙動を制御する制御情報として、移動体に対するブレーキ、アクセルもしくはステアの操作量、移動体の加速度の変化量、又は、移動体のヨーレート情報の少なくともいずれかに基づいて、相対関係を算出する。
例えば、決定部133は、カメラ40が搭載された移動体の制御情報(ブレーキやアクセルの制御量や、加減速の変化量)と、その制御情報が発生した場合に移動体に生じうるピッチやロールの関係を予め算出及び記憶しておく。この場合、決定部133は、走行中の速度や、車体重量や、路面の種別等と、制御情報によって生じるピッチ及びロールの関係を記憶しておいてもよい。これにより、決定部133は、移動体の制御に合わせて生じうるピッチ及びロールの情報を精度よく算出することができる。
そして、決定部133は、移動体の走行中に発生する制御情報に基づいて、移動体に生じると想定されるピッチ及びロールを算出し、算出した値に基づいて、カメラ40と路面との相対関係を算出する。かかる手法によっても、決定部133は、路面に対するカメラ40の設置角の変化を捉えることができるため、当該角度の変化に応じて、動的に除去範囲を決定することができる。
また、決定部133は、複数の画像をまたいだ物体の変化量(移動量)に基づいて、移動体のピッチ及びロール等を推定し、推定した情報に基づいて、カメラ40と路面との相対関係を算出してもよい。具体的には、決定部133は、取得部131によって取得された複数の画像に撮像された物体の変化量に基づいて相対関係を算出し、算出した相対関係に応じて除去範囲を決定する。
例えば、図9に示したように、カメラ40にロールが生じた場合、ロールが生じる前に検出された物体(図9の例では、矩形65及び矩形66)は、画像上において位置がずれることになる。これは、物体自体が移動したのではなく、カメラ40が回転したことによって、物体の見かけ上の位置が変化したことによる。すなわち、決定部133は、あるフレームと次のフレームにおいて物体が所定閾値を超えて移動している場合、それは物体の移動ではなく、カメラ40と路面との相対関係が変化したと認識可能である。また、上記式(5)によれば、カメラ40に生じた変化(ロール)は、変化前後の画像における物体の座標が既知であれば、算出することができる。
このように、決定部133は、画像認識処理を利用して物体の変化量を求めることで、カメラ40の変化量、すなわち、カメラ40と路面との相対関係を求めることができる。かかる手法によっても、決定部133は、路面に対するカメラ40の設置角の変化を捉えることができるため、当該角度の変化に応じて、動的に除去範囲を決定することができる。
また、決定部133は、特定の時間内に観測されたピッチもしくはロールを平滑化した値に応じて、除去範囲を決定してもよい。
上記のいずれの手法においても、例えば移動体が障害物に乗り上げた瞬間等、カメラ40に瞬間的な振動が加えられた場合に、極めて短時間で比較的大きな相対関係の変化が観測される場合がある。例えば、前後フレーム間でのみでピッチ及びロール量を判定するなど、観測タイミングをあまりに細かく設定すると、突発的に大きな値(スパイク的な値)が生じた際に、情報処理に与える影響が大きくなると推定される。
このため、決定部133は、例えば、複数フレームに渡ってピッチ及びロールの変化量を観測しつつ、処理の際には、複数フレームにおけるピッチ及びロールの変化量の平均値や中央値を算出することで、平滑化した値を得ることができる。このように、決定部133は、数値を平滑化することによりスパイク的な値を排除した情報処理を行うことができるため、精度の高い情報処理を行うことができる。
上述してきたように、決定部133は、カメラ40に生じるピッチ及びロール等の要素に基づいて除去範囲を決定するため、一つの画像上においても、画像上の物体の位置に応じて除去範囲(除去の条件)が異なる場合がある。すなわち、決定部133は、画像における物体の位置に応じて、物体ごとに異なる除去範囲を動的に決定してもよい。
この点について、図12を用いて説明する。図12は、本開示の実施形態に係る決定処理を説明する図である。なお、図7乃至図11では、カメラ40が車体の横向きに設置されている例を示したが、図12では、説明をわかりやすくするため、カメラ40が車体の前方に設置されている例を用いて説明する。
図12の画像80は、カメラ40にピッチ及びロールが生じていない場合の除去範囲81を示している。言い換えると、画像80における除去範囲81を除いた箇所である検出範囲85は、物体が情報処理の対象物として検出される範囲を示している。なお、図1と同じく、図12における除去範囲81等の図示は、あくまで説明をわかりやすくするための表示例であり、実際の除去範囲は、画像上で検出された物体の高さ情報及び誤差情報を用いて決定される。
ここで、例えばノーズダイブ等の挙動により、移動体である自動車の前方が下向きに傾いたものとする。この場合、カメラ40にはピッチが発生するため、決定部133は、ピッチに応じて除去範囲を決定する(ステップS21)。例えば、決定部133は、除去範囲82を新たに決定する。除去範囲82は、除去範囲81と比較して、画像の上部にずれることになる。一方、新たな検出範囲86は、検出範囲85と比較して、より広い面積を含むことになる。
また、例えばスクォート(squirt)等の挙動により、移動体である自動車の前方が上向きに傾いたものとする。この場合、カメラ40には、ノーズダイブ時とは逆方向にピッチが発生するため、決定部133は、ピッチに応じて除去範囲を決定する(ステップS22)。例えば、決定部133は、除去範囲83を新たに決定する。除去範囲83は、除去範囲81と比較して、画像の下部にずれることになる。一方、新たな検出範囲87は、検出範囲85と比較して、より狭い面積を含むことになる。
また、移動体である自動車に、正面向かって右肩上がりに回転する挙動が生じたものとする。この場合、カメラ40には、ロールが発生するため、決定部133は、ロールに応じて除去範囲を決定する(ステップS23)。例えば、決定部133は、除去範囲84を新たに決定する。図12に示すように、除去範囲84にはロールに応じた範囲が設定されるため、除去範囲と検出範囲の境界が、右肩上がりの斜線として設定される。同様に、新たな検出範囲88にも、除去範囲84の境界が右肩上がりの斜線として現れる。このことは、除去範囲(高さの設定)が画像において必ずしも一律ではなく、画像上の物体の位置に応じて異なるものであることを示している。このように、決定部133は、カメラ40に生じたピッチ及びロールに応じて柔軟に除去範囲を決定するので、カメラ40に様々な挙動が生じた場合であっても、適切に除去範囲を決定することができる。
なお、決定部133は、必ずしもカメラ40のピッチ及びロールのみに応じて除去範囲を決定しなくてもよい。例えば、現実的には、カメラ40の正面(言い換えれば、カメラ40によって撮影された画像の中央近傍)に存在する物体については、より厳密にトラッキングや衝突可能性を行った方が適切である。このため、決定部133は、画像の中心近傍において検出された物体に対して、画像における他の範囲で検出された物体とは異なる除去範囲を動的に決定してもよい。例えば、決定部133は、画像を水平方向に3等分した場合の中心にあたる箇所については、端部において設定される除去範囲よりも、範囲を拡大させてもよい。これにより、決定部133は、より衝突の可能性が高いと想定される、画像中央で検出される物体については除去されにくくすることができるため、情報処理の負荷を軽減させつつ、事故や衝突の可能性も低減させることができる。
また、決定部133は、物体の種別ごとに異なる除去範囲を動的に決定してもよい。例えば、決定部133は、検出された物体が歩行者や自転車である場合に適用する除去範囲と、信号機等である場合に適用される除去範囲について、異なる高さの基準を決定してもよい。
決定部133は、画像において検出された物体が除去範囲に属するか否かを判定し、除去範囲に属する物体が存在する場合には、除去範囲に属する物体を検出対象から除去することを決定する。そして、決定部133は、除去しなかった対象物に関する情報のみを実行部134に送る。これにより、決定部133は、後段の処理部の負荷を軽減させることができる。
実行部134は、決定部133よりも後段の処理を実行する。例えば、実行部134は、検出対象とされる対象物をトラッキングしたり、対象物の移動情報(速度や方向)を分析したり、情報処理装置100が搭載される移動体との衝突判定を行ったりする。また、実行部134は、移動体と対象物とが衝突する可能性がある場合、移動体の回避行動を制御したり(ステア操作やブレーキ操作)、移動体のユーザに対して警告を発したりする。
[1-3.実施形態に係る情報処理の手順]
次に、図13を用いて、実施形態に係る情報処理の手順について説明する。図13は、本開示の実施形態に係る処理の流れを示すフローチャートである。
図13に示すように、情報処理装置100は、カメラ40等のセンサを介して、画像を取得する(ステップS101)。そして、情報処理装置100は、画像内の物体を検出する(ステップS102)。
続けて、情報処理装置100は、検出した物体の高さ情報を算出する(ステップS103)。その後、情報処理装置100は、情報処理装置100が搭載された車両にピッチ及びロールが生じているか否かを判定する(ステップS104)。
車両にピッチ及びロールが生じている場合(ステップS104;Yes)、情報処理装置100は、ピッチ及びロールによって生じる誤差を算出し、誤差を含めたうえで、物体を処理対象から除去する範囲(高さ)を決定する(ステップS105)。
さらに、情報処理装置100は、決定した閾値(高さ)を超える高さの物体を処理対象から除去する(ステップS106)。
一方、車両にピッチ及びロールが生じていない場合(ステップS104;No)には、情報処理装置100は、予め設定された閾値(除去範囲)を超える高さの物体を処理対象から除去する(ステップS107)。
そして、情報処理装置100は、除去しなかった物体の情報のみを後段の処理部に送る(ステップS108)。
[1-4.実施形態に係る変形例]
次に、実施形態における前提が異なる場合の例(変形例)について説明する。例えば、実施形態では、移動体が走行する路面の角度と、移動体の角度(すなわち、センサの設置角)とがともに水平(フラット)である例を示した。しかし、実際には、移動体が走行する路面に勾配が生じている場合がある。
この点について、図14を用いて説明する。図14は、本開示の変形例に係る情報処理を説明する図である。
図14に示すように、自動車の進行方向の路面94は、現時点で自動車が走行する路面に対して勾配がある。これに対して、情報処理装置100が算出する矩形17の高さは、現時点のカメラ40の設置高である「CamHeight」に基づいて算出されるため、現実の高さとは異なることになる。具体的には、図14に示す線分92の長さが、情報処理装置100が算出する矩形17の高さである。しかし、実際には、図14に示す線分90の長さが、勾配のある路面94からの矩形17の真の高さである。
このような場合、情報処理装置100は、路面94の勾配を測定したうえで、矩形17の高さを算出する。具体的には、情報処理装置100は、既知の勾配測定機器を用いて、路面94の勾配を測定する。例えば、情報処理装置100は、カメラ40によって取得された画像を分析すること(例えば、前方に位置する物体や他の自動車の形状等を分析すること)により、進行方向の路面がどのくらいの角度で勾配があるかを測定する。なお、情報処理装置100は、例えば保持する地図情報(例えば、各道路の勾配情報が記憶された地図情報)に基づいて、進行する路面94の勾配を取得してもよい。
そして、情報処理装置100は、矩形17までの距離に基づいて線分92の高さを算出するとともに、矩形17までの距離と勾配とに基づいて、補正値(線分92から差し引く高さ)を算出する。これにより、情報処理装置100は、矩形17の真の高さである線分90の長さを算出することができる。情報処理装置100は、算出した線分90の長さを用いて除去範囲を決定することで、現実に即した除去範囲を決定することができる。
このように、情報処理装置100は、自動車(移動体)が移動すると予測される路面の勾配を取得する。そして、情報処理装置100は、カメラ40と自動車が現時点で走行する路面との相対関係、及び、路面の勾配に基づいて、除去範囲を動的に決定する。
すなわち、情報処理装置100は、路面がフラットな状態に限らず、路面に勾配がある場合であっても、上記の情報処理を適用して除去範囲を動的に決定することができる。
また、上記実施形態では、カメラ40を介して取得される画像について、光軸中心と消失点とが略同一である例を示した。ここで、カメラ40の光軸中心と消失点とが略同一でない場合、情報処理装置100は、既知の校正処理を用いてカメラ40をキャリブレーションしたのちに、上記情報処理を実行するようにしてもよい。あるいは、情報処理装置100は、算出された物体の高さに所定の補正値(例えば光軸と消失点とのずれ)を加えて、真の高さを算出するようにしてもよい。
(2.その他の実施形態)
上述した各実施形態に係る処理は、上記各実施形態以外にも種々の異なる形態にて実施されてよい。
[2-1.移動体の構成]
上記実施形態では、情報処理装置100は、移動体に搭載される例を示したが、情報処理装置100は、自動運転を行う自律型移動体(自動車)そのものによって実現されてもよい。この場合、情報処理装置100は、図6に示した構成の他に、以下に示す構成を有してもよい。なお、以下に示す各部は、例えば、図6に示した制御部130に含まれてもよい。
すなわち、本技術の情報処理装置100は、以下に示す移動体制御システムとして構成することも可能である。図15は、本技術が適用され得る移動体制御システムの概略的な機能の構成例を示すブロック図である。
移動体制御システムの一例である車両制御システム200の自動運転制御部212は、実施形態の情報処理装置100の制御部130に相当する。また、自動運転制御部212の検出部231及び自己位置推定部232は、実施形態の情報処理装置100の検知部140に相当する。また、自動運転制御部212の状況分析部233は、制御部130の取得部131や算出部132に相当する。また、自動運転制御部212の計画部234は、制御部130の決定部133や実行部134に相当する。また、自動運転制御部212の動作制御部235は、制御部130の実行部134に相当する。また、自動運転制御部212は、図15に示すブロックに加えて、制御部130の各処理部に相当するブロックを有していてもよい。
なお、以下、車両制御システム200が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
車両制御システム200は、入力部201、データ取得部202、通信部203、車内機器204、出力制御部205、出力部206、駆動系制御部207、駆動系システム208、ボディ系制御部209、ボディ系システム210、記憶部211、及び、自動運転制御部212を備える。入力部201、データ取得部202、通信部203、出力制御部205、駆動系制御部207、ボディ系制御部209、記憶部211、及び、自動運転制御部212は、通信ネットワーク221を介して、相互に接続されている。通信ネットワーク221は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム200の各部は、通信ネットワーク221を介さずに、直接接続される場合もある。
なお、以下、車両制御システム200の各部が、通信ネットワーク221を介して通信を行う場合、通信ネットワーク221の記載を省略するものとする。例えば、入力部201と自動運転制御部212が、通信ネットワーク221を介して通信を行う場合、単に入力部201と自動運転制御部212が通信を行うと記載する。
入力部201は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部201は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部201は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム200の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部201は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム200の各部に供給する。
データ取得部202は、車両制御システム200の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム200の各部に供給する。
例えば、データ取得部202は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部202は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部202は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部202は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部202は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部202は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部202は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部202は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部202は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
通信部203は、車内機器204、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム200の各部から供給されるデータを送信したり、受信したデータを車両制御システム200の各部に供給したりする。なお、通信部203がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部203が、複数の種類の通信プロトコルをサポートすることも可能である。
例えば、通信部203は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器204と無線通信を行う。また、例えば、通信部203は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、又は、MHL(Mobile High-definition Link)等により、車内機器204と有線通信を行う。
さらに、例えば、通信部203は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部203は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部203は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部203は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器204は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部205は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部205は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部206に供給することにより、出力部206からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部205は、データ取得部202の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部206に供給する。また、例えば、出力制御部205は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部206に供給する。
出力部206は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部206は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部206が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
駆動系制御部207は、各種の制御信号を生成し、駆動系システム208に供給することにより、駆動系システム208の制御を行う。また、駆動系制御部207は、必要に応じて、駆動系システム208以外の各部に制御信号を供給し、駆動系システム208の制御状態の通知等を行う。
駆動系システム208は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム208は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部209は、各種の制御信号を生成し、ボディ系システム210に供給することにより、ボディ系システム210の制御を行う。また、ボディ系制御部209は、必要に応じて、ボディ系システム210以外の各部に制御信号を供給し、ボディ系システム210の制御状態の通知等を行う。
ボディ系システム210は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム210は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部211は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部211は、車両制御システム200の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部211は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
自動運転制御部212は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部212は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部212は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部212は、検出部231、自己位置推定部232、状況分析部233、計画部234、及び、動作制御部235を備える。
検出部231は、自動運転の制御に必要な各種の情報の検出を行う。検出部231は、車外情報検出部241、車内情報検出部242、及び、車両状態検出部243を備える。
車外情報検出部241は、車両制御システム200の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部241は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部241は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部241は、検出処理の結果を示すデータを自己位置推定部232、状況分析部233のマップ解析部251、交通ルール認識部252、及び、状況認識部253、並びに、動作制御部235の緊急事態回避部271等に供給する。
車内情報検出部242は、車両制御システム200の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部242は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部242は、検出処理の結果を示すデータを状況分析部233の状況認識部253、及び、動作制御部235の緊急事態回避部271等に供給する。
車両状態検出部243は、車両制御システム200の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部243は、検出処理の結果を示すデータを状況分析部233の状況認識部253、及び、動作制御部235の緊急事態回避部271等に供給する。
自己位置推定部232は、車外情報検出部241、及び、状況分析部233の状況認識部253等の車両制御システム200の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部232は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部232は、推定処理の結果を示すデータを状況分析部233のマップ解析部251、交通ルール認識部252、及び、状況認識部253等に供給する。また、自己位置推定部232は、自己位置推定用マップを記憶部211に記憶させる。
状況分析部233は、自車及び周囲の状況の分析処理を行う。状況分析部233は、マップ解析部251、交通ルール認識部252、状況認識部253、及び、状況予測部254を備える。
マップ解析部251は、自己位置推定部232及び車外情報検出部241等の車両制御システム200の各部からのデータ又は信号を必要に応じて用いながら、記憶部211に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部251は、構築したマップを、交通ルール認識部252、状況認識部253、状況予測部254、並びに、計画部234のルート計画部261、行動計画部262、及び、動作計画部263等に供給する。
交通ルール認識部252は、自己位置推定部232、車外情報検出部241、及び、マップ解析部251等の車両制御システム200の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部252は、認識処理の結果を示すデータを状況予測部254等に供給する。
状況認識部253は、自己位置推定部232、車外情報検出部241、車内情報検出部242、車両状態検出部243、及び、マップ解析部251等の車両制御システム200の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部253は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部253は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部253は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部232及び状況予測部254等に供給する。また、状況認識部253は、状況認識用マップを記憶部211に記憶させる。
状況予測部254は、マップ解析部251、交通ルール認識部252及び状況認識部253等の車両制御システム200の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部254は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部254は、予測処理の結果を示すデータを、交通ルール認識部252及び状況認識部253からのデータとともに、計画部234のルート計画部261、行動計画部262、及び、動作計画部263等に供給する。
ルート計画部261は、マップ解析部251及び状況予測部254等の車両制御システム200の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部261は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部261は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部261は、計画したルートを示すデータを行動計画部262等に供給する。
行動計画部262は、マップ解析部251及び状況予測部254等の車両制御システム200の各部からのデータ又は信号に基づいて、ルート計画部261により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部262は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部262は、計画した自車の行動を示すデータを動作計画部263等に供給する。
動作計画部263は、マップ解析部251及び状況予測部254等の車両制御システム200の各部からのデータ又は信号に基づいて、行動計画部262により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部263は、加速、減速、及び、走行軌道等の計画を行う。動作計画部263は、計画した自車の動作を示すデータを、動作制御部235の加減速制御部272及び方向制御部273等に供給する。
動作制御部235は、自車の動作の制御を行う。動作制御部235は、緊急事態回避部271、加減速制御部272、及び、方向制御部273を備える。
緊急事態回避部271は、車外情報検出部241、車内情報検出部242、及び、車両状態検出部243の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部271は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部271は、計画した自車の動作を示すデータを加減速制御部272及び方向制御部273等に供給する。
加減速制御部272は、動作計画部263又は緊急事態回避部271により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部272は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部207に供給する。
方向制御部273は、動作計画部263又は緊急事態回避部271により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部273は、動作計画部263又は緊急事態回避部271により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部207に供給する。
[2-2.その他]
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた各実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、上記実施形態では、移動体として自動車を例に挙げたが、本開示の情報処理は、自動車以外の移動体にも適用可能である。例えば、移動体は、自動二輪車や自動三輪車等の小型車両や、バスやトラック等の大型車両、あるいは、ロボットやドローン等の自律型移動体であってもよい。また、情報処理装置100は、必ずしも移動体と一体ではなく、移動体からネットワークNを介して情報を取得し、取得した情報に基づいて除去範囲を決定するクラウドサーバ等であってもよい。
また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
(3.ハードウェア構成)
上述してきた各実施形態に係る情報処理装置100等の情報機器は、例えば図16に示すような構成のコンピュータ1000によって実現される。以下、実施形態に係る情報処理装置100を例に挙げて説明する。図16は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、制御部130等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部120内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
移動体が備えるセンサによって撮影された画像を取得する取得部と、
前記センサと前記移動体が走行する路面との相対関係に応じて、前記取得された画像に含まれる物体を検出対象から除去する範囲である除去範囲を動的に決定する決定部と
を備えた情報処理装置。
(2)
前記決定部は、
前記相対関係として、前記移動体が走行する路面に対する前記センサの光軸の角度に応じて、前記除去範囲を決定する
前記(1)に記載の情報処理装置。
(3)
前記決定部は、
前記路面に対する前記センサの光軸のピッチ及びロールに応じて、前記除去範囲を決定する
前記(2)に記載の情報処理装置。
(4)
前記決定部は、
前記移動体の前方、側方もしくは後方のいずれかに備えられた少なくとも一つのセンサの光軸のピッチ及びロールを用いて、前記除去範囲を決定する
前記(3)に記載の情報処理装置。
(5)
前記決定部は、
特定の時間内に観測された前記ピッチもしくはロールを平滑化した値に応じて、前記除去範囲を決定する
前記(3)又は(4)に記載の情報処理装置。
(6)
前記決定部は、
前記画像における物体の位置に応じて、物体ごとに異なる除去範囲を動的に決定する
前記(1)から(5)のいずれかに記載の情報処理装置。
(7)
前記決定部は、
前記画像の中心近傍において検出された物体に対して、当該画像における他の範囲で検出された物体とは異なる除去範囲を動的に決定する
前記(6)に記載の情報処理装置。
(8)
前記決定部は、
前記移動体の挙動を制御する制御情報に基づいて前記相対関係を算出し、算出した相対関係に応じて前記除去範囲を決定する
前記(1)から(7)のいずれかに記載の情報処理装置。
(9)
前記決定部は、
前記移動体に対するブレーキ、アクセルもしくはステアの操作量、当該移動体の加速度の変化量、又は、前記移動体のヨーレート情報の少なくともいずれかに基づいて、前記相対関係を算出する
前記(8)に記載の情報処理装置。
(10)
前記取得部は、
複数の画像を取得し、
前記決定部は
前記複数の画像に撮像された物体の変化量に基づいて前記相対関係を算出し、算出した相対関係に応じて前記除去範囲を決定する
前記(1)から(9)のいずれかに記載の情報処理装置。
(11)
前記取得部は、
前記移動体が移動すると予測される路面の勾配を取得し、
前記決定部は、
前記センサと前記移動体が現時点で走行する路面との相対関係、及び、前記路面の勾配に基づいて、前記除去範囲を動的に決定する
前記(1)から(10)のいずれかに記載の情報処理装置。
(12)
前記取得部は、
前記センサとして、ステレオカメラによって撮影された前記画像を取得する
前記(1)から(11)のいずれかに記載の情報処理装置。
(13)
前記取得部は、
前記センサとして、単眼カメラによって撮影された前記画像を取得する
前記(1)から(11)のいずれかに記載の情報処理装置。
(14)
前記決定部は、
前記物体として、歩行者、自転車、自動車及び二輪車の少なくともいずれかを検出対象から除去する除去範囲を動的に決定する
前記(1)から(13)のいずれかに記載の情報処理装置。
(15)
前記決定部は、
前記画像において検出された物体が前記除去範囲に属するか否かを判定し、当該除去範囲に属する物体が存在する場合には、当該除去範囲に属する物体を検出対象から除去することを決定する
前記(1)から(14)のいずれかに記載の情報処理装置。
(16)
コンピュータが、
移動体が備えるセンサによって撮影された画像を取得し、
前記センサと前記移動体が走行する路面との相対関係に応じて、前記取得された画像に含まれる物体を検出対象から除去する範囲である除去範囲を動的に決定する
情報処理方法。
(17)
コンピュータを、
移動体が備えるセンサによって撮影された画像を取得する取得部と、
前記センサと前記移動体が走行する路面との相対関係に応じて、前記取得された画像に含まれる物体を検出対象から除去する範囲である除去範囲を動的に決定する決定部と
として機能させるための情報処理プログラム。
100 情報処理装置
110 通信部
120 記憶部
130 制御部
131 取得部
132 算出部
133 決定部
134 実行部
140 検知部
141 撮像部
142 測定部
150 入力部
160 出力部

Claims (17)

  1. 移動体が備えるセンサによって撮影された画像を取得する取得部と、
    前記センサと前記移動体が走行する路面との相対関係に応じて、前記取得された画像に含まれる物体を検出対象から除去する範囲である除去範囲を動的に決定する決定部と
    を備えた情報処理装置。
  2. 前記決定部は、
    前記相対関係として、前記移動体が走行する路面に対する前記センサの光軸の角度に応じて、前記除去範囲を決定する
    請求項1に記載の情報処理装置。
  3. 前記決定部は、
    前記路面に対する前記センサの光軸のピッチ及びロールに応じて、前記除去範囲を決定する
    請求項2に記載の情報処理装置。
  4. 前記決定部は、
    前記移動体の前方、側方もしくは後方のいずれかに備えられた少なくとも一つのセンサの光軸のピッチ及びロールを用いて、前記除去範囲を決定する
    請求項3に記載の情報処理装置。
  5. 前記決定部は、
    特定の時間内に観測された前記ピッチもしくはロールを平滑化した値に応じて、前記除去範囲を決定する
    請求項3に記載の情報処理装置。
  6. 前記決定部は、
    前記画像における物体の位置に応じて、物体ごとに異なる除去範囲を動的に決定する
    請求項1に記載の情報処理装置。
  7. 前記決定部は、
    前記画像の中心近傍において検出された物体に対して、当該画像における他の範囲で検出された物体とは異なる除去範囲を動的に決定する
    請求項6に記載の情報処理装置。
  8. 前記決定部は、
    前記移動体の挙動を制御する制御情報に基づいて前記相対関係を算出し、算出した相対関係に応じて前記除去範囲を決定する
    請求項1に記載の情報処理装置。
  9. 前記決定部は、
    前記移動体に対するブレーキ、アクセルもしくはステアの操作量、当該移動体の加速度の変化量、又は、前記移動体のヨーレート情報の少なくともいずれかに基づいて、前記相対関係を算出する
    請求項8に記載の情報処理装置。
  10. 前記取得部は、
    複数の画像を取得し、
    前記決定部は
    前記複数の画像に撮像された物体の変化量に基づいて前記相対関係を算出し、算出した相対関係に応じて前記除去範囲を決定する
    請求項1に記載の情報処理装置。
  11. 前記取得部は、
    前記移動体が移動すると予測される路面の勾配を取得し、
    前記決定部は、
    前記センサと前記移動体が現時点で走行する路面との相対関係、及び、前記路面の勾配に基づいて、前記除去範囲を動的に決定する
    請求項1に記載の情報処理装置。
  12. 前記取得部は、
    前記センサとして、ステレオカメラによって撮影された前記画像を取得する
    請求項1に記載の情報処理装置。
  13. 前記取得部は、
    前記センサとして、単眼カメラによって撮影された前記画像を取得する
    請求項1に記載の情報処理装置。
  14. 前記決定部は、
    前記物体として、歩行者、自転車、自動車及び二輪車の少なくともいずれかを検出対象から除去する除去範囲を動的に決定する
    請求項1に記載の情報処理装置。
  15. 前記決定部は、
    前記画像において検出された物体が前記除去範囲に属するか否かを判定し、当該除去範囲に属する物体が存在する場合には、当該除去範囲に属する物体を検出対象から除去することを決定する
    請求項1に記載の情報処理装置。
  16. コンピュータが、
    移動体が備えるセンサによって撮影された画像を取得し、
    前記センサと前記移動体が走行する路面との相対関係に応じて、前記取得された画像に含まれる物体を検出対象から除去する範囲である除去範囲を動的に決定する
    情報処理方法。
  17. コンピュータを、
    移動体が備えるセンサによって撮影された画像を取得する取得部と、
    前記センサと前記移動体が走行する路面との相対関係に応じて、前記取得された画像に含まれる物体を検出対象から除去する範囲である除去範囲を動的に決定する決定部と
    として機能させるための情報処理プログラム。
JP2018205982A 2018-10-31 2018-10-31 情報処理装置、情報処理方法及び情報処理プログラム Pending JP2022017612A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018205982A JP2022017612A (ja) 2018-10-31 2018-10-31 情報処理装置、情報処理方法及び情報処理プログラム
PCT/JP2019/038544 WO2020090320A1 (ja) 2018-10-31 2019-09-30 情報処理装置、情報処理方法及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018205982A JP2022017612A (ja) 2018-10-31 2018-10-31 情報処理装置、情報処理方法及び情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2022017612A true JP2022017612A (ja) 2022-01-26

Family

ID=70464476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018205982A Pending JP2022017612A (ja) 2018-10-31 2018-10-31 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (2)

Country Link
JP (1) JP2022017612A (ja)
WO (1) WO2020090320A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021235001A1 (ja) * 2020-05-22 2021-11-25 日立Astemo株式会社 画像処理装置
JP7512330B2 (ja) 2022-08-19 2024-07-08 株式会社デンソーテン 情報処理装置、情報処理方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003260520A1 (en) * 2003-08-18 2005-03-07 Fico Mirrors, Sa System and method for monitoring the external environment of a motor vehicle
JP4453775B2 (ja) * 2008-06-27 2010-04-21 トヨタ自動車株式会社 物体検出装置
JP2010146478A (ja) * 2008-12-22 2010-07-01 Toyota Motor Corp 物体検出装置
JP2017191025A (ja) * 2016-04-14 2017-10-19 トヨタ自動車株式会社 車載用監視装置
JP6462630B2 (ja) * 2016-05-24 2019-01-30 株式会社デンソー 物標検出装置
JP6766557B2 (ja) * 2016-09-29 2020-10-14 アイシン精機株式会社 周辺監視装置

Also Published As

Publication number Publication date
WO2020090320A1 (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
US11531354B2 (en) Image processing apparatus and image processing method
US11363235B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP7027737B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7143857B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
US11501461B2 (en) Controller, control method, and program
JPWO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JP7382327B2 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
US11377101B2 (en) Information processing apparatus, information processing method, and vehicle
WO2020116206A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP7257737B2 (ja) 情報処理装置、自己位置推定方法、及び、プログラム
JPWO2019039281A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JPWO2019044571A1 (ja) 画像処理装置、および画像処理方法、プログラム、並びに移動体
US20220383749A1 (en) Signal processing device, signal processing method, program, and mobile device
US20200230820A1 (en) Information processing apparatus, self-localization method, program, and mobile body
JPWO2019039280A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
WO2020090320A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2020158489A1 (ja) 可視光通信装置、可視光通信方法及び可視光通信プログラム
JP2022028989A (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP7371679B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2023162497A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム
JPWO2020116204A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体