JP7380904B2 - 情報処理装置、情報処理方法、および、プログラム - Google Patents
情報処理装置、情報処理方法、および、プログラム Download PDFInfo
- Publication number
- JP7380904B2 JP7380904B2 JP2022553256A JP2022553256A JP7380904B2 JP 7380904 B2 JP7380904 B2 JP 7380904B2 JP 2022553256 A JP2022553256 A JP 2022553256A JP 2022553256 A JP2022553256 A JP 2022553256A JP 7380904 B2 JP7380904 B2 JP 7380904B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- type
- unit
- information processing
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 121
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000001514 detection method Methods 0.000 claims description 123
- 238000000034 method Methods 0.000 claims description 22
- 230000007613 environmental effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 33
- 230000033001 locomotion Effects 0.000 description 32
- 238000004458 analytical method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 18
- 238000010801 machine learning Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 230000005856 abnormality Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000005684 electric field Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000010391 action planning Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Description
図1は、本発明の実施形態に係る情報処理装置10の構成例を示す概略ブロック図である。図1に示す例では、情報処理装置10は、運転制御装置として構成され、車両制御システム1の一部をなす。車両制御システム1は、主に車両に搭載され、その車両の動作に用いられるが、その実施に際し、一部または全部は車両に搭載されないこともある。本願では、車両制御システム1、情報処理装置10が搭載される車両を自車両、情報処理装置10を自装置、説明対象もしくは処理対象の構成部を自部と呼ぶことがある。
情報処理装置10は、画像から物体が表される領域を第1領域として検出し、第1領域に表される物体の種類を定め、定めた物体の種類の信頼度を第1信頼度として定める。他方、情報処理装置10は、画像から種類の異なる物体が表される領域を第2領域として分割し、第2領域ごとに、その第2領域に表される物体の種類を定める。情報処理装置10は、個々の画素に対応するサンプル点ごとに物体の深度を示す深度情報に基づいて、第2領域に表される物体の深度が所定の範囲内に維持されるように当該第2領域を調整してもよい。
情報処理装置10は、定めた第2領域のうち、第1領域と重複しない非重複領域における物体の種類を第2種類と判定し、第1領域と重複する重複領域において第1信頼度が所定の信頼度の閾値未満である場合、物体の種類を第2種類として判定する。情報処理装置10は、重複領域において、第1信頼度が所定の信頼度の閾値以上である場合、重複領域における物体の種類を第1種類として判定する。
車両制御システム1は、以下に説明するように、自車両の周囲の状況の他、自車両の状況を検出し、検出した情報を用いて自車両の動作を制御する。図1に示す例では、情報処理装置10は、検出された自車両の状況とその周囲の状況に関する情報を用いて、自律走行または運転支援に係る処理を行う運転制御部として機能する。より具体的には、情報処理装置10は、自車両の衝突回避、衝撃緩和、車間距離を維持した追従走行、車速維持走行、自車両の衝突警告、レーン逸脱警告などの機能を実現するための処理を実行する。また、情報処理装置10は、運転者の操作に依拠せずに、自律的に走行するための処理を実行してもよい。
情報検出部11は、検出結果を示す検出データを位置推定部12、状況解析部13、および、動作制御部15に出力する。情報検出部11の構成例については後述する。
なお、位置推定部12は、認識結果を示すデータを情報検出部11に出力してもよい。情報検出部11は、自車両の外部の情報を検出するために、位置推定部12から入力されるデータを用いることがある。
状況解析部13は、位置推定部12、情報検出部11などの車両制御システム1の各構成部からのデータに基づいて、記憶部111に記憶されている各種の地図情報を解析し、運転制御に用いる情報を含んだ地図情報を生成する。状況解析部13は、生成した地図情報を動作計画部14などに出力する。
状況解析部13は、生成した地図情報や、位置推定部12、情報検出部11などの車両制御システム1の各構成部からのデータに基づいて、自車両の周囲の交通ルールの認識処理、自車両に関する状況の認識処理などを行う。交通ルールの認識処理により、例えば、自車両の周囲における交通信号の位置、状態、自車両の周囲における交通規制の内容、走行可能な車線などの情報が認識される。
状況解析部13は、認識結果を示すデータを位置推定部12に出力する。状況解析部13は、生成した状況認識用地図情報を位置推定部12に出力するデータに含めてもよい。状況解析部13は、生成した状況認識用地図情報を記憶部111に記憶する。
なお、状況解析部13は、認識結果を示すデータを情報検出部11に出力してもよい。情報検出部11は、例えば、自車両の外部の情報を検出するために、状況解析部13から入力されるデータを用いることがある。
また、上記の地図情報、状況認識用地図情報、自己位置推定地図には、既知の道路、施設、地形などの位置や領域の情報が付加されていてもよい。
状況解析部13は、予測処理の処理結果を示すデータを、認識された交通ルールの情報と自車両に関する状況を示す情報を示すデータとともに、動作計画部14に出力する。なお、状況解析部13は、予測処理の処理結果を示すデータを情報検出部11に出力してもよい。
動作計画部14は、状況解析部13など、車両制御システム1の各構成部からのデータに基づいて、定めたルートにおいて計画された時間内で安全に走行するための自車両の行動を計画する。動作計画部14は、例えば、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換など)、走行車線、走行速度、および、追い越しなどの計画を行う。
動作計画部14は、状況解析部13など、車両制御システム1の各構成部からのデータに基づいて、定めた行動を実現するための自車両の動作を計画する。動作計画部14は、例えば、加速、減速、および、走行軌道などの計画を行う。動作計画部14は、計画した自車の動作を示すデータを、動作制御部15に出力する。
動作制御部15は、動作計画部14で計画された自車両の動作を実現するための加減速制御を行う。動作制御部15は、例えば、計画された加速、減速を実現するための駆動力発生装置もしくは制動装置の制御目標値を算出し、算出した制御目標値を示す制御指令を駆動系制御部107に出力する。
なお、自部で回避動作を計画した場合には、動作計画部14で計画された自車両の動作よりも回避動作を実現するための方向制御として、例えば、急旋回を優先する。その場合には、動作計画部14で計画された自車両の動作よりも回避動作を実現するための加減速制御として、例えば、急旋回を優先する。
情報検出部11は、物体検出部112と、物体判定部114と、物体検出制御部116と、を備える。物体検出部112は、物体認識部112aと、領域認識部112bと、深度情報処理部112cと、を含んで構成される。情報収集部102は、カメラ102aと測距センサ102bを備える。
よって、物体認識部112aに画像データが入力されるとき、出力として物体が表れている領域と、その物体の種類が特定されることが期待される。算出される信頼度は、物体が表れる領域と種類が特定される確度を示す。
領域認識部112bは、例えば、所定の第2の機械学習モデル(領域認識モデル)を用い、画像データで示される画素ごとの信号値を入力値として入力し、出力値として画素ごとに推定される物体の種類ごとの信頼度を算出し、最も高い信頼度を与える物体の種類を特定する。
よって、領域認識部112bに画像データが入力されるときに、出力としてその画像が個々の物体が表れている領域に分割され、個々の領域における物体の種類が特定されることが期待される。信頼度は、個々の領域に物体が表れ、その物体の種類が特定される確度を示す。なお、第2の機械学習モデルでは、物体の種類として、いずれの物体の種類が特定されないこと(不特定)が設定されてもよい。その場合には、領域認識部112bは、物体の種別を不特定とする領域を定めてもよい。
深度情報処理部112cは、例えば、所定の第3の機械学習モデル(領域認識モデル)を用い、画素に対応するサンプル点ごとの信号値を入力値として入力し、出力値として画素ごとに推定される物体の領域ごとの信頼度を算出してもよい。
深度情報処理部112cは、空間的に連続した領域であって、信頼度の画素間の平均値が所定の信頼度の検出閾値以上となり、個々に最大値をとる領域を個々に物体が表れる第3領域として検出することができる。領域認識部112bは、第3領域を示す情報を深度情報に付加して物体判定部114に出力してもよい。
物体判定部114は、物体認識情報で示される第1信頼度が所定の検出閾値未満となるとき、その第1信頼度と、その第1信頼度に対応する第1領域および第1種類を棄却し、所定の検出閾値以上となる第1信頼度と、その第1信頼度に対応する第1領域および第1種類を保存する。
物体判定部114は、領域認識情報で示される第2信頼度が所定の検出閾値未満となるとき、その第2信頼度と、その第2信頼度に対応する第2領域および第2種類を棄却し、所定の検出閾値以上となる第2信頼度と、その第2信頼度に対応する第2領域および第2種類を保存する。従って、処理対象となる画像にはいずれの物体も検出されない領域が生ずることや、いずれの物体も検出されないこともある。
深度情報に第3領域を示す情報が含まれている場合には、物体判定部114は、第2領域とその一部または全部が重複する第3領域を特定し、その第3領域内の画素ごとの深度の分布範囲内に、調整後の第2領域内の画素ごとの深度の分布範囲が収まり、かつ、第2領域が最大化、つまり、できるだけ大きくするように第2領域の一部を拡張または縮小する。
物体判定部114は、第1領域と第2領域と重複する重複領域において第1信頼度が所定の信頼度の閾値である判別閾値未満である場合、物体の種類を第2種類として判定する。物体判定部114は、重複領域において、第1信頼度が判別閾値以上である場合、重複領域における物体の種類を第1種類として判定する。判別閾値は、検出閾値と等しくてもよいし、検出閾値よりも高い値であってもよい。判別閾値として検出閾値よりも高い値を用いることで、領域認識による認識結果を重視することができる。
物体判定部114は、判定した物体の種類と、その画像内の領域を示す物体判定情報を位置推定部12、状況解析部13、および動作制御部15に出力する。画像内の領域は、その物体が占有する位置、すなわち、その画素ごとの方向の範囲と、その画素ごとの深度の範囲で表される。
物体検出制御部116は、領域認識部112bと深度情報処理部112cを動作させないと判定するとき、領域認識部112bと深度情報処理部112cの動作停止を指示するための制御情報を物体検出部112に出力する。領域認識部112bと深度情報処理部112cは、物体検出制御部116から動作を指示するための制御情報が入力されるとき、それぞれ自部の動作を実行する。領域認識部112bと深度情報処理部112cは、物体検出制御部116から動作停止を指示するための制御情報が入力されるとき、それぞれ自部の動作を実行中である場合には、動作を停止する。
(1)自装置からの距離が所定の距離の閾値以上となる物体の存在が推定されること。物体検出制御部116は、例えば、直接的に、自装置つまり自車両からの距離が所定の距離の閾値となる物体が存在するか否かを判定すればよい。物体検出制御部116は、自装置からの距離が所定の距離の閾値以上となる物体の存在する状況を生じる可能性が高い事象、例えば、自車両が高速道路の領域内にあること、などが生じているか否かを判定してもよい。物体検出制御部116は、例えば、地図情報を参照し、自車両の位置が地図情報に示される高速道路の領域内にあるか否かを判定することができる。また、物体検出制御部116は、高速道路への入口、出口に設けられたETC(Electronic Toll Collection)システムから放射される電波を所定の電界強度の閾値以上の電界強度で検出するとき、それぞれ高速道路に進入した、高速道路から退出したと判定してもよい。高速道路への進入した時点から高速道路から退出した時点までの期間において、物体検出制御部116は、自車両が高速道路の領域内にあると判定することができる。
(4)物体認識部112aにより検出される物体の種類が、誤認識が発生する傾向がある所定の種類である、または、いずれの物体の種類も判定されない、つまり、物体の種類が不明であること。
衝突予測時間は、自車両の速度から検出された物体の速度の差を、検出された物体までの距離で除算して算出される。物体の速度は、物体の位置を時間で微分して算出されうる。
図4は、物体認識部112aにより検出される物体を表す第1領域を例示する。この例では、車両が表された領域が第1領域R01として検出される。
図5は、領域認識部112bにより分割された領域と、物体が表される第2領域を例示する。図5において、個々の表示パターン(ハッチング)は、それぞれ分割された領域を示す。そのうち、信頼度が所定の検出閾値以上となる領域が第2領域R02’として検出される。なお、R02は、調整後の第2領域を示す。
図6は、深度情報処理部112cにより取得されたサンプル点ごとの深度を示す深度画像を示す。個々のサンプル点は、画素に対応する。深度は、濃淡で示され、濃い部分ほど深度が低く(近い)、明るい部分ほど深度が高い(遠い)。
物体認識部112aは、例えば、信頼度が所定の検出閾値以上となる画素の水平方向(X方向)の座標値の最小値から最大値の間、当該画素の垂直方向(Y方向)の座標値の最小値から最大値の間を第1領域R01として定める。物体認識部112aは、第1領域R01における画素間の信頼度の平均値を第1信頼度として定めることができる。
物体判定部114は、第1領域R01と第2領域R02と重複する重複領域において第1信頼度が所定の信頼度の閾値である判別閾値未満である場合、物体の種類を第2種類として判定する。情報処理装置10は、重複領域において、第1信頼度が判別閾値以上である場合、重複領域における物体の種類を第1種類として判定する。
なお、物体判定部114は、第1領域R01のうち、第2領域R02と重複しない非重複領域において、検出された物体の種類を第1種類として判定してもよい。
(ステップS102)カメラ102aは、自部の周囲の視野内の画像を撮影し、撮影した画像を示す画像データを情報検出部11に出力する。その後、ステップS104の処理に進む。
(ステップS104)物体認識部112aは、カメラ102aから入力される画像データで示される画像から物体が表される領域を第1領域として検出し、第1領域に表される物体の種類を第1種類として定め、その信頼度を第1信頼度として定める。その後、ステップS106の処理に進む。
(ステップS108)深度情報処理部112cは、測距センサ102bから入力される距離情報から、個々の画素に対応するサンプル点ごとに物体の深度を示す深度情報を取得する。その後、ステップS110の処理に進む。
(ステップS112)物体判定部114は、第2領域が第1領域と重複するか否かを判定する。重複すると判定されるとき(ステップS112 YES)、ステップS114の処理に進む。重複しないと判定されるとき(ステップS112 NO)、ステップS118の処理に進む。
(ステップS114)物体判定部114は、第1領域に係る第1信頼度が所定の判別閾値以上であるか否かを判定する。判別閾値以上であると判定されるとき(ステップS114 YES)、ステップS116の処理に進む。判別閾値未満であると判定されるとき(ステップS114 NO)、ステップS118の処理に進む。
(ステップS118)物体判定部114は、重複領域または第2領域に表される物体の種類を第2種類として定める。その後、図7の処理を終了する。
(ステップS202)物体検出部112において、物体認識部112aが動作し、領域認識部112bと深度情報処理部112cは動作しない。物体検出制御部116は、予め設定された判定対象となる動作条件をそれぞれ満足するか否かを判定する。物体検出制御部116は、いずれかの動作条件を満足すると判定するとき、領域認識部112bと深度情報処理部112cを起動させ、ステップS204の状態に進む。
(ステップS204)物体検出部112において、物体認識部112a、領域認識部112b、および深度情報処理部112cが動作し、いずれも併用される。
物体検出部112は、物体検出制御部116は、予め設定された判定対象となる動作条件のいずれも満足しないと判定するとき、ステップS202の状態に戻る。
判定対象となる動作条件のいずれかを満たす状態が所定時間(例えば、30秒-3分)以上継続するとき、物体検出制御部116は、領域認識部112bと深度情報処理部112cを動作させると判定してもよい。また、物体検出制御部116は、判定対象となる動作条件も満たさない状態が所定時間以上継続するとき、物体検出制御部116は、領域認識部112bと深度情報処理部112cを動作させないと判定してもよい。
次に、本実施形態の最小構成について説明する。図9は、本実施形態の最小構成を例示する概略ブロック図である。
図9に示すように本実施形態に係る情報処理装置10は、自装置の周囲の物体を検出する物体検出部112と、検出された物体の種類を判定する物体判定部114と、を備える。物体検出部112は、物体認識部112aと、領域認識部112bと、を備える。物体認識部112aは、複数の画素それぞれの信号値を用いて画像を表す画像データから、画像において物体が表される領域である第1領域を検出し、第1領域に表される物体の種類である第1種類の信頼度である第1信頼度を定める。領域認識部112bは、画像データから、画像を種類の異なる物体が表される領域である第2領域に分割し、第2領域ごとに当該第2領域に表される物体の種類である第2種類を定める。物体判定部114は、第2領域のうち、第1領域と重複しない非重複領域における物体の種類を第2種類として判定し、第2領域のうち、第1領域と重複する重複領域において第1信頼度が所定の信頼度の閾値未満である場合、当該重複領域における物体の種類を第2種類として判定し、当該重複領域において、第1信頼度が所定の信頼度の閾値以上である場合、当該重複領域における物体の種類を第1種類として判定する。
この構成によれば、画像データに対する物体認識と領域認識が併用される。領域認識によれば画像に表される異なる物体ごとの領域に分割されるので、物体が表される領域を特定する物体認識よりも、確実に物体が検出される。また、物体認識により物体が表される領域の信頼度が高い場合に物体認識により判定される物体の種類が判定結果として得られる。そのため、物体認識単独の利用よりも確実に物体を検出し、その種類を判定することができる。
この構成によれば、深度が所定の範囲内に収まるように第2領域が調整されるので、深度が有意に異なる領域が第2領域から排除され、深度が共通する領域が第2領域に含まれる。また、深度は、照度が低い場合や悪天候下でも画像よりも安定した計測が可能である。そのため、第2領域として個々の物体が表される領域をより正確に推定することができる。例えば、同一または類似する種類の物体が隣接する場合であっても、深度に基づき個々の領域が区分される。
この構成によれば、自装置から遠方の物体に対しては、領域認識部112bと深度情報処理部112cを動作させることで、より確実に物体が表示される領域と種類を検出することができる。遠方の物体が検出されない場合には、領域認識部112bと深度情報処理部112cの動作の停止が許容されるので、処理量を低減することができる。
この構成によれば、物体認識により物体が表される第1領域の検出が困難になる場合には、領域認識部112bと深度情報処理部112cを動作させることで、より確実に物体が表示される領域と種類を検出することができる。第1領域の検出が困難にならない場合には、領域認識部112bと深度情報処理部112cの動作の停止が許容されるので、処理量を低減することができる。
この構成によれば、一度に複数の物体が検出されるとき、または、検出される物体の領域が近接する場合には、領域認識部112bと深度情報処理部112cを動作させることで、より正確に物体が表示される領域と種類を検出することができる。検出される物体の個数が少なく、かつ、それらが近接していない場合には、領域認識部112bと深度情報処理部112cの動作の停止が許容されるので、処理量を低減することができる。
この構成によれば、所定の物体の種類が誤認識される傾向がある場合、または、物体の種類が特定できない場合には、領域認識部112bと深度情報処理部112cを動作させることで、より確実に物体の種類を検出することができる。物体の種類が特定され、かつ、検出される物体が誤認識される傾向がない物体である場合には、領域認識部112bと深度情報処理部112cの動作の停止が許容されるので、処理量を低減することができる。
この構成によれば、走行速度の高速化、または、物体への衝突が予想される場合に、領域認識部112bと深度情報処理部112cを動作させることで、より確実に物体が表される領域を検出することができる。そのため、安全性が要求される状況下で、より的確な制御の実現に寄与することができる。走行速度が低速、かつ、物体への衝突が予想される場合には、領域認識部112bと深度情報処理部112cの動作の停止が許容されるので、処理量を低減することができる。
また、本発明は前述した説明によって限定されることはなく、添付の特許請求の範囲によってのみ限定される。
Claims (8)
- 自装置の周囲の物体を検出する物体検出部と、前記物体の種類を判定する物体判定部と、を備え、
前記物体検出部は、物体認識部と、領域認識部と、深度情報処理部と、を備え、
前記物体認識部は、
複数の画素それぞれの信号値を用いて画像を表す画像データから、前記画像において物体が表される領域である第1領域を検出し、前記第1領域に表される物体の種類である第1種類の信頼度である第1信頼度を定め、
前記深度情報処理部は、
前記画素に対応するサンプル点ごとに物体の深度を示す深度情報を取得し、
前記領域認識部は、
前記画像データから、前記画像を種類の異なる物体が表される領域である第2領域に分割し、第2領域ごとに当該第2領域に表される物体の種類である第2種類を定め、
前記物体判定部は、
前記第2領域に表される物体の深度が所定の範囲内に維持されるように当該第2領域を調整し、
前記第2領域のうち、前記第1領域と重複しない非重複領域における物体の種類を第2種類として判定し、
前記第2領域のうち、前記第1領域と重複する重複領域において前記第1信頼度が所定の信頼度の閾値未満である場合、
当該重複領域における物体の種類を第2種類として判定し、
前記重複領域において、前記第1信頼度が所定の信頼度の閾値以上である場合、
当該重複領域における物体の種類を第1種類として判定する
情報処理装置。 - 前記物体認識部が検出した物体のうち自装置から距離が所定の距離の閾値以上となる物体の存在が推定されるとき、前記領域認識部と前記深度情報処理部を動作させる物体検出制御部を備える
請求項1に記載の情報処理装置。 - 自装置の周囲の環境情報が前記画像データから前記第1領域の検出が困難になる所定の環境を示すとき、前記領域認識部と前記深度情報処理部を動作させる物体検出制御部を備える
請求項1または請求項2に記載の情報処理装置。 - 前記物体認識部が検出した物体の個数が所定の個数の閾値以上となるとき、または、前記物体それぞれの第1領域間の間隔が所定の間隔の閾値以下となるとき、前記領域認識部と前記深度情報処理部を動作させる物体検出制御部を備える
請求項1から請求項3のいずれか一項に記載の情報処理装置。 - 前記物体認識部が検出した物体の種類が、所定の種類であるとき、または、前記物体の種類が判定されないとき、前記領域認識部と前記深度情報処理部を動作させる物体検出制御部を備える
請求項1から請求項4のいずれか一項に記載の情報処理装置。 - 自部を搭載する車両の速度が所定の速度の閾値以上となるとき、または、自部から前記物体認識部が検出した物体までの距離と前記車両の速度に基づく衝突予測時間が所定の衝突予測時間の閾値以下となるとき、前記領域認識部と前記深度情報処理部を動作させる物体検出制御部を備える
請求項1から請求項5のいずれか一項に記載の情報処理装置。 - 情報処理装置における情報処理方法であって、
前記情報処理装置が、
複数の画素それぞれの信号値を用いて画像を表す画像データから、前記画像において物体が表される領域である第1領域を検出し、前記第1領域に表される物体の種類である第1種類の信頼度である第1信頼度を定める第1ステップと、
前記画素に対応するサンプル点ごとに物体の深度を示す深度情報を取得する第2ステップと、
前記画像データから、前記画像を種類の異なる物体が表される領域である第2領域に分割し、第2領域ごとに当該第2領域に表される物体の種類である第2種類を定める第3ステップと、
前記第2領域に表される物体の深度が所定の範囲内に維持されるように当該第2領域を調整する第4ステップと、
前記第2領域のうち、前記第1領域と重複しない非重複領域における物体の種類を第2種類として判定し、
前記第2領域のうち、前記第1領域と重複する重複領域において前記第1信頼度が所定の信頼度の閾値未満である場合、
当該重複領域における物体の種類を第2種類として判定し、
前記重複領域において、前記第1信頼度が所定の信頼度の閾値以上である場合、
当該重複領域における物体の種類を第1種類として判定する第5ステップと、
を実行する
情報処理方法。 - コンピュータに、
自装置の周囲の物体を検出する物体検出部と、前記物体の種類を判定する物体判定部と、を備え、
前記物体検出部は、物体認識部と、領域認識部と、深度情報処理部と、を備え、
前記物体認識部は、
複数の画素それぞれの信号値を用いて画像を表す画像データから、前記画像において物体が表される領域である第1領域を検出し、前記第1領域に表される物体の種類である第1種類の信頼度である第1信頼度を定め、
前記深度情報処理部は、
前記画素に対応するサンプル点ごとに物体の深度を示す深度情報を取得し、
前記領域認識部は、
前記画像データから、前記画像を種類の異なる物体が表される領域である第2領域に分割し、第2領域ごとに当該第2領域に表される物体の種類である第2種類を定め、
前記物体判定部は、
前記第2領域に表される物体の深度が所定の範囲内に維持されるように当該第2領域を調整し、
前記第2領域のうち、前記第1領域と重複しない非重複領域における物体の種類を第2種類として判定し、
前記第2領域のうち、前記第1領域と重複する重複領域において前記第1信頼度が所定の信頼度の閾値未満である場合、
当該重複領域における物体の種類を第2種類として判定し、
前記重複領域において、前記第1信頼度が所定の信頼度の閾値以上である場合、
当該重複領域における物体の種類を第1種類として判定する
情報処理装置として動作させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/036872 WO2022070250A1 (ja) | 2020-09-29 | 2020-09-29 | 情報処理装置、情報処理方法、および、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022070250A1 JPWO2022070250A1 (ja) | 2022-04-07 |
JP7380904B2 true JP7380904B2 (ja) | 2023-11-15 |
Family
ID=80951499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022553256A Active JP7380904B2 (ja) | 2020-09-29 | 2020-09-29 | 情報処理装置、情報処理方法、および、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230260254A1 (ja) |
JP (1) | JP7380904B2 (ja) |
WO (1) | WO2022070250A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2024008516A (ja) * | 2022-07-08 | 2024-01-19 | 日立Astemo株式会社 | 物体識別装置及び物体識別方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004220555A (ja) | 2002-12-27 | 2004-08-05 | Fuji Photo Film Co Ltd | 画像から被写体領域を抽出する装置、方法、プログラムおよびプログラムを記録した記録媒体 |
JP2016018538A (ja) | 2014-07-11 | 2016-02-01 | キヤノン株式会社 | 画像認識装置、方法及びプログラム |
JP2020017136A (ja) | 2018-07-26 | 2020-01-30 | 日本電信電話株式会社 | 物体検出認識装置、方法、及びプログラム |
JP2020035098A (ja) | 2018-08-28 | 2020-03-05 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
JP2020113000A (ja) | 2019-01-10 | 2020-07-27 | 日本電信電話株式会社 | 物体検出認識装置、方法、及びプログラム |
-
2020
- 2020-09-29 WO PCT/JP2020/036872 patent/WO2022070250A1/ja active Application Filing
- 2020-09-29 JP JP2022553256A patent/JP7380904B2/ja active Active
- 2020-09-29 US US18/026,451 patent/US20230260254A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004220555A (ja) | 2002-12-27 | 2004-08-05 | Fuji Photo Film Co Ltd | 画像から被写体領域を抽出する装置、方法、プログラムおよびプログラムを記録した記録媒体 |
JP2016018538A (ja) | 2014-07-11 | 2016-02-01 | キヤノン株式会社 | 画像認識装置、方法及びプログラム |
JP2020017136A (ja) | 2018-07-26 | 2020-01-30 | 日本電信電話株式会社 | 物体検出認識装置、方法、及びプログラム |
JP2020035098A (ja) | 2018-08-28 | 2020-03-05 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
JP2020113000A (ja) | 2019-01-10 | 2020-07-27 | 日本電信電話株式会社 | 物体検出認識装置、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022070250A1 (ja) | 2022-04-07 |
WO2022070250A1 (ja) | 2022-04-07 |
US20230260254A1 (en) | 2023-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7136106B2 (ja) | 車両走行制御装置、および車両走行制御方法、並びにプログラム | |
US11531354B2 (en) | Image processing apparatus and image processing method | |
CN111775945B (zh) | 用于自动驾驶的用于检测最接近的路径内对象的方法和装置 | |
US20200241549A1 (en) | Information processing apparatus, moving apparatus, and method, and program | |
US20220169245A1 (en) | Information processing apparatus, information processing method, computer program, and mobile body device | |
US11501461B2 (en) | Controller, control method, and program | |
US11959999B2 (en) | Information processing device, information processing method, computer program, and mobile device | |
EP3835823B1 (en) | Information processing device, information processing method, computer program, information processing system, and moving body device | |
CN112119282A (zh) | 信息处理装置、移动装置、方法和程序 | |
CN112149487A (zh) | 一种用于自动驾驶的用于训练神经网络对象检测模型的用于确定锚框的方法 | |
CN113692521A (zh) | 信息处理装置、信息处理方法和信息处理程序 | |
WO2021010083A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
US11661085B2 (en) | Locked pedestrian detection and prediction for autonomous vehicles | |
US11609333B2 (en) | Point cloud feature-based obstacle filter system | |
CN113753072B (zh) | 基于人体驾驶参考数据的自动舒适度评分系统 | |
US20220343757A1 (en) | Information processing apparatus, information processing system, and information processing method | |
US20220276655A1 (en) | Information processing device, information processing method, and program | |
JP7380904B2 (ja) | 情報処理装置、情報処理方法、および、プログラム | |
KR102597917B1 (ko) | 자율 주행 차량을 위한 음원 검출 및 위치 측정 | |
WO2020129656A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
US20240142607A1 (en) | Information processing device, information processing method, computer program, and mobile device | |
WO2023162497A1 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2024003806A (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231016 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7380904 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |