JP7138265B1 - 物体検知装置、物体検知方法およびプログラム - Google Patents

物体検知装置、物体検知方法およびプログラム Download PDF

Info

Publication number
JP7138265B1
JP7138265B1 JP2022539302A JP2022539302A JP7138265B1 JP 7138265 B1 JP7138265 B1 JP 7138265B1 JP 2022539302 A JP2022539302 A JP 2022539302A JP 2022539302 A JP2022539302 A JP 2022539302A JP 7138265 B1 JP7138265 B1 JP 7138265B1
Authority
JP
Japan
Prior art keywords
image
luminance
group
unit
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022539302A
Other languages
English (en)
Other versions
JPWO2022264894A1 (ja
Inventor
正樹 金丸
哲郎 奥山
良直 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nuvoton Technology Corp Japan
Original Assignee
Nuvoton Technology Corp Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nuvoton Technology Corp Japan filed Critical Nuvoton Technology Corp Japan
Priority claimed from PCT/JP2022/023092 external-priority patent/WO2022264894A1/ja
Application granted granted Critical
Publication of JP7138265B1 publication Critical patent/JP7138265B1/ja
Publication of JPWO2022264894A1 publication Critical patent/JPWO2022264894A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

物体検知装置(100)は、同じ撮像領域に対応する第1輝度画像と距離画像とを取得する第1輝度取得部(11)および距離取得部(13)と、距離画像において、同一物体とみなせる一定範囲内にある画素の集合であるグループを生成し、グループに含まれる画素の数が第1しきい値以上である場合、当該グループを、クラスタと決定する第1クラスタ化部(101)と、グループに含まれる画素の数が第1しきい値より少ない場合、第1輝度画像中の画素群であってグループに対応する画素群の輝度が第2しきい値以上である場合に当該グループをクラスタと決定する第2クラスタ化部(102)と、クラスタに基づいて距離画像中の物体を検知し、検知した物体を示す3D物体情報を生成する3D物体検知部(17)と、を備える。

Description

本開示は、物体検知装置、物体検知方法およびプログラム装置に関する。
特許文献1は、構築されたモデルを利用して点群データを復旧するための方法および装置を開示している。特許文献2は、車両の環境情報を検出する方法およびシステムを開示している。
特開2019-149149号公報 特表2019-533133号公報
しかしながら、撮像した画像から得られる三次元点群データにおいて、撮像された物体の反射率が低い場合に、当該物体を検知することが困難であるという問題がある。例えば、撮像された画像にトラクターなどの農機が含まれている場合には、農機のボンネットやヘッドライトなどの物体は反射率が高いので比較的容易に検知できる。これに対して、農機のタイヤ、おもり、窓等の物体は反射率が低く、検知することが困難である。農機以外でも、低い反射率を有する物体は、検知することが困難である。
そこで、本開示は、低い反射率を有する物体を検知する能力を高めた物体検知装置、物体検知方法およびプログラムを提供する。
本開示の一態様に係る物体検知装置は、距離画像を取得する距離取得部と、前記距離画像と同じ撮像領域に対応する第1輝度画像を取得する第1輝度取得部と、前記距離画像において、同一物体とみなせる一定範囲内にある画素の集合であるグループを生成し、前記グループに含まれる画素の数が第1しきい値以上である場合、当該グループを、クラスタと決定する第1クラスタ化部と、前記グループに含まれる画素の数が第1しきい値より少ない場合、前記第1輝度画像中の画素群であって前記グループに対応する画素群の輝度が第2しきい値以上である場合に、当該グループをクラスタと決定する第2クラスタ化部と、前記クラスタに基づいて前記距離画像中の物体を検知し、検知した物体を示す3D物体情報を生成する3D物体検知部と、を備える。
また、本開示の一態様に係る物体検知方法は、同じ撮像領域に対応する第1輝度画像と距離画像とを取得し、前記距離画像において同一物体とみなせる一定範囲内にある画素の集合であるグループを生成し、前記グループに含まれる画素の数が第1しきい値以上である場合、当該グループを、物体を構成するクラスタと決定する第1クラスタ化処理を実施し、前記グループに含まれる画素の数が第1しきい値より少ない場合に、前記第1輝度画像中の画素群であって、前記グループに対応する画素群における輝度が第2しきい値以上である場合に、当該グループをクラスタと決定する第2クラスタ化処理を実施し、前記クラスタに基づいて前記距離画像中の物体を検知し、検知した物体を示す3D物体情報を生成する。
また、本開示の一態様に係るプログラムは、上記の物体検知方法をコンピュータに実行させる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の物体検知装置、物体検知方法およびプログラムは、低い反射率を有する物体を検知する能力を高めることができる。
図1は、実施の形態1に係る物体検知装置の構成例を示すブロック図である。 図2は、実施の形態1に係るイメージセンサの画素の配列例を示す図である。 図3は、実施の形態1に係る第1クラスタ化処理および第2クラスタ化処理の具体例を示すフローチャートである。 図4は、実施の形態1に係る第1クラスタ化処理および第2クラスタ化処理の変形例を示すフローチャートである。 図5は、実施の形態2に係る物体検知装置の構成例を示すブロック図である。 図6は、実施の形態2に係る情報処理システムの詳細な構成例を示すブロック図である。 図7は、実施の形態2に係る物体検知装置の動作例を示すフローチャートである。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。
(実施の形態1)
[1.1 構成]
まず、本実施の形態に係る物体検知装置100の構成について説明する。図1は、実施の形態1に係る物体検知装置100の構成例を示すブロック図である。同図の物体検知装置100は、例えば移動体に搭載され、移動体の前方、側方、後方などに設定された監視領域を撮像し、撮像した二次元画像および三次元画像に含まれる物体を検知する装置である。そのため、物体検知装置100は、イメージセンサ3、発光部4、信号処理部5、および、情報処理システム1を備える。以下では、二次元画像を2D画像と略し、三次元画像を3D画像と略すことがある。
イメージセンサ3は、行列状に配置された複数の画素を有する固体撮像素子であり、信号処理部5の制御に従って画素信号を生成する。イメージセンサ3の画素配列の一例を図2に示す。図2では、イメージセンサ3は、第1画素31および第2画素32を有している。図2では、可視光に感度を持つ第1画素31に「白黒」の「白」の意味で「W」の文字を付している。第1画素31には赤外光を抑制する光学的フィルタが配置されていてもよい。また、赤外光に感度を持つ第2画素32に「赤外」の意味で「IR」の文字を付している。第2画素32には、可視光を抑制する光学的フィルタが配置されていてもよい。
なお、イメージセンサ3の画素配列は、図2に限らない。例えば、第1画素31と第2画素32とが行方向に交互に配列されてもよい。第1画素31と第2画素32とが行方向および列方向に交互に配列されてもよい。図2では、第1画素31の行と第2画素32の行とが同数であるが、異なっていてもよい。また、イメージセンサ3は、赤色光に感度を持つR画素と、緑色光に感度を持つG画素と、青色光に感度を持つB画素と、赤外光に感度を持つIR画素とを備えてもよい。この場合、R画素、G画素、B画素およびIR画素を正方配列してもよい。
発光部4は、信号処理部5からのタイミング信号に従って赤外光であるパルス光を発する。発光部4は、イメージセンサ3の第2画素32が感度を持つ波長域の光、つまり赤外光を出力する。発光部4には、例えば、発光ダイオード(LED:Light Emitting Diode)またはレーザダイオード等の、比較的応答速度が速く高速点滅可能な素子が用いられる。
信号処理部5は、イメージセンサ3を制御することにより輝度画像と距離画像とを生成する。具体的には、信号処理部5は、輝度画像としてBW輝度画像D1およびIR輝度画像D2を生成し、距離画像として距離画像D3を生成する。ここで、BWは黒白の略である。IRは、赤外線の略である。より具体的には、信号処理部5は、第1画素31から得られる画素信号を用いてBW輝度画像D1を生成する。また、信号処理部5は、第2画素32から得られる画素信号を用いてIR輝度画像を生成する、さらに、信号処理部5は、イメージセンサ3を用いてTOF(Time Of Flight)方式による測距を制御することにより、第2画素32からの画素信号から距離画像D3を生成する。距離画像D3は、イメージセンサ3から物体までの距離値を示す画素の集まりである。つまり、距離画像D3を構成する各画素は、イメージセンサ3から、発光部4のパルス光を反射した物体までの距離値を示す。
以下、信号処理部5が、距離画像D3を求めるための具体的な処理について、一例を挙げて簡単に説明する。本実施形態では、発光部4による投光(発光)からイメージセンサ3による反射波の受光までの時間を計測するために、信号処理部5は、発光部4から強度を変調した光(以下、「強度変調光」または「パルス光」ともいう)を監視領域に出力させる。その上で、信号処理部5は、イメージセンサ3による受光時点の強度変化の位相と、発光部4からの投光時点の強度変化の位相との位相差を用いて時間を計測する。強度変調光における強度変化の周波数が一定であれば、位相差は、比較的簡単な演算で、物体までの距離に換算される。
すなわち、強度が変化する強度変調光を発光部4から白線に投光し、イメージセンサ3の1つの第2画素32が受光する光の強度が変化しているとする。同位相の時間差は物体までの距離を反映しているから、光速をc[m/s]として、時間差Δt[s]を用いると、物体までの距離Lは以下の式1で表される。
L=c・Δt/2 (式1)
また、光の強度を変調する変調信号の周波数をf[Hz]とし、位相差をφ[rad]とすれば、時間差Δtは以下の式2で表される。
Δt=φ/2πf (式2)
よって、位相差φを求めることにより、物体までの距離Lが求まることになる。
そして、位相差φを求めるには、イメージセンサ3の第2画素32毎に、変調信号の複数の異なる位相について受光強度を求めればよい。実際には、イメージセンサ3の第2画素32毎に、所定の位相幅(時間幅)を有する各位相区間の受光光量を検出し、この受光光量に相当する受光出力を位相差φの演算に用いる。一例として、位相区間を90度間隔とすれば、変調信号の1周期について位相間隔が等しい4つの位相区間が周期的に得られる。この場合に、位相区間毎の受光光量をC0~C3とすれば、位相差φは、以下の式3で表される。
φ=tan-1{(C0-C2)/(C1-C3)} (式3)
受光光量C0~C3を変調信号のいずれの位相に対応させるかによって、位相差φの符号は変化するが、位相差φは絶対値を用いればよい。
このように、発光部4から強度変調光を投光し、イメージセンサ3において特定の位相区間毎の受光光量を検出する必要があるから、信号処理部5が設けられる。信号処理部5は、上述したような強度変調光が投光されるように発光部4に変調信号を与えて発光部4を駆動する。イメージセンサ3からは4つの位相区間毎の受光光量C0~C3に対応した受光出力が得られ、イメージセンサ3の受光出力(電気信号)が信号処理部5に入力される。信号処理部5は、受光出力を用いて物体までの距離を求める演算を行う。このとき、信号処理部5は、変調信号に同期した基準信号に基づいて生成した読出信号をイメージセンサ3に与えて、受光出力を読み出す。
図1の情報処理システム1は、信号処理部5で生成された輝度画像および距離画像中の物体を検知する。そのため情報処理システム1は、BW輝度取得部11、IR輝度取得部12、距離取得部13、座標変換部15、第1クラスタ化部101、第2クラスタ化部102、分離部16、三次元物体検知部17、および、フュージョン部18を備える。なお、BW輝度取得部11は、上記の第1輝度取得部および後述の第2輝度取得部のうちの一方の具体例である。IR輝度取得部12は、上記の第1輝度取得部および後述の第2輝度取得部のうちの他方の具体例である。情報処理システム1は、1以上のプロセッサおよび1以上のメモリを有するコンピュータシステムで構成されてもよい。このコンピュータシステムは、SoC(System on a Chip)、サーバ、およびクラウドコンピューティングのいずれかであってもよい。プロセッサは、メモリに記録されているプログラムを実行することにより、情報処理システム1の機能を実現する。プログラムは、予めメモリに記録されていてもよいし、メモリカードのような非一時的記録媒体に記録されて提供されたり、電気通信回線を通して提供されたりしてもよい。言い換えれば、上記プログラムは、1以上のプロセッサを、情報処理システム1として機能させるためのプログラムである。
BW輝度取得部11は、信号処理部5からBW輝度画像D1を取得する。
IR輝度取得部12は、信号処理部5からIR輝度画像D2を取得する。
距離取得部13は、信号処理部5から距離画像D3を取得する。
座標変換部15は、距離画像D3を、X、Y、Zの直交座標系に座標変換処理を行う。具体的には、座標変換部15は、距離画像D3に基づいて、X、Y、Zの座標値を持つ点からなる点群データを生成する。点群データは、ポイントクラウドとも呼ばれる。以下、座標変換部15から出力される座標変換後の距離画像D3つまり点群データを点群データd3と呼ぶ。座標変換部15は、距離画像D3と点群データd3を分離部16に出力する。
分離部16は、物体と、物体の周囲に位置する周辺領域と、を分離する。「周辺領域」は、例えば、物体の有無を検知する際に、検知対象から除外する路面、地面、床面等である。言い換えれば、分離部16は、物体を含む路面等以外の領域と路面等の周辺領域とを分離する。分離部16は、座標変換部15で生成された点群データd3に基づいて、物体と、周辺領域と、を分離する。
本実施形態では、分離部16は、座標変換部15で生成された点群データd3に基づいて、まず、点群データd3および距離画像D3のうち周辺領域に相当する成分を抽出する。そして、分離部16は、抽出した周辺領域を距離画像D3から除去することにより、距離画像D3のうちの物体に相当する成分を、第1クラスタ化部101に出力する。また、分離部16は、抽出した周辺領域を点群データd3から除去することにより、点群データd3のうちの物体に相当する成分を、三次元物体検知部17に出力する。ここで、周辺領域は、距離画像D3における物体以外の全ての領域であって、物体の近傍の領域だけでなく、物体の遠方の領域も含む。
第1クラスタ化部101は、分離部16から入力される距離画像D3において、第1クラスタ化処理を行う。具体的には、第1クラスタ化部101は、分離部16から入力される距離画像D3において、同一物体とみなせる一定範囲内にある画素の集合であるグループを生成し、グループに含まれる画素の数が第1しきい値以上である場合、当該グループを、クラスタと決定する。
第2クラスタ化部102は、分離部16から入力される距離画像D3、および、IR輝度取得部から入力されるIR輝度画像D2において、第2クラスタ化処理を行う。具体的には、第2クラスタ化部102は、第1クラスタ化部101で生成されたグループに含まれる画素の数が第1しきい値より少ない場合に、IR輝度画像D2の画素群であって、グループに対応する画素群の輝度が第2しきい値以上である場合に、当該グループをクラスタと決定する。これにより、低い反射率を有する物体の一部または全部が第1クラスタ化処理ではクラスタとして検出されない場合に、第2クラスタ化処理ではクラスタとして検出されることが可能になる。
なお、第2クラスタ化処理で用いられる画素群の輝度は、画素群に含まれる画素の平均的な輝度であってもよいし、画素群に含まれる画素の最大輝度であってもよい。言い換えれば、低い反射率を有する物体に対して、平均的な輝度を基準にしてクラスタを検出してもよいし、最大値を基準にしてクラスタを検出してもよい。
また、第2クラスタ化処理で用いられる画素群の輝度は、画素群の平均輝度および最大輝度の両者を含んでいてもよい。この場合、第2しきい値は、平均用しきい値と、最大用しきい値とを含む。第2クラスタ化部102は、平均的な輝度が平均用しきい値以上であり、かつ、最大輝度が最大用しきい値以上であるとき、当該グループをクラスタと決定してもよい。こうすれば、低い反射率を有する物体に対して、平均輝度および最大輝度の両者を基準にするのでクラスタ検知能力を高めることができる。
なお、第1しきい値、第2しきい値は、実験的、統計的、またはシミュレーションにより予め定めることができる。
三次元物体検知部17は、第1クラスタ化部101および第2クラスタ化部102により決定されたクラスタに基づいて、分離部16から入力される点群データd3から物体を検知し、検知した物体である物標を示す3D物体情報を生成する。本実施形態では、三次元物体検知部17には、周辺領域が除去された状態の点群データd3が分離部16より入力される。三次元物体検知部17は、例えば、分離部16より入力された点群データd3の内、第1クラスタ化部101および第2クラスタ化部102により決定された1つのクラスタまたは連続する2つ以上のクラスタに対応する点群を物体として検知し、3D物体情報として出力する。
フュージョン部18は、二次元物体検知部20の検知結果である2D物体情報と、三次元物体検知部17の検知結果である3D物体情報とを融合または合成する。
二次元物体検知部20は、第1合成部21から出力される二次元の合成画像から物体を検知し、検知した物体を示す2D物体情報を生成する。ここで、合成画像は、BW輝度画像D1とIR輝度画像D2とを重み計数により合成した画像、BW輝度画像D1、および、IR輝度画像D2のうちのいずれかである。二次元物体検知部20による物体の検知は、例えば、AI技術(つまり人工知能技術)を用いてもよい。検知される物体について「種別」と「属性」を判別してもよい。物体の種別は、人か否か、移動体(人、自動車若しくは自転車等)か固定物か、街路樹、信号機、ガードレール等の区別を含む。また、物体の「属性」には、物体の大きさ、色または動き(変化)等も含む。さらに、物体が人であれば、その性別、身長、体型または年齢層等、物体が移動体であれば、その移動方向または移動速度等も、物体の「属性」に含んでもよい。
第1合成部21は、BW輝度取得部11およびIR輝度取得部12からのBW輝度画像D1およびIR輝度画像D2の合成を行う。BW輝度画像D1およびIR輝度画像D2はいずれも二次元画像であるので、BW輝度画像D1およびIR輝度画像D2を合成することで合成画像が生成される。本開示でいう「合成」は、重み付け合成を含んでおり、例えば、BW輝度画像D1およびIR輝度画像D2の重み係数が「1:0」であれば、合成画像としては第1合成部21からBW輝度画像D1がそのまま出力される。一方、例えば、BW輝度画像D1およびIR輝度画像D2の重み係数が「0:1」であれば、合成画像としては第1合成部21からIR輝度画像D2がそのまま出力される。言い換えれば、第1合成部21は、BW輝度画像D1およびIR輝度画像D2を択一的に出力する選択器としての機能を含んでいる。第1合成部21から出力される合成画像は、二次元物体検知部20に入力される。そのため、第1合成部21の出力が二次元物体検知部20の動作に適した合成画像となるように、第1合成部21は適宜、制御されてもよい。例えば、第1合成部21から出力される合成画像は、例えば、日中/夜間、または天候(雨、霧)等の白線の状況に応じて、適宜、重み係数を変えて合成されてもよい。
[1.2 動作]
まず、本実施の形態に係る物体検知装置100の動作について説明する。ここでは、物体検知装置100の動作の第1クラスタ化処理および第2クラスタ化処理の具体例について説明する。図3は、実施の形態1に係る第1クラスタ化処理および第2クラスタ化処理の具体例を示すフローチャートである。
同図のステップS101~S103およびS107は、おおよそに第1クラスタ化部101による第1クラスタ化処理に対応する。ステップS104、S107およびS108は、おおよそ第2クラスタ化部102による第2クラスタ化処理に対応する。
まず、第1クラスタ化部101は、分離部16から入力される距離画像D3において、同一物体とみなせる一定範囲内にある画素の集合であるグループを生成する(S101)。さらに、第1クラスタ化部101は、生成したグループ毎に処理を繰り返すループ1の処理(S103~S109)を実施する。
ループ1において第1クラスタ化部101は、グループに含まれる画素の数が第1しきい値以上であるか否かを判定し(S103)、第1しきい値以上であると判定したとき(S103でyes)、当該グループをクラスタと決定する。ここで、「クラスタと決定する」というのは、当該部ループを構成する画素の集合が物体の一部または全部に対応するクラスタとして検出するという意味である。また、第1クラスタ化部101は、第1しきい値以上でないと判定したとき(S103でno)、当該グループをクラスタと決定されず、第2クラスタ化部102の処理対象となる。
第2クラスタ化部102は、第1クラスタ化部101によってクラスタと決定されなかったグループについて、次の処理を行う。すなわち、第2クラスタ化部102は、クラスタと決定されなかったグループについて、IR輝度画像D2中の画素群であって当該グループに対応する画素群を抽出し、抽出した画素群のIR輝度が第2しきい値以上であるか否かを判定する(S104)。さらに、第2クラスタ化部102は、画素群の輝度が第2しきい値以上であると判定したとき(S104でyes)、当該グループをクラスタと決定する(S107)。一方、第2クラスタ化部102は、画素群の輝度が第2しきい値以上でないと判定したとき(S104でnos)、当該グループをクラスタでないと決定する(S108)。
このような第2クラスタ化部102の第2クラスタ化処理は、低い反射率を有する物体の一部または全部が第1クラスタ化処理ではクラスタとして検出されなかった場合に、第2クラスタ化処理ではクラスタとして検出することを可能にする。こうして、第2クラスタ化部102は、クラスタの検知能力を高めることができる。
[1.3 変形例]
次に、本実施の形態におけるクラスタ化処理の変形例について説明する。ここでは、物体検知装置100の動作の第1クラスタ化処理および第2クラスタ化処理の変形例について説明する。図4は、実施の形態1に係る第1クラスタ化処理および第2クラスタ化処理の変形例を示すフローチャートである。同図は、図3のフローチャートと比較してステップS105およびS106が追加されている点が異なる。以下、同じ点の説明の重複を避けて、異なる点を中心に説明する。
第2クラスタ化部102は、画素群の輝度が第2しきい値以上であると判定したとき(S104でyes)、当該グループをクラスタと仮決定する(S105)。その後、フュージョン部18において、3D物体情報中の物体であって当該グループ(つまり仮決定されあクラスタ)を元に生成された物体を2D画像中に投影した結果が、二次元物体検知部20によって検知された2D物体情報に示される物体と重なるか否かを判定する(S106)。さらに、フュージョン部18は、重なると判定したとき(S106でyes)、クラスタと仮決定したグループをクラスタと決定する(S107)。すなわち、当該グループ(つまり仮決定されたクラスタ)を元に生成された物体が存在するものと判断する。一方、フュージョン部18は、重ならないと判定したとき(S106でno)、クラスタと仮決定したグループをクラスタでないと決定する(S108)。すなわち、当該グループを元に生成された物体が存在しないものと判断し、3D物体情報から当該物体を削除する。
これによれば、第2クラスタ化部102は、低い反射率を有する物体に対して、さらにクラスタの検出能力を高め、かつ、クラスタ検出の正確さを高めることができる。
なお、第1クラスタ化部101、第2クラスタ化部102およびフュージョン部18は、クラスタを決定するクラスタ化処理の対象を距離画像D3としているが、点群データd3を対象としてもよい。
以上説明してきたように、本開示の実施の形態1に係る物体検知装置100は、距離画像を取得する距離取得部13と、距離画像と同じ撮像領域に対応する第1輝度画像を取得する第1輝度取得部と、距離画像において、同一物体とみなせる一定範囲内にある画素の集合であるグループを生成し、グループに含まれる画素の数が第1しきい値以上である場合、当該グループを、クラスタと決定する第1クラスタ化部101と、グループに含まれる画素の数が第1しきい値より少ない場合、第1輝度画像中の画素群であってグループに対応する画素群の輝度が第2しきい値以上である場合に、当該グループをクラスタと決定する第2クラスタ化部102と、クラスタに基づいて距離画像中の物体を検知し、検知した物体を示す3D物体情報を生成する3D物体検知部17と、を備える。
これによれば、距離画像において、低い反射率を有する物体を検知する能力を高めることができる。
ここで、第1輝度画像中の画素群の前記輝度は、画素群に含まれる画素の平均的な輝度であってもよい。
これによれば、低い反射率を有する物体に対して、平均的な輝度を基準に検知能力を高めることができる。
ここで、第1輝度画像中の画素群の前記輝度は、画素群に含まれる画素の最大輝度であってもよい。
これによれば、低い反射率を有する物体に対して、最大輝度を基準に検知能力を高めることができる。
ここで、第1輝度画像中の画素群の前記輝度は、画素群の平均輝度および最大輝度の両者を含み、第2しきい値は、平均用しきい値と、最大用しきい値とを含み、第2クラスタ化部102は、平均輝度が平均用しきい値以上であり、かつ、最大輝度が最大用しきい値以上であるとき、当該グループをクラスタと決定してもよい。
これによれば、低い反射率を有する物体に対して、平均輝度および最大輝度の両者を基準に検知能力を高めることができる。
ここで、物体検知装置100は、撮像領域に対応する2D画像に含まれる物体を検知し、検知した物体を示す2D物体情報を生成する2D物体検知部と、3D物体情報と2D物体情報とを融合するフュージョン部18と、を備えてもよい。
これによれば、融合により物体の検知能力を正確にすることができる。
ここで、フュージョン部18は、さらに、3D物体情報に含まれる物体のうち前記第2クラスタ化部が決定したクラスタに対応する物体が、2D物体情報に示される物体と重なる場合には、当該物体を3D物体と決定し、前記第2クラスタ化部が決定したクラスタに対応する物体が2D物体情報に示される物体と重ならない場合には、前記第2クラスタ化部が決定した当該クラスタをクラスタではないと決定し、かつ、当該物体を3D物体でないと決定してもよい。
これによれば、低い反射率を有する物体に対して、さらにクラスタの検出能力を高め、かつ、クラスタ検出の正確さを高めることができる。
ここで、前記2D画像は、第1輝度画像であってもよい。
これによれば、前記2D画像を取得するために、赤外光に感度を有する画素を主とするイメージセンサを用いるが可能である。
ここで、物体検知装置100は、第1輝度画像とは異なる波長の光に対する第2輝度画像を取得する第2輝度取得部を備え、前記2D画像は、第2輝度画像、または、第1輝度画像と第2輝度画像とを合成した第3輝度画像のうちのいずれかであってもよい。
これによれば、前記2D画像を取得するために、赤外光に感度を有する画素を主とするイメージセンサを用いることも、赤外光に感度を有する画素と可視光に感度を有する画素とを含むイメージセンサを用いることも可能である。
ここで、物体検知装置100は、赤外光を発する発光部4と、赤外光による反射光を受光するイメージセンサ3と、発光部4とイメージセンサ3を用いて、第1輝度画像と、距離画像とを生成する信号処理部5を備え、第1輝度取得部、および、距離取得部は、信号処理部5から第1輝度画像、および、距離画像を取得してもよい。
これによれば、赤外光に感度を有するイメージセンサを用いることが可能である。
ここで、物体検知装置100は、赤外光を発する発光部4と、赤外光に感度を持つ第1画素、および、可視光に感度を持つ第2画素を持つイメージセンサ3と、発光部4とイメージセンサ3を用いて、第1画素の画素値から第1輝度画像と、距離画像とを生成し、第2画素の画素値から第2輝度画像を生成する信号処理部5を備え、第1輝度取得部、第2輝度取得部および、距離取得部は、信号処理部5から第1輝度画像、第2輝度画像、および距離画像を取得してもよい。
これによれば、赤外光に感度を有する第1画素と、可視光に感度を有する第2画素と含むイメージセンサ3用いることが可能である。
また、実施の形態1の一態様に係る物体検知方法は、同じ撮像領域に対応する第1輝度画像と距離画像とを取得し、前記距離画像において同一物体とみなせる一定範囲内にある画素の集合であるグループを生成し、前記グループに含まれる画素の数が第1しきい値以上である場合、当該グループを、物体を構成するクラスタと決定する第1クラスタ化処理を実施し、前記グループに含まれる画素の数が第1しきい値より少ない場合に、前記第1輝度画像中の画素群であって、前記グループに対応する画素群における輝度が第2しきい値以上である場合に、当該グループをクラスタと決定する第2クラスタ化処理を実施し、前記クラスタに基づいて前記距離画像中の物体を検知し、検知した物体を示す3D物体情報を生成する。
これによれば、距離画像において低い反射率を有する物体の検知能力を高めることができる。
ここで、第1輝度画像中の画素群の前記輝度は、画素群に含まれる画素の平均的な輝度であってもよい。
これによれば、低い反射率を有する物体に対して、平均的な輝度を基準に検知能力を高めることができる。
ここで、第1輝度画像中の画素群の前記輝度は、画素群に含まれる画素の最大輝度であってもよい。
これによれば、低い反射率を有する物体に対して、最大輝度を基準に検知能力を高めることができる。
ここで、第1輝度画像中の画素群の前記輝度は、画素群の平均輝度および最大輝度の両者を含み、第2しきい値は、平均用しきい値と、最大用しきい値とを含み、平均輝度が平均用しきい値以上であり、かつ、最大輝度が最大用しきい値以上であるとき、当該グループをクラスタと決定してもよい。
これによれば、低い反射率を有する物体に対して、平均輝度および最大輝度の両者を基準に検知能力を高めることができる。
ここで、物体検知方法において、撮像領域に対応する2D画像に含まれる物体を検知し、検知した物体を示す2D物体情報を生成し、3D物体情報と2D物体情報とを融合してもよい。
これによれば、融合により物体の検知能力を正確にすることができる。
ここで、物体検知方法において、さらに、3D物体情報に含まれる物体のうち前記第2クラスタ化処理で決定されたクラスタに対応する物体が、2D物体情報に示される物体と重なる場合には、当該物体を3D物体と決定し、前記第2クラスタ化処理で決定されたクラスタに対応する物体が2D物体情報に示される物体と重ならない場合には、前記第2クラスタ化処理で決定された当該クラスタをクラスタではないと決定し、かつ、当該物体を3D物体でないと決定してもよい。
これによれば、低い反射率を有する物体に対して、さらにクラスタの検出能力を高め、かつ、クラスタ検出の正確さを高めることができる。
ここで、前記2D画像は、第1輝度画像であってもよい。
これによれば、前記2D画像を取得するために、赤外光に感度を有する画素を主とするイメージセンサを用いるが可能である。
ここで、物体検知方法において、第1輝度画像とは異なる波長の光に対する第2輝度画像を取得する第2輝度取得部を備え、前記2D画像は、第2輝度画像、または、第1輝度画像と第2輝度画像とを合成した第3輝度画像のうちのいずれかであってもよい。
これによれば、前記2D画像を取得するために、赤外光に感度を有する画素を主とするイメージセンサを用いることも、赤外光に感度を有する画素と可視光に感度を有する画素とを含むイメージセンサを用いることも可能である。
また、実施の形態1の一態様に係るコンピュータプログラムは、上記の物体検知方法をコンピュータに実行させるプログラムである。
これによれば、距離画像において低い反射率を有する物体の検知能力を高めることができる。
(実施の形態2)
本実施の形態では、物体検知装置100を移動体に搭載する構成例について説明する。ここでいう移動体は、例えば、自動車、農機、二輪車などの車両や、船舶や、ドローンなど飛行体などを含む。
[2.1 構成]
図5は、実施の形態2に係る物体検知装置100の構成例を示すブロック図である。同図の物体検知装置100は、センサシステム10と制御システム2とを備える。
センサシステム10は、イメージセンサ3、発光部4、信号処理部5および情報処理システム1aを備える。このうちイメージセンサ3、発光部4および信号処理部5は実施の形態1と同じでよい。情報処理システム1aは、実施の形態1の情報処理システム1と同じ機能を有し、さらに、車載用の機能が追加されている。
制御システム2は、一例として、情報処理システム1aからの情報処理結果に従って、移動体の運転を支援するための情報を表示装置に表示させる等、適宜、移動体の運転者に対して情報の提示を行う情報提示部である。なお、制御システム2は、情報処理システム1からの情報処理結果に従って、移動体の操舵または制動等を制御することで、移動体の運転(操縦)を支援してもよい。
図6は、実施の形態2に係る情報処理システム1aの詳細な構成例を示すブロック図である。同図の情報処理システム1aは、図1に示した情報処理システム1と比較して、200番台の構成要素、つまり、ノイズ処理部214、トラッキング部219、第2合成部222、白線検出部223、白線鳥瞰部224、フリースペース検知部225、駐車枠検出部226および出力部227が追加されていつ点が主に異なっている。以下、同じ点の説明の重複を避けて、異なる点を中心に説明する。
情報処理システム1aには、オドメトリ情報D4と、コンフィデンス情報D5と、参照情報D6とが入力される。つまり、情報処理システム1aに対しては、入力データとして、BW輝度画像D1、IR輝度画像D2、距離画像D3、オドメトリ情報D4、コンフィデンス情報D5および参照情報D6が入力される。
オドメトリ情報D4は、例えば、移動体の傾き角度、移動体の進行方向、移動体の移動速度、移動体に係る加速度、アクセルペダルの踏込量(アクセル開度)、ブレーキペダルの踏込量または舵角等、移動体に搭載されたセンサで検出可能な情報を含む。さらに、オドメトリ情報D4は、GPS(Global Positioning System)等を用いて検出可能な移動体の現在位置に基づく情報であって、例えば、現在位置における道路の車線数、路面の白線と黄線の区別、車道幅、歩道の有無、勾配またはカーブの曲率等を含む。
コンフィデンス情報D5は、データの信頼性に関する情報である。一例として、コンフィデンス情報D5は、距離画像D3について、干渉またはマルチパス等の影響を受けた疑似距離画像に該当するか否かを判断するために用いられる。同様に、コンフィデンス情報D5は、BW輝度画像D1またはIR輝度画像D2について、疑似輝度情報に該当するか否かを判断するために用いられる。
参照情報D6は、BW輝度画像D1とIR輝度画像D2を合成する重み係数を変化させるための情報である。つまり、参照情報D6は、日中/夜間、または天候(雨、霧)等の白線の状況に関する情報であって、一例として、物体の周囲の照度および/または湿度に関する情報を含んでいる。
図6において、ノイズ処理部214は、距離画像D3と、BW輝度画像D1およびIR輝度画像D2からなる群から選択される1以上の情報と、を用いて、距離画像D3の補正を行う。BW輝度画像D1およびIR輝度画像D2からなる群から選択される1以上の情報は、BW輝度画像D1と、IR輝度画像D2と、BW輝度画像D1およびIR輝度画像D2を合成した輝度情報(以下、「合成画像」ともいう)と、のいずれかである。ノイズ処理部214は、距離取得部13に接続されている。本実施形態では、ノイズ処理部214は、第1合成部21を介してIR輝度取得部12に接続されている。つまり、ノイズ処理部214には、BW輝度画像D1またはIR輝度画像D2が直接的に入力されるのではなく、第1合成部21を介して間接的に入力される。距離画像D3は、それ単体では比較的SN比が低く、ノイズの比率が大きいため、ノイズ処理部214で距離画像D3のノイズを低減する。
トラッキング部219は、監視領域内に存在する物体の追跡を行う。トラッキング部219は、フュージョン部18で融合された3D物体情報について、例えば、イメージセンサ3の出力の複数フレーム間で比較することにより物体の追跡を行う。これにより、トラッキング部219では、物体が監視領域内を移動する場合であっても、移動前の物体と移動後の物体を同一の物体と認識可能である。トラッキング部219の追跡結果は、物標情報D11として出力部227に出力される。また、トラッキング部219には、オドメトリ情報D4も入力されている。
第2合成部222は、BW輝度取得部11およびIR輝度取得部12からのBW輝度画像D1およびIR輝度画像D2の合成を行う。第2合成部222についても、第1合成部21と同様、BW輝度画像D1およびIR輝度画像D2を択一的に出力する選択器としての機能を含んでいる。第2合成部222により合成されたBW輝度画像D1およびIR輝度画像D2は、白線検出部223に入力される。そのため、第2合成部222の出力が白線検出部223の動作に適した合成画像となるように、第2合成部222は適宜、制御される。さらに、第2合成部222は、参照情報D6が入力され、例えば、日中/夜間、または天候(雨、霧)等の白線の状況に応じて、適宜、重み係数を変えて合成する。
本実施形態では、第1合成部21の出力は二次元物体検知部20に入力され、第2合成部222の出力は白線検出部223に入力される。このように、第1合成部21および第2合成部222の出力に対応する検知対象が異なるため、第1合成部21と第2合成部222とでは、合成時の重み係数が異なっていてよい。
ここにおいて、第1合成部21および第2合成部222は、いずれもBW輝度画像D1とIR輝度画像D2とを合成する「合成部」として機能する。この合成部(第1合成部21および第2合成部222)は、第1画素31と第2画素32の位置に関する情報を補正するように、BW輝度画像D1およびIR輝度画像D2を合成する機能を有している。合成部(第1合成部21および第2合成部222)は、入力される参照情報D6によって、BW輝度画像D1とIR輝度画像D2を合成する重み係数を変化させる。
白線検出部223は、路面に引かれた白線の候補となる領域を検出する。白線検出部223は、第2合成部222から入力されるBW輝度画像D1およびIR輝度画像D2の合成画像に基づいて、白線の候補領域を検出する。また、白線検出部223には、コンフィデンス情報D5も入力されている。白線の検知は、一例として、BW輝度画像D1およびIR輝度画像D2の合成画像について、フィルタを用いたエッジ抽出等を行うことで、画素値(明るさ)が急に変化する部位を検知することで実現される。ここで、白線検出部223の検出対象となる白線は、白色の線に限らず、例えば、黄線(黄色の線)、絵または図柄等であってもよい。
白線鳥瞰部224は、白線検出部223の後段に設けられている。白線鳥瞰部224は、BW輝度画像D1およびIR輝度画像D2の合成画像について、少なくとも白線検出部223で検出された白線の候補領域およびその周辺を真上から見た鳥瞰画像となるように、座標変換を行う。
フリースペース検知部225は、距離画像D3に基づいて白線内のフリースペース、つまり空いている空間を検知する。本実施形態では、フリースペース検知部225には、物体と、物体の周囲に位置する周辺領域と、に分離された距離画像D3が、分離部16より入力される。フリースペース検知部225は、分離部16より入力された距離画像D3を用いて、白線内のフリースペースを検知する。フリースペース検知部225の検知結果は、フリースペース情報D13として出力部227に出力される。また、フリースペース検知部225には、オドメトリ情報D4も入力されている。
駐車枠検出部226は、白線内の空き駐車枠、つまり他車両が駐車されておらず空いている駐車枠を検知する。一般的に、商業施設、病院、公園、スタジアム、ホールまたは交通機関等の駐車場においては、複数の駐車枠が設けられており、駐車場の利用者は、空き駐車枠を探して、空き駐車枠に自車両(移動体)を駐車する。駐車枠検出部226によれば、このようなケースにおいて、自動的に空き駐車枠の探索が可能となる。本実施形態では、駐車枠検出部226には、フリースペース検知部225の検知結果および白線鳥瞰部224の出力(座標変換後の白線の候補領域)が入力される。駐車枠検出部226は、フリースペース検知部225の検知結果と白線鳥瞰部224の出力(座標変換後の白線の候補領域)とのペアリングを行い、空き駐車枠の判定を行う。例えば、駐車枠検出部226は、白線内において移動体を駐車可能なサイズの駐車枠のうち、位置的にフリースペースと重複する駐車枠を、空き駐車枠と判定する。駐車枠検出部226の検出結果は、空き駐車枠情報D14として出力部227に出力される。
出力部227は、BW輝度画像D1とIR輝度画像D2と距離画像D3とに基づいて行われた、イメージセンサ3の画角内の白線の状況に関する情報処理結果を出力する。すなわち、本実施形態に係る情報処理システム1aは、イメージセンサ3から取得したBW輝度画像D1、IR輝度画像D2および距離画像D3に基づいて、白線の状況に関する種々の情報処理を実行し、その結果を出力部227から出力する。本実施形態では一例として、出力部227は、トラッキング部219、分離部16、フリースペース検知部225および駐車枠検出部226からそれぞれ取得する、物標情報D11、路面情報D12、フリースペース情報D13および空き駐車枠情報D14を出力する。出力部227は、これらの情報を制御システム2に出力する。
本実施形態では、情報処理結果は、移動体の周辺の白線における物体の有無に関する情報と、白線に存在する物体の白線内での位置に関する情報と、物体の属性に関する情報と、の少なくとも1つを含む。具体的には、物標情報D11が、移動体の周辺の白線における物体の有無に関する情報と、白線に存在する物体の白線内での位置に関する情報と、物体の属性に関する情報と、を全て含む。本開示でいう「属性」は、例えば、物体の種別、つまり、人か否か、移動体(人、自動車若しくは自転車等)か固定物か、または街路樹、信号機、ガードレール等の区別を含む。また、物体の「属性」には、物体の大きさ、色または動き(変化)等も含む。さらに、物体が人であれば、その性別、身長、体型または年齢層等、物体が移動体であれば、その移動方向または移動速度等も、物体の「属性」に含む。
ここで、出力部227が出力する情報は、その出力先の要求に応じて適宜変化する。例えば、クラウド(クラウドコンピューティング)等に対して、複数台の移動体から、出力部227の出力が集約される場合には、出力部227は、メタ化されたメタ情報を出力してもよい。
なお、フュージョン部18は、イメージセンサ3を含むセンサシステム10に帰還信号Si1を出力してもよい。ここで、イメージセンサ3は、帰還信号Si1により、露光時間およびフレームレートからなる群から選択される1以上のパラメータが変化した電気信号を出力する。すなわち、フュージョン部18が出力する帰還信号Si1は、図5に示すように、信号処理部5へ帰還されている。帰還信号Si1には、フュージョン部18の出力である三次元物体検知部17の検知結果が含まれている。イメージセンサ3は、この帰還信号Si1に応じて露光時間および/またはフレームレートを変更する。
[2.2 動作]
次に、本実施の形態における物体検知装置100についてその動作を説明する。図7は、実施の形態2に係る物体検知装置の動作例を示すフローチャートである。
本実施形態に係る情報処理システム1aは、少なくとも駐車スペース検知モードおよび物体検知モードを含む複数の動作モードを有している。これら複数の動作モードは、それぞれ個別に有効/無効の切替えが可能であって、例えば、駐車スペース検知モードが有効、それ以外の動作モードが全て無効であれば、情報処理システム1aは、駐車スペース検知モードでのみ動作する。駐車スペース検知モードは、空き駐車枠を検知する動作モードであって、この動作モードでは、上述した空き駐車枠情報D14が出力部227から出力される。物体検知モードは、監視領域内の物体を検知する動作モードであって、この動作モードでは、上述した物標情報D11が出力部227から出力される。
すなわち、情報処理システム1aは、図7に示すようにBW輝度画像D1を取得するBW輝度取得処理(S1)、IR輝度画像D2を取得するIR輝度取得処理(S2)、および距離画像D3を取得する距離取得処理(S3)を実行する。情報処理システム1aは、BW輝度取得部11、IR輝度取得部12および距離取得部13において、随時、BW輝度取得処理、IR輝度取得処理および距離取得処理(S1~S3)を実行する。
次に、情報処理システム1aは、ノイズ処理部214において、距離画像D3と、BW輝度画像D1およびIR輝度画像D2からなる群から選択される1以上の情報とを用いて、距離画像D3の補正を行うことで、距離画像D3のノイズを低減するノイズ除去処理を実行する(S4)。
次に、情報処理システム1aは、分離部16において、座標変換後の距離画像D3について、物体と、物体の周囲に位置する周辺領域と、を分離する分離処理を実行する(S5)。
次に、情報処理システム1aは、物体検知モードが有効か否かを判断する(S6)。物体検知モードが有効であれば(S6:Yes)、情報処理システム1aは、物体を検知するための一連の処理(S6a、S7~S11)を実行する。すなわち、情報処理システム1aは、第1クラスタ化部101および第2クラスタ化部102にて第1クラスタ化処理および第2クラスタ化処理を実行し(S6a)、三次元物体検知部17にて物体の検知を行う三次元物体検知処理を実行し(S7)、二次元物体検知部20にて物体の検知を行う二次元物体検知処理を実行する(S8)。ここで、ステップS6aは、図3または図4のフローチャートと同じでよい。
次に、情報処理システム1aは、フュージョン部18において、二次元物体検知部20の検知結果(二次元検知結果)を用いて、三次元物体検知部17の検知結果(三次元検知結果)を補正するフュージョン処理を実行する(S9)。
なお、ステップS6aにおいて仮決定されたクラスタが存在する場合、図4に従い、ステップS9において該当する三次元物体検知結果と二次元物体検知結果の重なりの判定を行う。
次に、情報処理システム1aは、フュージョン処理の結果から、物体の有無を判断する(S10)。物体が存在すれば(S10:Yes)、情報処理システム1aは、出力部227において物標情報D11を出力し(S11)、駐車スペース検知モードが有効か否かを判断する(S12)。物体が存在しなければ(S10:Yes)、情報処理システム1aは、物標情報D11を出力せずに、処理S12に移行する。
駐車スペース検知モードが有効であれば(S12:Yes)、情報処理システム1aは、空き駐車枠を検知するための一連の処理(S13~S16)を実行する。すなわち、情報処理システム1aは、白線検出部223において白線の候補領域を検出し(S13)、フリースペース検知部225においてフリースペースを検知する(S14)。これらの結果から、情報処理システム1aは、駐車枠検出部226において、監視領域内の空き駐車枠の有無を判断する(S15)。
空き駐車枠があれば(S15:Yes)、情報処理システム1aは、出力部227において空き駐車枠情報D14を出力し(S16)、一連の処理を終了する。空き駐車枠がなければ(S15:Yes)、情報処理システム1aは、空き駐車枠情報D14を出力せずに、一連の処理を終了する。
また、物体検知モードが無効であれば(S6:No)、情報処理システム1aは、物体を検知するための一連の処理(S7~S11)をスキップして、処理S12に移行する。駐車スペース検知モードが無効であれば(S12:No)、情報処理システム1aは、空き駐車枠を検知するための一連の処理(S13~S16)をスキップして、処理を終了する。
情報処理システム1aは、上述したような一連の処理S1~S16を繰り返し実行する。図7のフローチャートは、情報処理システム1aの全体動作の一例に過ぎず、処理を適宜省略または追加してもよいし、処理の順番が適宜変更されていてもよい。例えば、処理S1~S3の順番が変更され、IR輝度画像D2および距離画像D3を取得した後(S2,S3)、BW輝度画像D1を取得してもよい(S1)。
以上説明してきたように本開示の実施の形態2の一態様に係る物体検知装置100は、3D物体情報に基づいて、物体検知装置を搭載する移動体の移動を支援する情報を提示する情報提示部としての制御システム2を備える。
これによれば、距離画像において低い反射率を有する物体の検知能力を高めることができる。また、移動体に搭載された物体検知装置100に適している。
なお、イメージセンサ3は、1つの固体撮像装置で構成される代わりに、2つの固体撮像装置で構成されてもよいし、3つの固体撮像装置で構成されてもよい。ただし、BW輝度画像D1、IR輝度画像D2および距離画像D3の画素同士の対応付けが可能であることが必要である。
上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
以上、一つまたは複数の態様に係る物体検知装置100、物体検知方法、プログラムについて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
本開示は、輝度画像および距離画像中の物体を検知する物体検知装置100に利用可能である。
1、1a 情報処理システム
2 制御システム
3 イメージセンサ
4 発光部
5 信号処理部
10 センサシステム
11 BW輝度取得部
12 IR輝度取得部
13 距離取得部
15 座標変換部
16 分離部
17 三次元物体検知部
18 フュージョン部
20 二次元物体検知部
21 第1合成部
214 ノイズ処理部
219 トラッキング部
222 第2合成部
223 白線検出部
224 白線鳥瞰部
225 フリースペース検知部
226 駐車枠検出部
227 出力部
31 第1画素
32 第2画素
100 物体検知装置
101 第1クラスタ化部
102 第2クラスタ化部
D1 BW輝度画像
D2 IR輝度画像
d3 点群データ
D3 距離画像
D4 オドメトリ情報
D5 コンフィデンス情報
D6 参照情報
D11 物標情報
D12 路面情報
D13 フリースペース情報
D14 駐車枠情報
Si1 帰還信号

Claims (20)

  1. 距離画像を取得する距離取得部と、
    前記距離画像と同じ撮像領域に対応する第1輝度画像を取得する第1輝度取得部と、
    前記距離画像において、同一物体とみなせる一定範囲内にある画素の集合であるグループを生成し、前記グループに含まれる画素の数が第1しきい値以上である場合、当該グループを、クラスタと決定する第1クラスタ化部と、
    前記グループに含まれる画素の数が第1しきい値より少ない場合、前記第1輝度画像中の画素群であって前記グループに対応する画素群の輝度が第2しきい値以上である場合に、当該グループをクラスタと決定する第2クラスタ化部と、
    前記クラスタに基づいて前記距離画像中の物体を検知し、検知した物体を示す3D物体情報(3Dは三次元の略)を生成する3D物体検知部と、を備える
    物体検知装置。
  2. 前記第1輝度画像中の画素群の前記輝度は、前記画素群に含まれる画素の平均的な輝度である
    請求項1に記載の物体検知装置。
  3. 前記第1輝度画像中の画素群の前記輝度は、前記画素群に含まれる画素の最大輝度である
    請求項1に記載の物体検知装置。
  4. 前記第1輝度画像中の画素群の前記輝度は、前記画素群の平均輝度および最大輝度の両者を含み、
    前記第2しきい値は、平均用しきい値と、最大用しきい値とを含み、
    前記第2クラスタ化部は、前記平均輝度が前記平均用しきい値以上であり、かつ、前記最大輝度が前記最大用しきい値以上であるとき、当該グループをクラスタと決定する
    請求項1に記載の物体検知装置。
  5. 前記撮像領域に対応する2D画像(2Dは二次元の略)に含まれる物体を検知し、検知した物体を示す2D物体情報を生成する2D物体検知部と、
    前記3D物体情報と前記2D物体情報とを融合するフュージョン部と、を備える
    請求項1に記載の物体検知装置。
  6. 前記フュージョン部は、さらに、前記3D物体情報に含まれる物体のうち前記第2クラスタ化部が決定したクラスタに対応する物体が、前記2D物体情報に示される物体と重なる場合には、当該物体を3D物体と決定し、前記第2クラスタ化部が決定したクラスタに対応する物体が前記2D物体情報に示される物体と重ならない場合には、前記第2クラスタ化部が決定した当該クラスタをクラスタではないと決定し、かつ、当該物体を3D物体でないと決定する
    請求項5に記載の物体検知装置。
  7. 前記2D画像は、前記第1輝度画像である
    請求項5または6に記載の物体検知装置。
  8. 前記第1輝度画像とは異なる波長の光に対する第2輝度画像を取得する第2輝度取得部を備え、
    前記2D画像は、前記第2輝度画像、または、第1輝度画像と第2輝度画像とを合成した第3輝度画像のうちのいずれかである
    請求項5または6に記載の物体検知装置。
  9. 赤外光を発する発光部と、
    前記赤外光による反射光を受光するイメージセンサと、
    前記発光部と前記イメージセンサを用いて、前記第1輝度画像と、前記距離画像とを生成する信号処理部を備え、
    前記第1輝度取得部、および、距離取得部は、前記信号処理部から前記第1輝度画像、および、前記距離画像を取得する
    請求項1に記載の物体検知装置。
  10. 赤外光を発する発光部と、
    赤外光に感度を持つ第1画素、および、可視光に感度を持つ第2画素を持つイメージセンサと、
    前記発光部と前記イメージセンサを用いて、前記第1画素の画素値から前記第1輝度画像と、前記距離画像とを生成し、前記第2画素の画素値から前記第2輝度画像を生成する信号処理部を備え、
    前記第1輝度取得部、第2輝度取得部および、距離取得部は、前記信号処理部から前記第1輝度画像、前記第2輝度画像、および前記距離画像を取得する
    請求項8に記載の物体検知装置。
  11. 前記3D物体情報に基づいて、前記物体検知装置を搭載する移動体の移動を支援する情報を提示する情報提示部を備える
    請求項1に記載の物体検知装置。
  12. 同じ撮像領域に対応する第1輝度画像と距離画像とを取得し、
    前記距離画像において同一物体とみなせる一定範囲内にある画素の集合であるグループを生成し、
    前記グループに含まれる画素の数が第1しきい値以上である場合、当該グループを、物体を構成するクラスタと決定する第1クラスタ化処理を実施し、
    前記グループに含まれる画素の数が第1しきい値より少ない場合に、前記第1輝度画像中の画素群であって、前記グループに対応する画素群における輝度が第2しきい値以上である場合に、当該グループをクラスタと決定する第2クラスタ化処理を実施し、
    前記クラスタに基づいて前記距離画像中の物体を検知し、検知した物体を示す3D物体情報を生成する
    物体検知方法。
  13. 前記第1輝度画像中の画素群の前記輝度は、前記画素群に含まれる画素の平均的な輝度である
    請求項12に記載の物体検知方法。
  14. 前記第1輝度画像中の画素群の前記輝度は、前記画素群に含まれる画素の最大輝度である
    請求項12に記載の物体検知方法。
  15. 前記第1輝度画像中の画素群の前記輝度は、前記画素群の平均輝度および最大輝度の両者を含み、
    前記第2しきい値は、平均用しきい値と、最大用しきい値とを含み、
    前記平均輝度が前記平均用しきい値以上であり、かつ、前記最大輝度が前記最大用しきい値以上であるとき、当該グループをクラスタと決定する
    請求項12に記載の物体検知方法。
  16. 前記撮像領域に対応する2D画像に含まれる物体を検知し、
    検知した物体を示す2D物体情報を生成し、
    前記3D物体情報と前記2D物体情報とを融合する
    請求項12に記載の物体検知方法。
  17. 前記3D物体情報に含まれる物体のうち前記第2クラスタ化処理で決定されたクラスタに対応する物体が前記2D物体情報に示される物体と重なる場合には、当該物体を3D物体と決定し、
    前記第2クラスタ化処理で決定されたクラスタに対応する物体が前記2D物体情報に示される物体と重ならない場合には、前記第2クラスタ化処理で決定された当該クラスタをクラスタではないと決定し、かつ、当該物体を3D物体でないと決定する
    請求項16に記載の物体検知方法。
  18. 前記2D画像は、前記第1輝度画像である
    請求項16または17に記載の物体検知方法。
  19. 前記第1輝度画像とは異なる波長の光に対する第2輝度画像を取得し、
    前記2D画像は、前記第2輝度画像、または、第1輝度画像と第2輝度画像とを合成した第3輝度画像のうちのいずれかである
    請求項16または17に記載の物体検知方法。
  20. 請求項12に記載の物体検知方法をコンピュータに実行させるプログラム。
JP2022539302A 2021-06-17 2022-06-08 物体検知装置、物体検知方法およびプログラム Active JP7138265B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021100600 2021-06-17
JP2021100600 2021-06-17
PCT/JP2022/023092 WO2022264894A1 (ja) 2021-06-17 2022-06-08 物体検知装置、物体検知方法およびプログラム

Publications (2)

Publication Number Publication Date
JP7138265B1 true JP7138265B1 (ja) 2022-09-15
JPWO2022264894A1 JPWO2022264894A1 (ja) 2022-12-22

Family

ID=83282306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022539302A Active JP7138265B1 (ja) 2021-06-17 2022-06-08 物体検知装置、物体検知方法およびプログラム

Country Status (4)

Country Link
US (1) US20240112478A1 (ja)
EP (1) EP4357814A1 (ja)
JP (1) JP7138265B1 (ja)
CN (1) CN117480409A (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6312987A (ja) * 1986-07-04 1988-01-20 Hitachi Ltd 移動物体の検知方法
JP2016088183A (ja) * 2014-10-31 2016-05-23 株式会社Ihi 支障物検知システムおよび鉄道車両
JP2016180724A (ja) * 2015-03-25 2016-10-13 スタンレー電気株式会社 距離計測装置
CN106296721A (zh) * 2015-05-14 2017-01-04 株式会社理光 基于立体视觉的对象聚集检测方法和装置
JP2017016584A (ja) * 2015-07-06 2017-01-19 株式会社リコー 物体検出装置、物体検出方法及びプログラム
WO2017145600A1 (ja) * 2016-02-23 2017-08-31 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
WO2020129522A1 (ja) * 2018-12-18 2020-06-25 日立オートモティブシステムズ株式会社 画像処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6312987A (ja) * 1986-07-04 1988-01-20 Hitachi Ltd 移動物体の検知方法
JP2016088183A (ja) * 2014-10-31 2016-05-23 株式会社Ihi 支障物検知システムおよび鉄道車両
JP2016180724A (ja) * 2015-03-25 2016-10-13 スタンレー電気株式会社 距離計測装置
CN106296721A (zh) * 2015-05-14 2017-01-04 株式会社理光 基于立体视觉的对象聚集检测方法和装置
JP2017016584A (ja) * 2015-07-06 2017-01-19 株式会社リコー 物体検出装置、物体検出方法及びプログラム
WO2017145600A1 (ja) * 2016-02-23 2017-08-31 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
WO2020129522A1 (ja) * 2018-12-18 2020-06-25 日立オートモティブシステムズ株式会社 画像処理装置

Also Published As

Publication number Publication date
EP4357814A1 (en) 2024-04-24
US20240112478A1 (en) 2024-04-04
CN117480409A (zh) 2024-01-30
JPWO2022264894A1 (ja) 2022-12-22

Similar Documents

Publication Publication Date Title
US10445928B2 (en) Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
JP4970516B2 (ja) 周囲確認支援装置
CN104512411B (zh) 车辆控制系统及图像传感器
JP5867273B2 (ja) 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
JP5714940B2 (ja) 移動体位置測定装置
US20220120910A1 (en) Information processing system, sensor system, information processing method, and non-transitory computer readable storage medium
US20160252905A1 (en) Real-time active emergency vehicle detection
JP6358552B2 (ja) 画像認識装置および画像認識方法
CN106415312B (zh) 感应系统及驾驶支援系统
JP2014006885A (ja) 段差認識装置、段差認識方法及び段差認識用プログラム
CN115104138A (zh) 多模态、多技术载具信号检测
JPWO2019202628A1 (ja) 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
JP6278790B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
WO2022153896A1 (ja) 撮像装置、画像処理方法及び画像処理プログラム
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP7138265B1 (ja) 物体検知装置、物体検知方法およびプログラム
WO2022264894A1 (ja) 物体検知装置、物体検知方法およびプログラム
US20190337455A1 (en) Mobile Body Surroundings Display Method and Mobile Body Surroundings Display Apparatus
CN116892949A (zh) 地上物检测装置、地上物检测方法以及地上物检测用计算机程序
JP2014016981A (ja) 移動面認識装置、移動面認識方法及び移動面認識用プログラム
JP4506299B2 (ja) 車両周辺監視装置
KR20130065281A (ko) 위치 정보 제공 장치 및 방법
US20230286548A1 (en) Electronic instrument, movable apparatus, distance calculation method, and storage medium
US20230062562A1 (en) Sensing system and distance measuring system
WO2020071132A1 (ja) カメラ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220624

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R150 Certificate of patent or registration of utility model

Ref document number: 7138265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150