JP7347398B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP7347398B2
JP7347398B2 JP2020181693A JP2020181693A JP7347398B2 JP 7347398 B2 JP7347398 B2 JP 7347398B2 JP 2020181693 A JP2020181693 A JP 2020181693A JP 2020181693 A JP2020181693 A JP 2020181693A JP 7347398 B2 JP7347398 B2 JP 7347398B2
Authority
JP
Japan
Prior art keywords
light
camera
lidar
image
reflected light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020181693A
Other languages
English (en)
Other versions
JP2022072328A (ja
Inventor
勇介 林
太一 河内
真之 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020181693A priority Critical patent/JP7347398B2/ja
Priority to US17/483,186 priority patent/US20220137196A1/en
Priority to CN202111225721.9A priority patent/CN114428257A/zh
Publication of JP2022072328A publication Critical patent/JP2022072328A/ja
Application granted granted Critical
Publication of JP7347398B2 publication Critical patent/JP7347398B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、物体検出装置に関する。
例えば、自動運転車両には、周囲の物標を検出するため、照射したレーザ光の反射光に基づいて物標を検出するライダーが搭載されている。また、例えば、非特許文献1に記載されているように、照射したレーザ光の反射光に加え、照射したレーザ光以外の環境光の反射光の受光結果も用いて物標を検出するライダーが開発されている。
伊藤誠悟 平塚誠良 太田充彦 松原弘幸 小川勝 「小型イメージングLIDARとDCNNによる位置姿勢推定」 情報処理学会 第79回全国大会講演論文集 2017年
自動運転車両には、周囲の物標を検出するため、ライダーに加えてカメラが搭載されていることがある。この場合には、ライダーとカメラとのキャリブレーションが行われ、両者の検出結果に基づいて物標の検出が行われている。ここで、上述したように、照射したレーザ光以外の環境光の反射光の受光結果も用いて物標を検出するライダーがある。このようなライダーがカメラに加えて搭載されている場合であっても、両者のキャリブレーションを精度よく行うことが求められている。
このため、本開示は、照射したレーザ光の反射光に加え、環境光の反射光も検出可能なライダーと、カメラとのキャリブレーションを精度よく行うことができる物体検出装置について説明する。
本開示の一側面は、ライダー及びカメラを用いて物標を検出する物体検出装置であって、ライダーとカメラとのキャリブレーションを行うキャリブレーション処理部を備え、ライダーは、照射したレーザ光の反射光及びレーザ光以外の光である環境光の反射光を受光し、受光した環境光の反射光の強度を検出可能な受光部を備え、キャリブレーション処理部は、受光部で受光された環境光の反射光の受光結果と、カメラによって撮像されたカメラ画像とに基づいてキャリブレーションを行う。
この物体検出装置においてキャリブレーション処理部は、ライダーで受光された環境光の反射光の受光結果と、カメラのカメラ画像とに基づいてキャリブレーションを行う。すなわち、物体検出装置は、環境光の反射光の受光結果とカメラ画像という同種の情報に基づいてライダーとカメラとのキャリブレーションを行う。これにより、物体検出装置は、照射したレーザ光の反射光に加えて環境光の反射光も検出可能なライダーと、カメラとのキャリブレーションを精度よく行うことができる。
物体検出装置において、ライダーは、受光されたレーザ光の反射光の反射点の位置と、受光された環境光の反射光の強度と、が対応付けられた対応情報を生成する対応情報生成部を更に備え、キャリブレーション処理部は、対応情報生成部で生成された対応情報と、カメラ画像とに基づいてキャリブレーションを行ってもよい。この場合、カメラ画像と生成した対応情報とに基づいて、キャリブレーションを精度よく行うことができる。
物体検出装置において、対応情報には、当該対応情報を生成するために用いられた環境光の反射光の受光時刻が含まれ、カメラ画像には、当該カメラ画像の撮像時刻が含まれ、キャリブレーション処理部は、受光時刻と撮像時刻との差が所定時間以下の対応情報及びカメラ画像を用いてキャリブレーションを行ってもよい。例えば、物体検出装置が車両に搭載されている場合、車両の移動に伴って物体検出装置も移動する。これにより、環境光の反射光の受光時刻とカメラ画像の撮像時刻とが大きく離れているときには、同じ物標であっても見え方が大きく異なり、環境光情報とカメラ画像とを用いてキャリブレーションを精度よく行うことができない。このため、物体検出装置は、受光時刻と撮像時刻との差が所定時間以下の対応情報及びカメラ画像を用いてキャリブレーションを行うことで、キャリブレーションをより一層精度よく行うことができる。
物体検出装置は、ライダー及びカメラの前方の投影領域内に参照画像を投影する投影部を更に備え、ライダーは、投影領域を含む照射領域内にレーザ光を照射し、照射したレーザ光の反射光及び環境光の反射光を受光し、カメラは、投影領域を含む撮像領域内を撮像し、キャリブレーション処理部は、受光部で受光された照射領域内で反射した環境光の反射光の受光結果と、カメラによって撮像された撮像領域内のカメラ画像とに基づいてキャリブレーションを行ってもよい。この場合、物体検出装置は、参照画像を含む環境光の反射光と参照画像を含むカメラ画像とに基づいて、両者に含まれる参照画像を用いてライダーとカメラとのキャリブレーションをより一層精度よく行うことができる。
本開示の一側面によれば、照射したレーザ光の反射光に加え、環境光の反射光も検出可能なライダーと、カメラとのキャリブレーションを精度よく行うことができる。
図1は、第1実施形態に係る物体検出装置の一例を示すブロック図である。 図2(a)は、ライダー環境光画像を示す図である。図2(b)は、ライダー環境光画像の画像処理後の画像の一例を示す図である。図2(c)は、ライダー環境光画像の画像処理後の画像の一例を示す図である。 図3(a)は、ライダー環境光画像の画像処理後の画像の一例を示す図である。図3(b)は、ライダー環境光画像の画像処理後の画像の一例を示す図である。 図1は、第2実施形態に係る物体検出装置の一例を示すブロック図である。
以下、例示的な実施形態について図面を参照しながら説明する。なお、各図において、同一又は相当する要素同士には同一符号を付し、重複する説明を省略する。
(第1実施形態)
まず、物体検出装置の第1実施形態について説明する。図1に示される第1実施形態に係る物体検出装置100は、車両(自車両)に搭載され、自車両の周囲の物標を検出する。物体検出装置100によって検出された物標は、例えば自車両の自動運転等、種々の制御に用いられ得る。物体検出装置100は、ライダー[LIDAR:Light Detection and Ranging]1、カメラ2、及びキャリブレーションECU[Electronic Control Unit]3を備えている。物体検出装置100は、ライダー1及びカメラ2を用いて車両の周囲の物標を検出する。また、物体検出装置100は、ライダー1とカメラ2とのキャリブレーションを行う機能を有している。
ライダー1は、レーザ光を自車両の周囲に照射し、照射したレーザ光が物標で反射した反射光(レーザ光の反射光)を受光する。また、ライダー1は、レーザ光の反射光の強度を検出する。本実施形態におけるライダー1は、照射したレーザ光の反射光に加え、照射したレーザ光以外の光である環境光が物標で反射した反射光(環境光の反射光)を受光することができる。また、ライダー1は、受光した環境光の反射光の強度を検出することができる。この環境光とは、例えば、太陽光、及び照明などの自車両の周囲の光である。
より詳細には、ライダー1は、レーザ光照射部11、受光素子12、及び光処理ECU13を備えている。レーザ光照射部11は、物体検出装置100が搭載された自車両の周囲の予め定められた照射領域内の各位置に向けてそれぞれレーザ光を照射する。
受光素子12は、レーザ光照射部11から照射されたレーザ光の反射光を受光し、受光したレーザ光の反射光の強度に応じた信号を出力することができる。また、受光素子12は、レーザ光照射部11から照射されたレーザ光以外の環境光の反射光を受光し、受光した環境光の反射光の強度に応じた信号を出力することができる。
光処理ECU13は、CPU、ROM、RAMなどを有する電子制御ユニットである。光処理ECU13は、例えば、ROMに記録されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。光処理ECU13は、複数の電子ユニットから構成されていてもよい。
光処理ECU13は、受光素子12の出力信号に基づいて、受光素子12で受光されたレーザ光の反射光の強度及び環境光の反射光の強度をそれぞれ検出する。光処理ECU13は、機能的には、光分離部14、レーザ光処理部15、及び環境光処理部(対応情報生成部)16を備えている。このように、受光素子12、光分離部14、レーザ光処理部15、及び環境光処理部16は、レーザ光の反射光及び環境光の反射光を受光し、受光したそれぞれの反射光の強度を検出可能な受光部として機能する。
光分離部14は、受光素子12で受光された光を、レーザ光の反射光と環境光の反射光とに分離する。光分離部14は、例えば、特定の明滅パターンの光をレーザ光の反射光と判別し、それ以外の光を環境光の反射光と判別することができる。また、例えば、光分離部14は、レーザ光照射部11がレーザ光を照射してから所定時間以内に受光された光をレーザ光の反射光と判別し、それ以外のタイミングで受光された光を環境光の反射光と判別することができる。この所定時間は、レーザ光照射部11がレーザ光を照射した後、照射されたレーザ光が自車両の周囲の物標で反射し、レーザ光の反射光が受光素子12に到達するまでの時間に基づいて予め設定されている。なお、環境光の反射光には、上述したように、ライダー1から照射したレーザ光の反射光は含まない。しかしながら、環境光にレーザ光と同じ波長の光が含まれる場合、環境光の反射光には、レーザ光と同じ波長の光の反射光が含まれる。
レーザ光処理部15は、受光素子12で受光されたレーザ光の反射光の受光結果に基づいてレーザ光情報(レーザ光のポイントクラウド)を生成する。レーザ光情報とは、予め定められた照射領域内の各位置に向けて照射された複数のレーザ光の受光結果(複数の反射光の受光結果)に基づいて生成される。なお、ライダー1は、照射領域内の各位置の全てに対してレーザ光の照射が完了した後、再度、照射領域内の各位置に向けてそれぞれレーザ光を照射する。このように、ライダー1は、照射領域内の各位置の全てに対してレーザ光を照射する照射処理が完了した後、再度、次の照射処理を行う。レーザ光情報は、ライダー1が照射処理を行うごとに生成される。
より詳細には、レーザ光処理部15は、照射領域内に向けて照射する複数のレーザ光のそれぞれについて、照射したレーザ光の反射点の三次元位置と、当該レーザ光の強度と、を対応付けてレーザ光ポイント情報を生成する。レーザ光処理部15は、生成した複数のレーザ光ポイント情報に基づいて、レーザ光情報を生成する。なお、レーザ光処理部15は、レーザ光照射部11から照射されたレーザ光の照射角度と、レーザ光が照射されてから当該レーザ光の反射光が受光素子12に到達するまでの到達時間と、に基づいて、レーザ光の反射点の三次元位置を計測することができる。
環境光処理部16は、受光素子12で受光された環境光の反射光の受光結果に基づいて環境光情報(環境光のポイントクラウド)を生成する。環境光情報は、レーザ光情報と同様に、ライダー1が照射領域内へ複数のレーザ光を照射する照射処理を行うごとに生成される。
より詳細には、環境光処理部16は、まず、レーザ光処理部15からレーザ光の反射点の三次元位置を取得する。ここで、レーザ光の照射角度等、ライダー1の各部の状態を変化させていない状態では、受光素子12によって受光されるレーザ光の反射点の位置と、環境光の反射点の位置とは互いに同じとなっている。このため、ライダー1は、レーザ光の反射光を受光したときの状態で環境光の反射光の強度を検出することにより、レーザ光の反射点と同じ位置で反射した環境光の反射光の強度を検出することができる。従って、環境光処理部16は、レーザ光処理部15から取得したレーザ光の反射点の三次元位置と、受光素子12で受光された環境光の反射光の強度と、を対応付けることにより、環境光ポイント情報を生成する。この環境光ポイント情報は、照射領域内に向けて照射される複数のレーザ光毎に生成される。
環境光処理部16は、生成した複数の環境光ポイント情報に基づいて、環境光情報を生成する。すなわち、環境光処理部16は、受光されたレーザ光(環境光)の反射光の反射点の位置と、受光された環境光の反射光の強度と、が反射点の位置毎に対応付けられた環境光情報(対応情報)を生成する。
このように、ライダー1は、受光素子12の受光結果に基づいてレーザ光情報と環境光情報とを生成することができる。すなわち、ライダー1は、一つの受光素子12の受光結果に基づいてレーザ光情報と環境光情報とを生成することができるため、レーザ光情報と環境光情報とのキャリブレーションが不要となる。
物体検出装置100は、ライダー1で生成されたレーザ光情報に基づいて物標の検出を行う。また、物体検出装置100は、レーザ光情報に加えて、ライダー1で生成された環境光情報も用いて物標の検出を行ってもよい。
カメラ2は、自車両の周囲の予め定められた撮像領域内を撮像し、撮像結果であるカメラ画像を生成する。カメラ2は、撮像素子21、及び画像処理ECU22を備えている。撮像素子21は、撮像領域内で反射した環境光の反射光を受光し、受光した環境光の反射光に応じた信号を出力することができる。
画像処理ECU22は、光処理ECU13と同様の構成を有する電子制御ユニットである。画像処理ECU22は、機能的には、画像処理部23を備えている。画像処理部23は、撮像素子21の出力信号に基づいて、周知の方法によってカメラ画像を生成する。
キャリブレーションECU3は、光処理ECU13と同様の構成を有する電子制御ユニットである。キャリブレーションECU3は、光処理ECU13又は画像処理ECU22と一体に構成されていてもよい。キャリブレーションECU3は、機能的には、キャリブレーション処理部31を備えている。
キャリブレーション処理部31は、ライダー1とカメラ2とのキャリブレーションを行う。より詳細には、キャリブレーション処理部31は、ライダー1で受光された環境光の反射光の受光結果(環境光情報)と、カメラ2によって撮像されたカメラ画像とに基づいてキャリブレーションを行う。ここでのキャリブレーションとは、ライダー1とカメラ2との位置合わせを行い、両者の位置的な対応関係を算出することである。
ここでは、キャリブレーション処理部31は、ライダー1とカメラ2とのキャリブレーションとして、例えば、ライダー1とカメラ2との外部パラメータを算出する。この外部パラメータとは、ライダー1とカメラ2との位置的な対応関係を表している。キャリブレーション処理部31は、一つの環境光情報と一つのカメラ画像とに基づいて、外部パラメータを生成する。
具体的には、キャリブレーション処理部31は、ランダムに生成された又は予め定められた条件に基づいて生成された、外部パラメータの初期値を用いて、環境光情報及びカメラ画像のいずれか一方又は両方のデータを変換する変換処理を行う。次に、キャリブレーション処理部31は、変換処理が行われた後の環境光情報及びカメラ画像に基づいて、環境光情報とカメラ画像との類似度を算出する。そして、キャリブレーション処理部31は、類似度が大きくなるように、外部パラメータを更新する。キャリブレーション処理部31は、この外部パラメータの更新を、予め定められた回数又は類似度が予め定められた類似度閾値を超えるまで繰り返し行う。外部パラメータの更新が終了すると、キャリブレーション処理部31は、更新が終了した外部パラメータをキャリブレーション結果として出力する。物体検出装置100は、算出された外部パラメータに基づいて、ライダー1とカメラ2との位置的な対応関係を認識することができる。
ここで、キャリブレーション処理部31がキャリブレーションを行う際に用いる環境光情報及びカメラ画像について説明する。なお、環境光情報には、当該環境光情報を生成するために用いられた環境光の反射光の受光時刻が含まれ、カメラ画像には、当該カメラ画像の撮像時刻が含まれている。キャリブレーション処理部31は、キャリブレーションを行う環境光情報とカメラ画像とを抽出する際に、環境光情報に含まれる受光時刻とカメラ画像に含まれる撮像時刻との差が所定時間以下の環境光情報及びカメラ画像を抽出する。キャリブレーション処理部31は、抽出した環境光情報及びカメラ画像を用いて、上述したようにキャリブレーションを行うことができる。
次に、キャリブレーション処理部31で行われる外部パラメータを算出する種々の方法の一例について説明する。
(第1の方法)
まず、外部パラメータを算出する第1の方法について説明する。第1の方法において、キャリブレーション処理部31は、画像のヒストグラムを用いて外部パラメータの算出を行う。
(1)キャリブレーション処理部31は、例えば次の投影行列と変換式とに基づいて、環境光情報を「環境光の反射光の強度を画素値とする画像」に変換する。以下、環境光情報を変換することによって生成された「環境光の反射光の強度を画素値とする画像」を「ライダー環境光画像」という。そして、キャリブレーション処理部31は、ライダー環境光画像を、カメラ画像と同じサイズ(幅×高さ)に切り出す。
Figure 0007347398000001
(2)次に、キャリブレーション処理部31は、カメラ画像をグレースケールに変換する。
(3)キャリブレーション処理部31は、ライダー環境光画像と、グレースケールに変換したカメラ画像とをそれぞれヒストグラムに変換する。キャリブレーション処理部31は、ヒストグラムの類似度をスコアとして、類似度が高くなるように外部パラメータ(位置と向きのパラメータ)を変換しながら最適化計算を行う。このスコアは、例えば、2つのヒストグラムの相互情報量等によって算出することができる。
(第2の方法)
外部パラメータを算出する第2の方法について説明する。第2の方法において、キャリブレーション処理部31は、画像処理によって画像を加工して、ピクセルレベルで類似度を計算することによって外部パラメータを算出する。
(1)キャリブレーション処理部31は、上記の第1の方法の(1)の処理と同様に、環境光情報をライダー環境光画像に変換する。
(2)次に、キャリブレーション処理部31は、ライダー環境光画像に対して画像処理を行う。ここで、画像処理の手法の種々の例について説明する。例えば、図2(a)に示されるように、自車両の前方の様子を示すライダー環境光画像がある。第1の画像処理手法として、キャリブレーション処理部31は、図2(a)に示されるライダー環境光画像に対して2値化処理を行うことで、図2(b)に示されるように2値化された画像を生成してもよい。なお、キャリブレーション処理部31は、2値化以外の多値化処理を行ってもよい。
また、第2の画像処理手法として、キャリブレーション処理部31は、図2(a)に示されるライダー環境光画像に対してエッジ検出処理を行うことで、図2(c)に示されるようにエッジ部分が強調された画像を生成してもよい。第3の画像処理手法として、キャリブレーション処理部31は、図2(a)に示されるライダー環境光画像に対してセマンティックセグメンテーション処理を行うことで、図3(a)に示されるように属性ごとに領域分けされた画像を生成してもよい。第4の画像処理手法として、キャリブレーション処理部31は、図2(a)に示されるライダー環境光画像に対して影の領域部分だけ抽出してセグメンテーション処理を行うことで、図3(b)に示されるように影の領域部分のみが領域分けされた画像を生成してもよい。このように影の部分だけ領域分けすることにより、領域の切れ目が直線状となる箇所が多くなり、画像のマッチング処理が容易となる。
(3)キャリブレーション処理部31は、カメラ画像に対しても(2)と同じ画像処理を行う。
(4)キャリブレーション処理部31は、画像処理後のライダー環境光画像と画像処理後のカメラ画像との差分を計算する。キャリブレーション処理部31は、算出した差分が小さくなるように、外部パラメータ(位置と向きのパラメータ)を変換しながら最適化計算を行う。例えば、キャリブレーション処理部31は、次の式を用いてライダー環境光画像とカメラ画像との差分を算出し、lossが下がるように最適化計算を行うことができる。
loss=ΣΣ(カメラ画像[h][w]-ライダー環境光画像[h][w])
ここでの「w」は、画像中の幅方向の位置であり、「h」は、画像中の高さ方向の位置である。ここでは、キャリブレーション処理部31は、画像処理として用いた手法に応じて、2つの画像の類似度を算出し、最適化計算を行う。例えば、キャリブレーション処理部31は、2値化等が行われて画素ごとに値を持つ場合、画素ごとの数値差に基づいて類似度を算出することができ、画素ごとに属性が付されている場合、属性の一致又は不一致に基づいて類似度を算出することができる。
また、キャリブレーション処理部31は、環境光情報とカメラ画像とにおけるピクセルレベルでのマッピングテーブルを、外部パラメータとして使用してもよい。このマッピングテーブルは、例えば、環境光情報のある点(ある反射点の情報)が、カメラ画像中のどの画素に対応するかを表すマップである。キャリブレーション処理部31は、例えば、次のようにして、マッピングテーブルを作成することができる。
(1)まず、キャリブレーション処理部31は、環境光情報の反射強度値に補正を加える。例えば、キャリブレーション処理部31は、反射強度値にγ補正を行ってもよい。
(2)次に、キャリブレーション処理部31は、カメラ画像をグレースケールに変換する。
(3)キャリブレーション処理部31は、環境光情報の各点(ポイント)の反射強度の値に近い、カメラ画像の画素をピックアップする。
(4)キャリブレーション処理部31は、ピックアップしたカメラ画像の画素に基づいて、環境光情報中の各点の位置関係を崩さない、環境光情報の点とカメラ画像の画素とのペアを探索する。例えば、キャリブレーション処理部31は、環境光情報の点Aは点Bの左側に存在するにも関わらず、対応するカメラ画像の画素Aが画素Bの右側に存在する場合には、ペアを不成立とする。
(5)キャリブレーション処理部31は、(4)において予め定められたペア閾値以上のペアを探索することができた場合、このペアの位置関係に基づいてマッピングテーブルを作成する。ペア閾値以上のペアを探索することができなかった場合、キャリブレーション処理部31は、(3)のピックアップの条件を緩めて再度ペアの探索を行う。このピックアップの条件を緩めることとして、例えば、キャリブレーション処理部31は、「画素値が所定の範囲以内なら同じ(近い)と判定してピックアップする」の「所定の範囲」を緩和する。
また、キャリブレーション処理部31は、上記の方法によって作成されたマッピングテーブルから、ライダー1の座標系をカメラ2の座標系へ変換するための射影行列を生成してもよい。
以上のように、物体検出装置100においてキャリブレーション処理部31は、ライダー1で受光された環境光の反射光の受光結果と、カメラ2のカメラ画像とに基づいてライダー1とカメラ2とのキャリブレーションを行う。すなわち、物体検出装置100は、環境光の反射光の受光結果とカメラ画像という同種の情報に基づいてライダー1とカメラ2のキャリブレーションを行う。これにより、物体検出装置100は、照射したレーザ光の反射光に加えて環境光の反射光も検出可能なライダー1と、カメラ2とのキャリブレーションを精度よく行うことができる。
ライダー1の環境光処理部16は、受光されたレーザ光の反射光の反射点の位置と、環境光の反射光の強度と、が対応付けられた環境光情報(対応情報)生成する。キャリブレーション処理部31は、生成された環境光情報とカメラ画像とに基づいてキャリブレーションを行う。この場合、物体検出装置100は、反射光の反射点の位置ごとに反射光の強度が対応付けられた環境光情報と、カメラ画像とに基づいて、キャリブレーションを精度よく行うことができる。
キャリブレーション処理部31は、環境光情報に含まれる環境光の反射光の受光時刻と、カメラ画像が撮像された撮像時刻との差が所定時間以下の環境光情報及びカメラ画像を用いてキャリブレーションを行う。例えば、物体検出装置100が車両に搭載されている場合、車両の移動に伴って物体検出装置100も移動する。これにより、環境光の反射光の受光時刻とカメラ画像の撮像時刻とが大きく離れているときには、同じ物標であっても見え方が大きく異なり、環境光情報とカメラ画像とを用いてキャリブレーションを精度よく行うことができない。このため、物体検出装置100は、受光時刻と撮像時刻との差が所定時間以下の環境光情報及びカメラ画像を用いてキャリブレーションを行うことで、キャリブレーションをより一層精度よく行うことができる。
(第2実施形態)
次に、物体検出装置の第2実施形態について説明する。以下では、第1実施形態に係る物体検出装置100との相違点を中心に説明し、対応する要素には同一符号を付して詳細な説明を省略する。図4に示されるように、第2実施形態に係る物体検出装置100Aは、投影した参照画像を用いてライダー1とカメラ2とのキャリブレーションを行う。物体検出装置100Aは、ライダー1、カメラ2、キャリブレーションECU3A、及び投影部4を備えている。
投影部4は、ライダー1及びカメラ2の前方の投影領域内に参照画像を投影する。この参照画像は、例えば、予め定められた数字、文字、及び図形等であってもよい。ライダー1は、参照画像が投影された投影領域を含む照射領域内にレーザ光を照射し、照射したレーザ光の反射光及び環境光の反射光を受光する。ここでの環境光には、投影部4から照射された参照画像の反射光も含まれる。また、カメラ2は、参照画像が投影された投影領域を含む撮像領域内を撮像する。
キャリブレーションECU3Aは、キャリブレーション処理部31Aを備えている。キャリブレーション処理部31Aは、ライダー1で受光された照射領域内で反射した環境光の反射光の受光結果(環境光情報)と、カメラ2によって撮像された撮像領域内のカメラ画像とに基づいて、第1の実施形態と同様の方法を用いてライダー1とカメラ2とのキャリブレーションを行う。すなわち、キャリブレーション処理部31Aは、参照画像の影響を含む環境光情報と、参照画像を含むカメラ画像とに基づいてキャリブレーションを行う。ここで、環境光情報及びカメラ画像の両方に参照画像が含まれているため、キャリブレーション処理部31Aは、参照画像に基づいて両者の類似度等を算出し、キャリブレーションを行うことができる。なお、本実施形態におけるライダー1は、レーザ光の反射光に加え、環境光の反射光も検出することができる。このため、キャリブレーション処理部31Aは、投影部4から照射された参照画像を含む環境光情報を用いてキャリブレーションを行うことができる。
以上のように、本実施形態における物体検出装置100Aは、参照画像を投影する投影部4を備えている。この場合、物体検出装置100Aは、参照画像を含む環境光情報と参照画像を含むカメラ画像とに基づいて、両者に含まれる参照画像を用いてライダーとカメラとのキャリブレーションをより一層精度よく行うことができる。
なお、投影部4は、投影する参照画像を定期的に変更してもよい。この場合、物体検出装置100Aが搭載された車両を移動させたり、カメラ2等を動かすことなく、前回とは異なる参照画像を含む環境光情報及びカメラ画像を得ることができる。また、投影部4は、キャリブレーション処理部31Aがキャリブレーションを行うのに適した参照画像を投影してもよい。この場合、キャリブレーション処理部31Aは、キャリブレーションをより一層精度よく行うことができる。
また、投影部4は、時間情報が埋め込まれた参照画像を投影してもよい。投影部4は、時間情報として、例えば、数字、及びQRコード(登録商標)等が埋め込まれた参照画像を投影してもよい。また、投影部4は、時間情報が埋め込まれた参照画像を、ライダー1の照射周期(照射処理の周期)又はカメラ2の撮像周期以下の周期で切り替える。
ここで、ライダー1においては、受光素子12と光処理ECU13との間でのデータの転送遅延がある。また、カメラ2においても、撮像素子21と画像処理ECU22との間でのデータの転送遅延がある。このため、ライダー1におけるデータの転送遅延がT1であり、カメラ2におけるデータの転送遅延がT2である場合、|T1-T2|の時間補正を考慮しておかないと、環境光情報とカメラ画像とを対比する際に物標の位置が合わなくなる。このため、キャリブレーション処理部31Aは、時間情報が埋め込まれた参照画像を含む環境光情報及びカメラ画像を用いることにより、埋め込まれた時間情報に基づいてライダー1及びカメラ2のそれぞれにおけるデータの転送遅延を考慮して、環境光情報とカメラ画像とを対比することができる。これにより、キャリブレーション処理部31Aは、キャリブレーションをより精度よく行うことができる。
以上、本開示の実施形態について説明したが、本開示は、上記実施形態に限定されるものではない。本開示は、本開示の趣旨を逸脱しない範囲で種々の変更が可能である。
1…ライダー、2…カメラ、4…投影部、12…受光素子(受光部)、14…光分離部(受光部)、15…レーザ光処理部(受光部)、16…環境光処理部(受光部、対応情報生成部)、31,31A…キャリブレーション処理部、100,100A…物体検出装置。

Claims (2)

  1. ライダー及びカメラを用いて物標を検出する物体検出装置であって、
    前記ライダーと前記カメラとのキャリブレーションを行うキャリブレーション処理部を備え、
    前記ライダーは、
    照射したレーザ光の反射光及び前記レーザ光以外の光である環境光の反射光を受光し、受光した前記環境光の反射光の強度を検出可能な受光部と、
    前記受光部で受光された受光された前記レーザ光の反射光の反射点の位置と、前記受光部で受光された受光された前記環境光の反射光の強度と、が対応付けられた対応情報を生成する対応情報生成部と、
    を備え、
    前記対応情報には、当該対応情報を生成するために用いられた前記環境光の反射光の受光時刻が含まれ、
    前記カメラによって撮像されたカメラ画像には、当該カメラ画像の撮像時刻が含まれ、
    前記キャリブレーション処理部は、前記撮像時刻と前記受光時刻との差が所定時間以下の前記対応情報及び前記カメラ画像を用いて前記キャリブレーションを行い、
    さらに前記キャリブレーション処理部は、前記撮像時刻及び前記受光時刻として、前記ライダー内における前記環境光の反射光のデータの転送遅延及び前記カメラ内における前記カメラ画像のデータの転送遅延を考慮して補正を行った時刻を用いる、物体検出装置。
  2. 前記ライダー及び前記カメラの前方の投影領域内に参照画像を投影する投影部を更に備え、
    前記ライダーは、前記投影領域を含む照射領域内に前記レーザ光を照射し、照射した前記レーザ光の反射光及び前記環境光の反射光を受光し、
    前記カメラは、前記投影領域を含む撮像領域内を撮像し、
    前記キャリブレーション処理部は、前記受光部で受光された前記照射領域内で反射した前記環境光の反射光の受光結果と、前記カメラによって撮像された前記撮像領域内のカメラ画像とに基づいて前記キャリブレーションを行う、請求項に記載の物体検出装置。
JP2020181693A 2020-10-29 2020-10-29 物体検出装置 Active JP7347398B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020181693A JP7347398B2 (ja) 2020-10-29 2020-10-29 物体検出装置
US17/483,186 US20220137196A1 (en) 2020-10-29 2021-09-23 Object detection apparatus
CN202111225721.9A CN114428257A (zh) 2020-10-29 2021-10-21 物体检测装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020181693A JP7347398B2 (ja) 2020-10-29 2020-10-29 物体検出装置

Publications (2)

Publication Number Publication Date
JP2022072328A JP2022072328A (ja) 2022-05-17
JP7347398B2 true JP7347398B2 (ja) 2023-09-20

Family

ID=81311313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020181693A Active JP7347398B2 (ja) 2020-10-29 2020-10-29 物体検出装置

Country Status (3)

Country Link
US (1) US20220137196A1 (ja)
JP (1) JP7347398B2 (ja)
CN (1) CN114428257A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11453348B2 (en) * 2020-04-14 2022-09-27 Gm Cruise Holdings Llc Polyhedral sensor calibration target for calibrating multiple types of sensors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002031528A (ja) 2000-07-14 2002-01-31 Asia Air Survey Co Ltd モービルマッピング用空間情報生成装置
JP2020098151A (ja) 2018-12-18 2020-06-25 株式会社デンソー センサ校正方法およびセンサ校正装置
JP2020165679A (ja) 2019-03-28 2020-10-08 株式会社デンソー 物体検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002031528A (ja) 2000-07-14 2002-01-31 Asia Air Survey Co Ltd モービルマッピング用空間情報生成装置
JP2020098151A (ja) 2018-12-18 2020-06-25 株式会社デンソー センサ校正方法およびセンサ校正装置
JP2020165679A (ja) 2019-03-28 2020-10-08 株式会社デンソー 物体検出装置

Also Published As

Publication number Publication date
JP2022072328A (ja) 2022-05-17
US20220137196A1 (en) 2022-05-05
CN114428257A (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
JP5472538B2 (ja) 距離計測装置及び環境地図生成装置
JP6825569B2 (ja) 信号処理装置、信号処理方法、およびプログラム
JP6682833B2 (ja) 物体認識アルゴリズムの機械学習のためのデータベース構築システム
JP2015143979A (ja) 画像処理装置、画像処理方法、プログラム、画像処理システム
JP2012189445A (ja) 物体検出装置及び物体検出方法
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP6435661B2 (ja) 物体識別システム、情報処理装置、情報処理方法及びプログラム
JP2008059260A (ja) 移動検出画像生成装置
JP7347398B2 (ja) 物体検出装置
JP2005156199A (ja) 車両検知方法及び車両検知装置
JP6577595B2 (ja) 車両用外界認識装置
JP7206855B2 (ja) 三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法
US20220201164A1 (en) Image registration apparatus, image generation system, image registration method, and image registration program product
JP2010071942A (ja) 物体検出装置
US11899113B2 (en) Vehicle position estimation apparatus
JP5533739B2 (ja) 光学情報読み取り装置
JP2004153627A (ja) 車両用外界認識装置
JP7294302B2 (ja) 物体検出装置
KR20220159658A (ko) 차량, 차량용 카메라 및 그것의 동작 방법
JP7276304B2 (ja) 物体検出装置
JPH11190611A (ja) 3次元計測方法およびその方法を用いた3次元計測処理装置
US20230055978A1 (en) Method for controlling vehicle, vehicle and electronic device
JP2023128481A (ja) 物体認識方法及び物体認識装置
CN112485807A (zh) 物体识别装置
JPS61278981A (ja) 3次元物体認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R151 Written notification of patent or utility model registration

Ref document number: 7347398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151