JPWO2019039279A1 - 信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム - Google Patents

信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム Download PDF

Info

Publication number
JPWO2019039279A1
JPWO2019039279A1 JP2019538057A JP2019538057A JPWO2019039279A1 JP WO2019039279 A1 JPWO2019039279 A1 JP WO2019039279A1 JP 2019538057 A JP2019538057 A JP 2019538057A JP 2019538057 A JP2019538057 A JP 2019538057A JP WO2019039279 A1 JPWO2019039279 A1 JP WO2019039279A1
Authority
JP
Japan
Prior art keywords
image
distance
time
detection unit
stereo camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019538057A
Other languages
English (en)
Other versions
JP7160040B2 (ja
Inventor
寿夫 山崎
寿夫 山崎
琢人 元山
琢人 元山
健太郎 土場
健太郎 土場
周藤 泰広
泰広 周藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019039279A1 publication Critical patent/JPWO2019039279A1/ja
Application granted granted Critical
Publication of JP7160040B2 publication Critical patent/JP7160040B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/14Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本開示は、ステレオカメラとミリ波レーダとを適切に同期して組み合わせることで、検出結果の精度を向上させることができるようにする信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システムに関する。キャリブレーションにおいて、センサ部により、レーダ反射体と、マーカとを有する目標物を、撮影(取得)したステレオカメラ画像とレーダ像とが得られる時刻を、センサ部と目標物との距離を変化させながら取得し、同一距離となるステレオカメラ画像が得られる時刻とレーダ像が得られる時刻との差分となる時刻ズレ量として求めておく。物体検出時には、先に取得されるレーダ像をバッファリングし、時刻ズレ量だけ遅れて取得したステレオカメラ画像と併せて出力し、ステレオカメラ画像とレーダ像とを組み合わせて、高精度な検出物体距離画像を生成する。本開示は、車載システムに適用することができる。

Description

本開示は、信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システムに関し、特に、複数のセンサによる検出結果を適切に組み合わせて使用できるようにした信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システムに関する。
複数のセンサによる検出結果を組み合わせて利用することにより、検出精度を向上させる技術が提案されている。
この技術では、まず、キャリブレーションにより、基準となる第1の物体検出センサにより所定の物体が所定の位置で検出される時刻情報と、キャリブレーションの対象となる第2の物体検出センサにより同一の所定の物体が同一の所定の位置で検出される時刻情報との時刻のズレが、時刻ズレ量として予め求められる。
この際、第1の物体検出センサおよび第2の物体検出センサにより同一の物体が、同一の状態で検出される時刻情報については、正確なUTC(協定世界時:Coordinated Universal Time)を用いたハードウェアタイムスタンプが使用される。
そして、実際に物体を検出する際には、第2の物体検出センサによる、第1の物体検出センサとの検出時刻の時刻ズレを、予め求めた時刻ズレ量に基づいた、カルマンフィルタにより予測して補償し、第1の物体検出センサの検出結果と、第2の物体検出センサの検出結果とを同期させ、組み合わせて使用する(非特許文献1参照)。
このように、物体が検出される際の時刻情報が揃えられた第1の物体検出センサ、および第2の物体検出センサのそれぞれの検出結果が組み合わされることにより、検出結果の精度が向上される。
尚、この場合、第1の物体検出センサ、および第2の物体検出センサのそれぞれの検出時刻として、それぞれ正確なUTCによるタイムスタンプが付与される必要がある。
2011 IEEE Intelligent Vehicles Symposium (IV) Baden-Baden, Germany, June 5-9, 2011 Precise Timestamping and Temporal Synchronization in Multi-Sensor Fusion
ところで、複数の異なる物体検出センサとして、ミリ波レーダとステレオカメラとを用いて、それぞれの検出結果を組み合わせて、より正確で、かつ、よりロバストな検出物体距離情報を求める場合、非特許文献1と同様に、予め検出される時刻情報のズレである時刻ズレ量を求めて、カルマンフィルタを用いて時刻ズレを予測処理により求め、補正することが考えられる。
しかしながら、カルマンフィルタを用いた予測処理に係る負荷が大きい上、時刻ズレを予測するのみであり、必ずしも適切な補正ができない。
また、検出対象が異なる物体検出センサ間の検出時刻のズレ時間を高精度に検出することができないため、精度の低い時刻ズレの情報に基づいた、カルマンフィルタにより予測される時刻ズレの予測精度には限界があった。
本開示は、このような状況に鑑みてなされたものであり、特に、複数の物体検出センサの検出結果を適切に同期して組み合わせることで、検出結果の精度を向上させるものである。
本開示の一側面の信号処理装置は、物体を検出する第1の物体検出部と、物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、前記第1の物体検出部により所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部とを含む信号処理装置である。
前記第1の物体検出部、もしくは前記第2の物体検出部の少なくとも一方による前記物体の検出結果をバッファリングするバッファリング部と、前記バッファリング部による遅延量を前記時刻ズレ量に応じて設定して、前記時刻ズレを補正する時刻ズレ補正部とをさらに含ませるようにすることができる。
前記所定の目標物は、前記時刻ズレ量を測定するための物体であり、前記第1の物体検出部により検出可能な第1の被検出部位と、前記第2の物体検出部により検出可能な第2の被検出部位とを含ませるようにすることができる。
前記第1の物体検出部は、前記物体を所定の視差を有する2枚のステレオカメラ画像として撮影するステレオカメラとすることができ、前記第2の物体検出部は、前記物体をミリ波帯の電波により検出し、レーダ像として取得するミリ波レーダとすることができ、基準時刻を発生する基準時刻発生部をさらに含ませるようにすることができ、前記ステレオカメラ画像および前記レーダ像には、それぞれ生成されたタイミングにおける前記基準時刻からなる時刻情報を含ませるようにすることができる。
前記ステレオカメラ画像を構成する前記所定の視差を有する2枚の画像に基づいて画素単位で前記所定の目標物までの距離を算出し、前記距離を画素値とする距離画像を生成する距離画像算出部と、前記距離画像における、前記所定の目標物までの距離をステレオカメラ画像距離として、対応する前記ステレオカメラ画像の時刻情報と共に検出する距離画像目標物検出部と、前記レーダ像に基づいた、前記所定の目標物までの距離であるレーダ像距離を、対応する前記レーダ像の時刻情報と共に検出するレーダ像目標物検出部とを含ませるようにすることができ、前記時刻ズレ検出部には、前記ステレオカメラ画像距離と、前記レーダ像距離とが一致する、前記ステレオカメラ画像の時刻情報と、前記レーダ像の時刻情報との差分を時刻ズレ量として検出させるようにすることができる。
前記ステレオカメラ画像上における前記所定の目標物の座標位置を検出するステレオカメラ画像目標物位置検出部をさらに含ませるようにすることができ、前記距離画像目標物検出部には、前記距離画像における、前記ステレオカメラ画像目標物位置検出部により検出された前記所定の目標物の座標位置の距離情報を、前記所定の目標物までの距離であるステレオカメラ画像距離として特定させ、対応する前記ステレオカメラ画像の時刻情報と共に検出させ、前記レーダ像目標物検出部には、前記ステレオカメラ画像目標物位置検出部により検出された前記所定の目標物の座標位置と、前記ステレオカメラ画像距離とにより特定される位置の近傍の範囲の、前記レーダ像における応答強度が高い距離を、前記所定の目標物までの距離であるレーダ像距離として、対応する前記レーダ像の時刻情報と共に検出させるようにすることができる。
前記所定の目標物には、前記ミリ波レーダのレーダ波の反射率が所定値よりも高いレーダ反射体と、前記ステレオカメラ画像により認識可能なマーカとを含ませるようにすることができる。
前記ステレオカメラ画像上における前記所定の目標物の座標位置を検出するステレオカメラ画像目標物位置検出部と、前記レーダ像における反射断面積分布に基づいて、前記レーダ像内の前記所定の目標物の位置を検出する反射断面積目標物位置検出部とをさらに含ませるようにすることができ、前記距離画像目標物検出部には、前記距離画像における、前記所定の目標物の座標位置の距離情報を、前記所定の目標物までの距離であるステレオカメラ画像距離として特定させ、対応する前記ステレオカメラ画像の時刻情報と共に検出させ、前記レーダ像目標物検出部には、前記反射断面積目標物位置検出部により検出された前記レーダ像内における前記所定の目標物の位置に対応する距離をレーダ像距離として、対応する前記レーダ像の時刻情報と共に検出させるようにすることができる。
前記距離画像算出部、前記距離画像目標物検出部、前記レーダ像目標物検出部、および前記時刻ズレ検出部には、所定の時間間隔で繰り返し、前記距離画像を生成させ、前記ステレオカメラ画像距離を、対応する前記ステレオカメラ画像の時刻情報と共に検出させ、前記レーダ像距離を、対応する前記レーダ像の時刻情報と共に検出させ、時刻ズレ量を検出させるようにすることができる。
前記所定の目標物は、前走車のナンバープレート、または、道路標識とすることができる。
前記第1の物体検出部は、前記物体を、所定の視差を有する2枚のステレオカメラ画像として撮影するステレオカメラとすることができ、前記第2の物体検出部は、前記物体を、レーザ光により検出し、前記レーザ光の反射強度に応じた画像として撮影するLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)とすることができ、基準時刻を発生する基準時刻発生部をさらに含ませるようにすることができ、前記ステレオカメラ画像、並びに、前記LIDARにより撮影されるLIDAR画像には、それぞれ生成されたタイミングにおける前記基準時刻からなる時刻情報を含ませるようにすることができる。
前記ステレオカメラ画像より所定の視差に基づいて画素単位で被写体までの距離を算出し、前記距離を画素値とする距離画像を生成する距離画像算出部と、前記距離画像に基づいた、前記所定の目標物までの距離であるステレオカメラ画像距離を、対応する前記ステレオカメラ画像の時刻情報と共に検出する距離画像目標物検出部と、前記LIDAR画像に基づいた、前記所定の目標物までの距離であるLIDAR画像距離を、対応する前記LIDAR画像の時刻情報と共に検出するLIDAR画像目標物検出部とを含ませるようにすることができ、前記時刻ズレ検出部には、前記ステレオカメラ画像距離と、前記LIDAR画像距離とが一致する、前記ステレオカメラ画像の時刻情報と、前記LIDAR画像の時刻情報との差分を時刻ズレ量として検出させるようにすることができる。
前記ステレオカメラ画像上における前記所定の目標物の座標位置を検出するステレオカメラ画像目標物位置検出部をさらに含ませるようにすることができ、前記距離画像目標物検出部には、前記距離画像における、前記ステレオカメラ画像目標物位置検出部により検出された前記所定の目標物の座標位置の距離情報を、前記所定の目標物までの距離であるステレオカメラ画像距離として特定させ、対応する前記ステレオカメラ画像の時刻情報と共に検出させ、前記LIDAR画像には、前記レーザ光の反射強度を各画素の画素値とするLIDAR反射強度画像、および前記レーザ光の被写体までの往復時間に基づいてToF(Time of Flight)法で求められる距離画像からなるLIDAR距離画像を含ませ、前記LIDAR画像目標物検出部には、前記LIDAR反射強度画像より、反射強度が特に高い位置を、前記所定の目標物の位置とみなし、対応する前記LIDAR距離画像における位置の距離を、前記所定の目標物までの距離であるLIDAR画像距離として、対応する前記レーザ光の反射強度に応じた画像の時刻情報と共に検出させるようにすることができる。
前記所定の目標物には、前記LIDARのレーザ光の反射率が所定値よりも高いレーザ反射体と、前記ステレオカメラ画像により認識可能なマーカとを含ませるようにすることができる。
前記時刻ズレ検出部には、複数の前記時刻ズレを求めさせ、統計処理により時刻ズレ量を検出させるようにしてもよい。
本開示の一側面の信号処理方法は、物体を検出する第1の物体検出処理と、前記第1の物体検出処理とは異なる方法で物体を検出する第2の物体検出処理と、前記第1の物体検出処理により所定の目標物が検出される第1の時刻と、前記第2の物体検出処理により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部とを含む信号処理方法である。
本開示の一側面のプログラムは、物体を検出する第1の物体検出部と、物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、前記第1の物体検出部により所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部とを含む処理をコンピュータに実行させるプログラムである。
本開示の一側面の移動体は、物体を検出する第1の物体検出部と、物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、前記第1の物体検出部により所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部とを含む移動体である。
本開示の一側面の信号処理システムは、所定の目標物と信号処理装置とからなる信号処理システムにおいて、前記信号処理装置は、物体を検出する第1の物体検出部と、物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、前記第1の物体検出部により前記所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部とを含み、前記所定の目標物は、前記第1の物体検出部により検出可能な第1の被検出部位と、前記第2の物体検出部により検出可能な第2の被検出部位とを含む信号処理システムである。
本開示の一側面においては、第1の物体検出部により物体が検出され、前記第1の物体検出部とは異なる第2の物体検出部により前記物体が検出され、前記第1の物体検出部により所定の目標物が前記物体として検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が前記物体として検出される第2の時刻との時刻ズレが時刻ズレ量として検出される。
本開示の一側面によれば、特に、複数の物体検出センサによる複数の検出結果を適切に同期して組み合わせるようにすることで、検出結果の精度を向上させることが可能となる。
本開示の概要を説明する図である。 車両と目標物との位置関係を説明する図である。 ステレオカメラ画像とレーダ像との時刻ズレを説明する図である。 本開示の車両に搭載されるセンサ部の構成例を説明する図である。 本開示の目標物の構成例を説明する図である。 本開示の移動体を制御する移動体制御システムの構成例を説明するブロック図である。 図6のデータ取得部におけるセンサ部の構成例を説明するブロック図である。 図6の車外情報検出部の構成例を説明するブロック図である。 図8の物体検出処理部の構成例を説明するブロック図である。 図8の物体検出処理部の動作を説明する図である。 時刻ズレ量の求め方を説明する図である。 キャリブレーション処理を説明するフローチャートである。 検出物体距離画像生成処理を説明するフローチャートである。 目標物の代用物の例を説明する図である。 本開示の応用例の物体検出処理部の構成例を説明するブロック図である。 目標物の代用物をナンバープレートにする場合のレーダ像の例を説明する図である。 目標物をナンバープレートにした場合のキャリブレーション処理を説明するフローチャートである。 ミリ波レーダに代えてLIDARを用いたセンサ部の変形例を説明するブロック図である。 図18のセンサ部に対応する目標物の構成例を説明する図である。 図18のセンサ部に対応する物体検出処理部の構成例を説明するブロック図である。 LIDAR反射強度画像とLIDAR距離画像とを説明する図である。 キャリブレーション処理を説明するフローチャートである。 汎用のコンピュータの構成例を説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.本開示の概要
2.本開示の好適な実施の形態
3.応用例
4.変形例
5.ソフトウェアにより実行させる例
<<1.本開示の概要>>
本開示の移動体は、自車両の周囲の状況を高精度に認識し、認識結果に応じて自走する移動体である。以降において、本開示の移動体については、車両である場合の例について説明を進めるが、移動体であれば、車両以外であってよいことはいうまでもない。
本開示の移動体は、ミリ波レーダと、ステレオカメラとからなるセンサ部を備えており、進行方向前方を監視し、ミリ波レーダにより取得されるレーダ像と、ステレオカメラにより撮影されるステレオカメラ画像とから、それらを組み合わせた検出物体距離画像を、自車両の周辺情報として出力する。
本開示の移動体は、この検出物体距離画像に基づいて、例えば、自車両の周辺情報を認識し、認識結果に基づいて自走する。
より詳細には、例えば、図1の左下部で示される自車両である車両11が、道路Rの左側の車線を図中上方に移動しているとき、対向車線に車両11に近い方から順に車両C1,C2が、図中の下方向に移動しており、また、車両11と同一の車線であって、車両11より前方に、図中の上方に移動する車両C3,C4が存在するものとする。尚、図1は、車両11を上方から見たときの、周囲の車両との関係を示す図である。
図1の左下部のとき、車両11におけるステレオカメラは、例えば、図1の左上部で示されるようなステレオカメラ画像P1を撮影する。すなわち、ステレオカメラ画像P1は、車両11の進行方向に対して直交する水平方向をX軸とし、車両11の進行方向に対して直交する垂直方向をY軸とし、車両11の進行方向をZ軸とした座標系の情報となる。
すなわち、ステレオカメラ画像P1においては、図1の左上部で示されるように、XY平面からみたZ方向に奥行きのある像となり、図中右側前方に対向車線を走行する車両C1,C2が画像St1,St2として映し出され、図中左側前方に先行車である車両C3,C4が画像St3,St4として映し出されている。
一方、車両11におけるミリ波レーダにより取得されるレーダ像P2は、図1の右上部で示されるように、車両11の進行方向に対して直交する水平方向をX軸とし、車両の進行方向をZ軸とした座標系の情報となる。
すなわち、レーダ像P2においては、図1の右上部で示されるように、XZ平面からみた像となり、図中右側に対向車線を走行する車両C1,C2の応答の強度に応じたレーダ像R1,R2が映し出されており、図中左側前方に先行車である車両C3,C4の応答の強度に応じたレーダ像R3,R4が映し出されている。
そして、このステレオカメラ画像P1とレーダ像P2とが組み合わされることにより、図1の右下部で示されるような、実空間の座標系にマッピングされ、車両11からみた走行方向前方に対して、より正確で、かつ、よりロバストな周辺の車両C1乃至C4の位置を特定することができる。
すなわち、図1の右下部においては、画像St1乃至St4のそれぞれと対応してレーダ像R1乃至R4の情報が重畳されており、ステレオカメラ画像における画像St1乃至St4と、レーダ像R1乃至R4との相互の情報を使用して、実空間における座標系にマッピングすることにより、車両11からみた走行方向前方に対して、より正確で、かつ、よりロバストな周辺の車両C1乃至C4の位置情報の取得が可能となる。
ところで、ステレオカメラ画像とレーダ像とから車両C1乃至C4を検出し、実空間の座標系にマッピングする場合、ステレオカメラ画像とレーダ像とは同一時刻に撮影(取得)した画像を利用する必要がある。
ステレオカメラ画像とレーダ像との撮影(取得)時刻が異なれば、車両11、または撮影対象車両C1乃至C4が動いている場合、ステレオカメラ画像およびレーダ像に写る対象物の位置が相互にズレてしまうので、適切にマッピングすることができない。
この点について、電気的にタイミングを合わせることで同一時刻に撮影しているとみなし、撮影時刻のズレについては考慮せずに処理しても、マッピングを実現することはできるが、精度に限界があった。
また、GPS(Global Positioning System)等の高精度の時刻を用いたタイムスタンプを撮影画像に付与し、時刻を合わせて処理する技術も存在するが、高精度な時刻を用いたタイムスタンプを付加する機能を常用することは現実的ではなく、タイムスタンプをつけたとしても、通常、タイムスタンプはデータがセンサから送られてきてから付与されるものであり、バッファ送信のレイテンシまで考慮することができない。
さらに、クロックを同期する技術も存在するが、複数の物体検出センサを用いるシステムにおいて、各物体検出センサのクロックが独立していることは一般的であり、それぞれの内部クロックのドリフトによる時刻ズレは生じてしまう。
また、複数の物体検出センサの各クロックが独立していなくても、複数の物体検出センサのそれぞれにクロックを配信するためのバッファによる遅延が存在し、クロックのドリフトにより時刻ズレは生じる。
さらに、ミリ波レーダでのレーダ像が取得される時刻を時刻t_radar_1とし、ステレオカメラにおける左カメラで画像が撮影される時刻を時刻t_lcamera_1とし、右カメラで画像が撮影される時刻を時刻t_rcamera_1とする。
また、基準時刻は常に生成されており、レーダ像が信号処理されたタイミングで時刻t_radar_sが付加されるものとする。同様に、左カメラの画像信号処理がなされた後に左カメラ画像が出力されるときに時刻t_lcamera_sが付加され、画像信号処理がなされた後に右カメラ画像が出力されるときに時刻t_rcamera_sが付加されるものとする。
レーダ像の信号処理に係る処理時間が処理時間t_radar_pであるものとし、左カメラの画像信号処理に係る処理時間が処理時間t_lcamera_pであるものとし、右カメラの画像信号処理に係る処理時間が処理時間t_rcamera_pであるものとする。
レーダ像およびステレオカメラ画像が取得される、レーダ像、およびステレオカメラ画像の実際の撮影(取得)時刻(ミリ波レーダの場合はレーダ波が受信される時刻)は、基準時刻と、それぞれの処理に係る処理時間の関係から、以下の式(1)乃至(3)で表される。
t_radar_1=t_radar_s−t_radar_p
・・・(1)
t_lcamera_1=t_lcamera_s−t_lcamera_p
・・・(2)
t_rcamera_1=t_rcamera_s−t_rcamera_p
・・・(3)
しかしながら、それぞれの信号処理や時刻情報の付加に係る処理、さらには、レーダ像およびステレオカメラ画像が転送される転送経路における各種の認識不能な要因によるエラーが含まれる。結果として、撮影(取得)時刻(ミリ波レーダの場合はレーダ波が受信される時刻)は、以下の式(4)乃至式(6)で示されるように表現される。
t_radar_1=t_radar_s−t_radar_p+error_radar
・・・(4)
t_lcamera_1=t_lcamera_s−t_lcamera_p+error_lcamera
・・・(5)
t_rcamera_1=t_rcamera_s−t_rcamera_p+error_rcamera
・・・(6)
すなわち、エラー項であるerror_radar,error_lcamera,error_rcameraを測定することができないため、実際の撮影(取得)時刻(レーダの場合はレーダ波受信時刻)を特定することは困難であり、結果として、時刻ズレが生じる。
尚、ここでの時間は絶対時間である必要はなく、等間隔のパルス(いわゆるクロック)とそのカウント回数であればよい。
したがって、撮影(取得)されたステレオカメラ画像とレーダ像との時刻ズレが適切に補正され、それぞれ検出された物体の対応関係が一致するように、同期を図る必要がある。
即ち、ステレオカメラによるステレオカメラ画像およびミリ波レーダによるレーダ像のそれぞれが同一の車両を、同一の位置で適切に検出するには、実空間の座標系において、同一の車両が、同一の位置にマッピングされるように、同一時刻のステレオカメラ画像とレーダ像とを用いることが重要となる。
そこで、本開示においては、ステレオカメラと、ミリ波レーダとのいずれのセンサにおいても、検出可能な目標物を用いて、レーダ像とステレオカメラ画像との取得に係る時刻ズレを、距離を変化させながら予めキャリブレーションにより時刻ズレ量として検出し、キャリブレーションにより予め求めた時刻ズレ量の情報を用いて、時刻ズレを補正することで、同一時刻のステレオカメラ画像とレーダ像とを取得できるようにする。
<ステレオカメラ画像が検出される時刻と、ミリ波レーダによるレーダ像が検出される時刻との時刻ズレ量の求め方の概要>
本開示のキャリブレーションシステムは、例えば、図2で示されるように、前方を監視領域とする、ミリ波レーダとステレオカメラとを有するセンサ部31を備えた車両11と、監視領域内に設けられた目標物12とから構成される。
このように車両11と目標物12とから構成されるキャリブレーションシステムは、キャリブレーション処理により、車両11と目標物12との距離Dを変化させながら、ミリ波レーダとステレオカメラとの検出結果を用いて、それぞれの検出結果が得られる時刻情報から、時刻間の差分である時刻ズレ量を求め、車両11に記憶させる。車両11は、通常の検出物体距離画像を生成する際に、キャリブレーション処理により求められた時刻ズレ量を用いて、ミリ波レーダのレーダ像とステレオカメラのステレオカメラ画像との取得に係る時刻ズレを補正して、検出物体距離画像を生成する。
<センサ部の構成の概要>
ここで、図3を参照して、センサ部31の構成の概要について説明する。
センサ部31は、ステレオカメラ51、ミリ波レーダ52、信号出力部53、および基準時刻生成部54を備えている。
ステレオカメラ51は、左右の所定の視差を備えた画像を撮影するカメラ51L,51Rとから構成されており、車両11の前方を撮影し、基準時刻生成部54より供給される基準時刻に対応するタイムスタンプからなる時刻情報を付与して、信号出力部53に出力する。
ミリ波レーダ52は、ミリ波帯の電波を監視領域に対して放出し、検出物体による反射波を検出することで、検出物体の方向と距離を、例えば、レーダ波の往復時間から測定して、レーダ像を生成し、基準時刻生成部54より供給される基準時刻に対応するタイムスタンプからなる時刻情報を付与して、信号出力部53に出力する。
信号出力部53は、検出時刻を示す時刻情報であるタイムスタンプが付与されているステレオカメラ画像およびレーダ像を、図6を参照して後述する車両制御システム100の自動運転制御部112の検出部131の車外情報検出部141に出力する。
基準時刻生成部54は、基準となる時刻を発生しステレオカメラ51およびミリ波レーダ52に出力する。
<目標物の構成例>
次に、図4を参照して、キャリブレーション時に使用される目標物12の構成例について説明する。
目標物12は、センサ部31のステレオカメラ51、およびミリ波レーダ52により検出可能な任意の高さで設置される。
また、目標物12は、ミリ波レーダ52より発せられるレーダ波を反射し、かつ、ステレオカメラ51により撮影可能な物体であれば良く、具体的には、金属製であり、かつ、光の反射がステレオカメラによる測距に影響しない程度に、光が反射しない、例えば、つや消し処理や紙が貼り付けられているものであることが望ましい。
さらに、目標物12は、効率よくミリ波レーダ52より発生られるミリ波を所定の反射率よりも高い反射率で反射するために、図4で示されるように、金属製の四角錐の矩形面を開放するように構成したレーダ反射体71から構成される。
また、目標物12は、四角錐の開放面を車両11の前方に設けられたセンサ部31のミリ波レーダ52の方向に向ける面とし、開放面にパターンが印刷された紙からなるマーカ72が貼りつけられている。このパターンとしては、例えば、QR(Quick Response)コードなどでもよい。
目標物12は、このような構成により、ミリ波レーダ52によるミリ波の電波を反射させることで、ミリ波レーダ52により検出される構成で、かつ、ステレオカメラ51によりマーカ72が撮影されることで、ミリ波レーダ52においても、ステレオカメラ51においても測距に対応する構成とされている。
なお、目標物12を構成するレーダ反射体71の形状は四角錐に限定されるものではなく、三角錐や球等の送信されたミリ波をミリ波レーダ52で受信可能な方向へ反射する形状であればどの様な形状でもよい。
また、ステレオカメラ51による測距の精度を高めるためにパターンが印刷された紙からなるマーカ72が貼り付けられているが、レーダ反射体71の矩形面を塞ぎ直接印字しても良いし、光の反射が起こらないようなレーダ反射体71を構成する金属体へのつや消し処理のみでもよい。
さらに、光の反射が起こらないような処理を施すことが困難である場合、目標物12からの位置が既知のステレオカメラに写る物体(以下カメラターゲット)、例えば、適切な図柄が印刷されたボード等を用いてもよい。
ただし、この場合は、後述する目標物12の移動に際して、レーダ反射体71とカメラターゲットは位置関係が変化しない様に移動させるか、所定の時刻の位置関係を知ることができる様にしなければならない。
<時刻ズレ量の求め方の概要>
次に、図5を参照して、図2乃至図4を参照して説明した車両11のセンサ部31と目標物12とを用いたキャリブレーション処理による時刻ズレ量の具体的な求め方の概要について説明する。
例えば、図5の左上部で示されるような、ステレオカメラ画像P11が撮影される場合、ステレオカメラ画像P11においては、対象物体となる目標物12の画像St11が、(水平方向座標,距離座標)=(xs,zs)として検出される。
一方、キャリブレーション処理において、例えば、図5の右上部で示されるような、レーダ像P12が取得される場合、レーダ像P12においては、対象物体となる目標物12のレーダ像R11が、(水平方向座標,距離座標)=(xr,zr)として検出される。
尚、このときのステレオカメラ画像P11と、レーダ像P12とが、それぞれ同一位置に目標物12が存在しているときのものであれば、ステレオカメラ画像P11とレーダ像P12とに基づいて生成される距離物体検出画像は、図5の左下部で示されるものとなり、目標物12の画像St11と、レーダ像R11とが完全に一致する位置に存在することになる。
従って、目標物12の実空間内での位置が一致する図5の左上部で示されるステレオカメラ画像P11と、図5の右上部で示されるレーダ像P12とが検出される時刻の差分が時刻ズレ量として求められる。
図5の右下部のグラフは、キャリブレーション処理により、図2における車両11と目標物12までの距離Z(=D)と、ステレオカメラ画像P11が検出される時刻、および、レーダ像P12が検出される時刻との、それぞれの関係を示す波形である。
ここで、図5の右下部において、波形L1が、距離Z(=D)とレーダ像P12が検出される時刻との関係を示すグラフであり、波形L2が、距離Z(=D)とステレオカメラ画像P11が検出される時刻との関係を示すグラフである。
そして、波形L1,L2における距離zs=zrのそれぞれの時刻の差分が、各距離における時刻ズレ量dとして求められる。
この時刻ズレ量dを用いて、ステレオカメラ51により撮影されるステレオカメラ画像の時刻情報と、ミリ波レーダによりレーダ像が検出される時刻情報とのズレを補正することで、同期の取れたステレオカメラ画像とレーダ像とが組み合わされて、距離物体検出画像を生成することが可能となる。
すなわち、キャリブレーション処理により予め、ステレオカメラ51により撮影されるステレオカメラ画像が検出される時刻情報と、ミリ波レーダ52により検出されるレーダ像が検出される時刻情報との時刻ズレ量が求められる。そして、実際の検出物体距離画像が生成される際には、予め求めておいた時刻ズレ量が用いられて、ステレオカメラ51により撮影されるステレオカメラ画像が検出される時刻情報と、ミリ波レーダ52により検出されるレーダ像が検出される時刻情報との時刻ズレが補正されることにより、ステレオカメラ画像とレーダ像とが同期して組み合わされて、高精度な検出物体距離画像が生成される。
<<2.本開示の好適な実施の形態>>
<車両を制御する車両制御システムの構成例>
次に、図6を参照して、車両11を制御する車両制御システムの詳細な構成例について説明する。図6は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮影装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮影する撮影装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。尚、データ取得部102は、図3を参照して説明したステレオカメラ51およびミリ波レーダ52を有するセンサ部31を備えている。また、ステレオカメラ51およびミリ波レーダ52の詳細な構成については、図7を参照して後述する。
通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮影装置により撮影された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する。
動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
<データ取得部の構成例>
次に、図7を参照して、上述したセンサ部31の詳細な構成を含むデータ取得部102の構成例について説明する。尚、データ取得部102の構成を説明するにあたり、図3を参照して説明したセンサ部31の構成と同一の機能を備えた構成については、同一の符号を付すものとし、その説明は適宜省略する。
ステレオカメラ51は、カメラ51L,51Rを備えており、それぞれ所定の視差を備えた左右の2枚の画像を撮影する。ステレオカメラ51のカメラ51Lは、左側の画像を撮影し、撮像素子201L、画像信号処理部202L、および時刻情報付加部203Lより構成されている。また、カメラ51Rは、右側の画像を撮影し、撮像素子201R、画像信号処理部202R、および時刻情報付加部203Rより構成されている。
尚、撮像素子201L,201R、画像信号処理部202L,202R、および時刻情報付加部203L,203Rのそれぞれについて、左右を特に区別する必要がない場合、単に、撮像素子201、画像信号処理部202、および時刻情報付加部203と称するものとし、その他の構成も同様に称するものとする。
撮像素子201は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などから構成されるイメージセンサであり、車両11の前方の監視領域の画像を撮影し、撮影した画像を画像信号として画像信号処理部202に出力する。尚、撮像素子201L,201Rは、所定の視差が生じるように構成されており、視差に応じて画素単位で測距することが可能とされている。
画像信号処理部202は、撮像素子201より供給される画像信号に対して、デモザイク処理、ホワイトバランス調整、γ補正など、所定の処理を施して、左右のそれぞれのステレオカメラ画像として時刻情報付加部203に出力する。
時刻情報付加部203は、基準時刻生成部54より供給される基準時刻からなる時刻情報を、ステレオカメラ画像単位でタイムスタンプとして付加して信号出力部53に出力する。
ミリ波レーダ52は、ミリ波アンテナ211、レーダ受信信号処理部212、および時刻情報付加部213を備えている。
ミリ波アンテナ211は、ステレオカメラ51の監視領域に対応する領域に対してミリ波帯の電波を発生して放出すると共に、放出されたミリ波帯の電波に対して、車両、歩行者、およびその他の障害物などから反射される反射波を受信し、受信信号に変換して受信信号処理部212に出力する。
受信信号処理部212は、ミリ波アンテナ211より供給される受信信号に対して、増幅処理やノイズ除去処理等、さらに、往復時間に基づいた距離測定などの信号処理を施して、レーダ像として時刻情報付加部213に出力する。
時刻情報付加部213は、基準時刻生成部54より供給される基準時刻からなる時刻情報をレーダ像単位でタイムスタンプとして付加して信号出力部53に出力する。
<車外情報検出部の構成例>
次に、図8を参照して、車外情報検出部141の構成例について説明する。
車外情報検出部141は、キャリブレーション処理部231および検出物体距離画像生成部232を備えている。
キャリブレーション処理部231は、キャリブレーション処理時において、時系列にセンサ部31より供給されてくる、時刻情報を含むステレオカメラ画像と、時刻情報を含むレーダ像とに基づいて、時刻ズレ量を求めて記憶する。また、キャリブレーション処理部231は、検出物体距離画像生成処理時に、キャリブレーション処理時に求めた時刻ズレ量の情報を検出物体距離画像生成部232に供給する。
より詳細には、キャリブレーション処理部231は、物体検出処理部251、記憶部252、時刻ズレ検出部253、および時刻ズレ記憶部254を備えている。
物体検出処理部251は、センサ部31より時系列に供給されてくる、ステレオカメラ画像に基づいた目標物12の物体検出位置と、レーダ像に基づいた目標物12の物体検出位置とを求め、時刻情報と対応付けて記憶部252に記憶させる。尚、物体検出処理部251の詳細な構成と動作については、図9,図10を参照して後述する。
時刻ズレ検出部253は、記憶部252に、目標物12までの距離が一致する、ステレオカメラ画像の時刻情報と、レーダ像の時刻情報とを用いて、時刻ズレ量を検出し、時刻ズレ記憶部254に記憶させる。尚、時刻ズレ量の検出方法の詳細については、図11を参照して詳細を後述する。
検出物体距離画像生成部232は、検出物体画像生成処理において、キャリブレーション処理時に求められた時刻ズレ量を用いて、時系列にセンサ部31より供給されてくる、時刻情報を含むステレオカメラ画像、および時刻情報を含むレーダ像における時刻ズレを補正することで、適切に同期させて、検出物体距離画像を生成する。
より詳細には、検出物体距離画像生成部232は、遅延バッファ271、時刻ズレ補正処理部272、および画像処理部273を備えている。
遅延バッファ271は、時刻情報を含むステレオカメラ画像、および時刻情報を含むレーダ像のいずれか、時刻ズレ量分だけ先に供給される画像をバッファリングする。尚、図8においては、レーダ像が先に供給されることを前提とした構成とされており、遅延バッファ271は、レーダ像をバッファリングする構成となっているが、ステレオカメラ画像の方が先に供給される場合、ステレオカメラ画像をバッファリングする構成とする。また、ステレオカメラ画像とレーダ像とが、どちらが先に供給するかわからない場合もあり得るので、そのような場合には、両方バッファリングできる構成とし、ステレオカメラ画像とレーダ像とのうち、先に供給されるものをバッファリングするようにしてもよい。
時刻ズレ補正処理部272は、時刻ズレ量を時刻ズレ記憶部254より読み出し、時刻ズレ量分だけ後から供給される画像が供給されるタイミングで、遅延バッファ271にバッファリングされている対応する画像を読み出して、併せて画像処理部273に供給する。図8の例においては、ステレオカメラ画像が後から供給されるので、時刻ズレ補正処理部272は、ステレオカメラ画像が供給されたタイミングにおいて、時刻ズレ量に対応する時間だけ遅延バッファ271にバッファリングされたレーダ像を読み出すことにより、時刻ズレを補正した、すなわち、時刻ズレの無い状態に同期したステレオカメラ画像とレーダ像とを、画像処理部273に供給する。
画像処理部273は、時刻ズレの無い、すなわち、時刻情報が合った(同期した)ステレオカメラ画像とレーダ像とを用いて、例えば、図1における右下部の画像に示されるような検出物体距離画像を生成して状況認識部153に出力する。
<物体検出処理部の構成例>
次に、図9を参照して、物体検出処理部251の構成例について説明する。
物体検出処理部251は、距離画像算出部291、距離画像目標物検出部292、ステレオカメラ画像目標物検出部293、およびレーダ像目標物検出部294を備えている。
距離画像算出部291は、ステレオカメラ画像を構成する視差のある2枚の画像から画素単位で距離を求め、求められた距離を画素値とする距離画像を生成する。すなわち、例えば、図10の上段で示されるようにステレオカメラ画像を構成する視差のある2枚の画像PL,PRが存在する場合、視差に応じて画素単位で距離を算出し、算出した距離を画素値とする距離画像P31を生成する。
ステレオカメラ画像目標物検出部293は、ステレオカメラ画像から目標物12が写っている画像上の位置、すなわち、目標物12の座標位置を検出し、距離画像目標物検出部292およびレーダ像目標物検出部294に出力する。
より詳細には、目標物12には、ステレオカメラ画像内において、画像で認識可能なマーカ72が貼り付けられている(または印刷されるなどされている)ので、ステレオカメラ画像目標物検出部293は、ステレオカメラ画像内におけるマーカ72を認識することで目標物12の座標位置(x,y)を認識する。マーカ72は、例えば、QR(Quick Response)コードなどでもよい。
すなわち、図10の上段で示されるように、ステレオカメラ画像目標物検出部293は、ステレオカメラ画像を構成する視差のある2枚の画像PL,PRより求められるステレオカメラ画像P32のうち、目標物12の像St101の座標位置(x,y)を求める。
尚、ステレオカメラ画像目標物検出部293は、ステレオカメラ画像内において、目標物12のみが撮影されている場合、ステレオカメラ画像内における像は目標物12であることが明らかであるので、必須の構成ではない。
距離画像目標物検出部292は、距離画像算出部291より供給される距離画像上の目標物12の座標位置(x,y)の画素値(=距離)から、目標物12までの距離を推定し、目標物12の距離zsとして出力すると共に、レーダ像目標物検出部294に出力する。
すなわち、図10の中段の距離画像P31は、画像上の位置の実距離を画素値とした画像であるから、距離画像目標物検出部292は、目標物12の像St101の座標位置(x,y)における距離画像P31の画素値(x,y,zs)を特定することにより、図10の下段における距離画像P33で示されるように目標物12の距離zsを求めることができる。
レーダ像目標物検出部294は、図5の右上部で示されるレーダ像P12で示されるように、目標物12の応答の位置が距離そのものとなるので、ステレオカメラ画像目標物検出部293より供給される目標物12のx位置と、距離画像目標物検出部292からの求められた目標物の距離zsとに基づいて特定される位置付近のレーダ応答が強い位置を目標物12の検出位置とみなし、その距離を目標物12の距離zsとして出力する。
尚、目標物12のみが撮影されていることが保証されている場合、反射位置のz位置をそのまま目標物12の距離zrとして出力するようにしてもよい。
<時刻ズレ量の検出方法の詳細>
次に、図11を参照して、時刻ズレ量の検出方法の詳細について説明する。
物体検出処理部251により求められたレーダ像に基づいた目標物12の距離zrと、ステレオカメラ画像に基づいた目標物12の距離zsとは、それぞれ時刻情報と対応付けられて記憶部252に記憶されている。
記憶部252に記憶される、レーダ像に基づいた目標物12の距離zrと、ステレオカメラ画像に基づいた目標物12の距離zsとの最小数は、想定される最大の時刻ズレ量となる時間に撮影される枚数分となる。例えば、最大の時刻ズレ量に対応する時間がtmであり、ステレオカメラ画像とレーダ像とが同じフレームレートf(fps)で撮影(取得)されるとき、最小数はtm×f枚となる。尚、レーダ像に基づいた目標物12の距離zrと、ステレオカメラ画像に基づいた目標物12の距離zsとについては、以下、単に距離zr、距離zsとも称するものとする。
時刻ズレ検出部253は、時刻情報と対応する距離zr、および時刻情報と対応する距離zsのうち、いずれか一方を読み出し、基準距離とする。
続いて、時刻ズレ検出部253は、基準距離を取得した距離zr、または距離zsではない他方の距離zrまたは距離zsのうち、基準距離と等しい、または、基準距離との差が最小となるを距離zrまたは距離zs検索し、それぞれの時刻情報の差分を時刻ズレ量として時刻ズレ記憶部254に保存する。
すなわち、図11で示されるように、レーダ像から求められた目標物12までの距離が検出された時刻情報と距離zrとの関係は波形L1として示され、ステレオカメラ画像から求められた目標物12の距離がzs検出された時刻情報と距離との関係は、波形L2として示される。
目標物12は、車両11との距離が変化し続ける状態で撮影されるため、時刻情報と共に検出された目標物12の距離は変化するはずである。もし、時刻ズレが存在しない場合、同じ時刻に撮影された画像から検出された目標物12の距離は一致することになるが、図11で示されるように、差分が生じるとき、その差分が時刻ズレ量となる。
時刻ズレ検出部253は、それぞれの時刻情報と距離の関係を近似式として表し、その近似式の差分から時刻ズレ量を求める。すなわち、図11の場合、距離zs1(=zr1),zs2(=zr2),zs3(=zr3)において、それぞれ時刻t1,t2,t3およびt11,t12,t13がそれぞれ求められるので、距離と時刻情報の関係から波形L1,L2のそれぞれについて近似式を生成して、距離に応じた時刻ズレ量を求める。
また、時刻ズレ検出部253は、その他の手法で時刻ズレ量を求めてもよく、例えば、複数の地点の時刻ズレ量を求め、それらの平均や中央値等の統計量を利用して時刻ズレ量として求めるようにしても良い。すなわち、図11で示されるように、時刻ズレ検出部253は、距離zs1(=zr1),zs2(=zr2),zs3(=zr3)・・・のそれぞれの差分時間d1,d2,d3・・・の平均値や中央値等の統計量を利用して時刻ズレ量を求めるようにしてもよい。
<図8の車外情報検出部によるキャリブレーション処理>
次に、図12のフローチャートを参照して、図8の車外情報検出部141によるキャリブレーション処理について説明する。
ステップS11において、目標物12、および車両11の少なくともいずれかの移動が開始される。すなわち、例えば、図2で示されるように、車両11、および目標物12対向している距離Dが変化するように、少なくともいずれかの移動が開始される。
ステップS12において、ステレオカメラ51は、ステレオカメラ画像を撮影して、撮影した時刻情報であるタイムスタンプを付して車外情報検出部141の物体検出処理部251に出力する。同時に、ミリ波レーダ52は、レーダ像を生成して、レーダ像を生成した時刻情報であるタイムスタンプを付して車外情報検出部141に出力する。
ステップS13において、物体検出処理部251の距離画像算出部291は、所定の視差を有する2枚の画像からなるステレオカメラ画像に基づいて、画素単位で距離を求め、各画素の画素値を、求めた距離の値とする距離画像を生成し、ステレオカメラ画像を撮影した時刻情報であるタイムスタンプと共に距離画像目標物検出部292に出力する。
ステップS14において、ステレオカメラ画像目標物検出部293は、ステレオカメラ画像に基づいて、画像内における目標物12を構成するマーカ72の座標位置(x,y)である目標物位置として特定し、距離画像目標物検出部292、およびレーダ像目標物検出部294に出力する。なお、レーダ像目標物検出部294に対しては、x座標のみが供給されるようにしてもよい。
ステップS15において、距離画像目標物検出部292は、目標物12が検出された、ステレオカメラ画像内の座標位置(x,y)に対応する、距離画像の画素値を、ステレオカメラ画像から求められる目標物12の距離zsとして、レーダ像目標物検出部294に供給するとともに、タイムスタンプの情報である時刻情報と共に記憶部252に出力して、記憶させる。
ステップS16において、レーダ像目標物検出部294は、ステレオカメラ画像目標物検出部293より供給された、ステレオカメラ画像より求められる目標物12の座標位置(x,y)のうちのx座標と、距離画像目標物検出部292より供給される距離zsに基づいて、レーダ像内の対応する位置近傍で最もレーダ応答の高い位置を目標物12の位置である目標物距離として検出する。
ステップS17において、レーダ像目標物検出部294は、目標物12の位置として特定されたレーダ像内の応答値を、レーダ像より求められる目標物12までの距離zrである目標物距離として記憶部252に出力して、記憶させる。
ステップS18において、時刻ズレ検出部253は、ステレオカメラ画像に基づいた目標物12までの距離および時刻情報、並びに、レーダ像に基づいた目標物12までの距離および時刻情報が、それぞれ所定回数分だけ、記憶部252に記憶されているか否かを判定する。
ステップS18において、ステレオカメラ画像に基づいた目標物12までの距離zsおよび時刻情報、並びに、レーダ像に基づいた目標物12までの距離zrおよび時刻情報が、それぞれ所定回数分だけ、記憶されていない場合、処理は、ステップS12に戻る。すなわち、ステレオカメラ画像に基づいた目標物12までの距離zsおよび時刻情報、並びに、レーダ像に基づいた目標物12までの距離zrおよび時刻情報が、それぞれ所定回数分だけ、記憶されるまで、ステップS12乃至S18の処理が繰り返される。
そして、ステップS12乃至S18の処理が所定回数だけ繰り返されて、ステップS18において、ステレオカメラ画像に基づいた目標物12までの距離zsおよび時刻情報、並びに、レーダ像に基づいた目標物12までの距離zrおよび時刻情報が、それぞれ所定回数分だけ、記憶されたとみなされた場合、処理は、ステップS19に進む。
ステップS19において、時刻ズレ検出部253は、記憶部252に記憶されている、ステレオカメラ画像に基づいた目標物12までの距離zsおよび時刻情報、並びに、レーダ像に基づいた目標物12までの距離zrおよび時刻情報を読み出して、距離zsおよび距離zrのそれぞれの時刻に対する近似式を求める。
すなわち、時刻ズレ検出部253は、例えば、図11の波形L1,L2に対応する、距離zsおよび距離zrのそれぞれの時刻に対する近似式を求める。
ステップS20において、時刻ズレ検出部253は、求めた近似式に基づいて、所定の距離に対する、距離zsおよび距離zrのそれぞれの時刻を求める。
すなわち、時刻ズレ検出部253は、例えば、図11で示されるように、近似式で求められる距離zr1における時刻t1、距離zr2における時刻t2、および距離zr3における時刻t3、並びに、距離zs1における時刻t11、距離zs2における時刻t12、および距離zs3における時刻t13を求める。
ステップS21において、時刻ズレ検出部253は、所定の距離に対する、距離zsおよび距離zrのそれぞれの時刻の差分である差分時刻より、時刻ズレ量を求め、時刻ズレ記憶部254に記憶させる。
すなわち、時刻ズレ検出部253は、図11で示されるように、差分時間d1(=時刻t11−時刻t1)、差分時間d2(=時刻t12−時刻t2)、差分時間d3(=時刻t13−時刻t3)をそれぞれ求めて、平均値や中央値を時刻ズレ量として求め、時刻ズレ記憶部254に記憶させる。
以上の処理により、ステレオカメラ51とミリ波レーダ52との同一距離のステレオカメラ画像とレーダ像との取得する時刻ズレ量を求めることが可能となる。求められた時刻ズレ量を用いることにより、ステレオカメラ51とミリ波レーダ52との検出結果を高精度に同期して組み合わせた検出物体距離画像を生成することが可能となり、検出物体距離画像の精度を向上させることが可能となる。
<検出物体距離画像生成処理>
次に、図13のフローチャートを参照して、検出物体距離画像生成処理について説明する。
ステップS31において、ステレオカメラ51は、ステレオカメラ画像を撮影して、撮影した時刻情報であるタイムスタンプを付して車外情報検出部141の物体検出処理部251に出力する。同時に、ミリ波レーダ52は、レーダ像を生成して、レーダ像を生成した時刻情報であるタイムスタンプを付して車外情報検出部141に出力する。
ただし、同時に処理をしても、上述したように同一の物体に対する同一の距離のステレオカメラ画像とレーダ像とは、供給されるタイミングに時刻ズレが生じる。
尚、ここでは、レーダ像が、時刻ズレ量に対応する時間だけステレオカメラ画像よりも先に供給されるものとして説明を進めるが、レーダ像およびステレオカメラ画像のそれぞれが供給される順序はキャリブレーションに応じたものとなり、前後することがある。
ステップS32において、遅延バッファ271は、レーダ像をバッファリングする。
ステップS33において、時刻ズレ補正処理部272は、時刻ズレ記憶部254に記憶されている時刻ズレ量の情報を読み出して、読み出した時刻ズレ量に対応する時間だけバッファリングされているレーダ像と、同時に、供給されるステレオカメラ画像とを併せて画像処理部273に供給する。
ステップS34において、画像処理部273は、供給されたステレオカメラ画像とレーダ像とを組み合わせて、検出物体距離画像を生成し、例えば、状況認識部153に出力する。
すなわち、ステレオカメラ画像は、レーダ像に対して、時刻ズレ量に対応する時間だけ遅れて供給されるので、新たなステレオカメラ画像が供給されるタイミングにおいて、遅延バッファ271にバッファリングされているレーダ像のうち、現在時刻から時刻ズレ量に対応する時間だけバッファリングされたレーダ像を読み出すことにより、ステレオカメラ画像とレーダ像とを対象物体が同一距離に存在する同一タイミングに調整することが可能となる。
結果として、ステレオカメラ画像とレーダ像とを、高い精度で同期させた上で、組み合わせた検出物体距離画像を生成することが可能となる。尚、以上においては、ステレオカメラ画像とレーダ像とを用いて、目標物となる治具を検出する例について説明してきたが、目標物は、方式の異なるセンサで同時に検出できる物体であればよいので、方式の異なるセンサで同時に検出できる物体であれば、本開示の治具のような物体でなくてもよい。
<<3.応用例>>
<目標物の代用物を用いる例>
以上においては、時刻ズレ量の検出は、キャリブレーション処理により求められる例について説明してきた。しかしながら、キャリブレーション処理は、工場出荷時など目標物12が設けられた特定の条件下でのみなされる処理であるため、経年劣化などに伴って、時刻ズレ量が変化すると、ステレオカメラ画像とレーダ像との同期に係る精度が低下してしまう恐れがある。
目標物12は、ステレオカメラ51およびミリ波レーダ52のいずれにおいても同一位置で検出可能なものであるが、走行に際して、目標物12の代用物を設定することで、走行中に繰り返しキャリブレーション処理を実行することができる。
目標物12の代用物としては、例えば、図14の画像P51で示されるように、車両300の後部に取り付けられているナンバープレート301や、道路標識302などが考えられる。
車両300の後部に取り付けられているナンバープレート301や、道路標識302は、取付位置や形状などが予め決められているため、ステレオカメラ画像およびレーダ像のいずれからも検出することが可能である。
したがって、目標物12の代用物として利用することで、走行中に繰り返しキャリブレーション処理を実行することが可能となる。
<目標物の代用物をナンバープレートとした場合の物体検出処理部の構成例>
図15は、目標物12の代用物をナンバープレート301とした場合の物体検出処理部251の構成例を示している。なお、図9の物体検出処理部251と同一の機能を備えた構成については、同一の符号を付しており、適宜その説明は省略するものとする。
すなわち、図15の物体検出処理部251において、図9の物体検出処理部251と異なる点は、距離画像目標物検出部292、ステレオカメラ画像目標物検出部293、およびレーダ像目標物検出部294に代えて、距離画像ナンバープレート検出部311、ステレオカメラ画像ナンバープレート検出部312、およびレーダ像ナンバープレート検出部324が設けられている点である。また、反射断面積分布推定部321、車両位置推定部322、および反射断面積分布データベース323が新たに設けられている。
ステレオカメラ画像ナンバープレート検出部312は、ステレオカメラ画像から画像認識によりナンバープレートを検出し、画像内の座標位置(x,y)を検出して、距離画像ナンバープレート検出部311に供給する。
距離画像ナンバープレート検出部311は、距離画像算出部291より供給される距離画像上のナンバープレートの座標位置(x,y)の距離を、ナンバープレートまでの距離として特定し、ステレオカメラ画像に基づいたナンバープレートまでの距離zsとして出力する。
反射断面積分布推定部321は、レーダ像における応答の強度に係る反射断面積分布を推定し、推定した反射断面積分布を車両位置推定部322に供給する。
車両位置推定部322は、反射断面積分布推定部321より供給される反射断面積分布を、反射断面積分布データベース323に格納されている、車種毎の反射断面積分布と照合し、車種を特定するとともに、レーダ像内における車両の座標位置を推定する。
レーダ像ナンバープレート検出部324は、レーダ像内の車両の座標位置に基づいて、車両の位置をレーダ像に基づいたナンバープレートの距離zrとして出力する。
すなわち、図16のレーダ像P61における反射断面積分布361で示されるように、送信されたミリ波の反射波による反射断面積分布には車種に応じた特徴があるため、予め車種毎の反射断面積分布が格納されたデータベースと照合し、照合結果に基づいて、車種と車両の位置を特定することができる。図16においては、上向きに開口部を持つ方形状の反射断面積分布が車両の特徴と位置を表している。
車両11の位置が特定できれば、車両11とナンバープレートは、略同一の距離であるとみなせるので、目標物12と同様に機能させることができる。
また、十分に解像度が高いミリ波レーダ52である場合、より正確に車の形状を求めることが可能であり、ナンバープレートの距離の検出を実現することができる。
<図14の物体検出処理部を用いたキャリブレーション処理>
次に、図17のフローチャートを参照して、図14の物体検出処理部251を用いたキャリブレーション処理について説明する。
ステップS51において、センサ部31は、所定の時間が経過したか否かを判定する。ステップS51において、所定の時間が経過しない場合、処理は、ステップS63に進み、車外情報検出部141は、終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS51に戻る。すなわち、処理の終了が指示されず、かつ、所定の時間が経過するまで、ステップS51,S63の処理が繰り返される。
尚、図17のフローチャートを参照して説明するキャリブレーション処理は、通常の走行状態において、所定の時間間隔で繰り返される処理であるため、検出物体距離画像生成処理が実行されるときに並列的になされるか、または、検出物体距離画像生成処理を所定の時間間隔で停止させ、その間になされる処理である。
ステップS51において、所定の時間が経過したとみなされた場合、処理は、ステップS52に進む。
ステップS52において、ステレオカメラ51は、ステレオカメラ画像を撮影して、撮影した時刻情報であるタイムスタンプを付して車外情報検出部141の物体検出処理部251に出力する。同時に、ミリ波レーダ52は、レーダ像を生成して、レーダ像を生成した時刻情報であるタイムスタンプを付して車外情報検出部141に出力する。
ステップS53において、物体検出処理部251の距離画像算出部291は、所定の視差を有する2枚の画像からなるステレオカメラ画像に基づいて、画素単位で距離を求め、各画素の画素値を、求めた距離の値とする距離画像を生成し、ステレオカメラ画像を撮影した時刻情報であるタイムスタンプと共に距離画像ナンバープレート検出部311に出力する。
ステップS54において、ステレオカメラ画像ナンバープレート検出部312は、ステレオカメラ画像に基づいて、画像内におけるナンバープレートを認識し、認識されたナンバープレートの座標位置(x,y)を特定し、距離画像ナンバープレート検出部311に出力する。
ステップS55において、距離画像ナンバープレート検出部311は、ナンバープレートが検出された、ステレオカメラ画像内の座標位置(x,y)に対応する、距離画像の画素値を、ステレオカメラ画像から求められるナンバープレートの距離zsとして、タイムスタンプの情報と共に記憶部252に出力して、記憶させる。
ステップS56において、反射断面積分布推定部321は、レーダ像内の応答より、反射断面積分布を推定し、推定した反射断面積分布を車両位置推定部322に出力する。
ステップS57において、車両位置推定部322は、レーダ像内の応答により推定された反射断面積分布に基づいて、レーダ像内における車両の座標位置を特定し、特定した座標位置の情報をレーダ像ナンバープレート検出部313に出力する。
ステップS58において、レーダ像ナンバープレート検出部324は、レーダ像内の車両の座標位置に基づいて、車両の位置をレーダ像に基づいたナンバープレートの距離zrとして、レーダ像のタイムスタンプの情報と共に記憶部252に出力して、記憶させる。
ステップS59において、時刻ズレ検出部253は、ステレオカメラ画像に基づいたナンバープレートまでの距離zsおよび時刻情報、並びに、レーダ像に基づいたナンバープレートまでの距離zrおよび時刻情報が、それぞれ所定回数分だけ、記憶部252に記憶されているか否かを判定する。
ステップS59において、ステレオカメラ画像に基づいたナンバープレートまでの距離zsおよび時刻情報、並びに、レーダ像に基づいたナンバープレートまでの距離zrおよび時刻情報が、それぞれ所定回数分だけ、記憶されていない場合、処理は、ステップS52に戻る。すなわち、ステレオカメラ画像に基づいたナンバープレートまでの距離zsおよび時刻情報、並びに、レーダ像に基づいたナンバープレートまでの距離zrおよび時刻情報が、それぞれ所定回数分だけ、記憶されるまで、ステップS52乃至S59の処理が繰り返される。
そして、ステップS52乃至S59の処理が所定回数だけ繰り返されて、ステップS59において、ステレオカメラ画像に基づいたナンバープレートまでの距離zsおよび時刻情報、並びに、レーダ像に基づいたナンバープレートまでの距離zrおよび時刻情報が、それぞれ所定回数分だけ、記憶されたとみなされた場合、処理は、ステップS60に進む。
ステップS60において、時刻ズレ検出部253は、記憶部252に記憶されている、ステレオカメラ画像に基づいたナンバープレートまでの距離zsおよび時刻情報、並びに、レーダ像に基づいたナンバープレートまでの距離zrおよび時刻情報を読み出して、距離zsおよび距離zrのそれぞれの時刻に対する近似式を求める。
ステップS61において、時刻ズレ検出部253は、求めた近似式に基づいて、所定の距離に対する、距離zsおよび距離zrのそれぞれの時刻を求める。
ステップS62において、時刻ズレ検出部253は、距離毎の、距離zsおよび距離zrのそれぞれの時刻の差分より、時刻ズレ量を求め、時刻ズレ記憶部254に記憶させる。
以上の処理により、検出対象を目標物12に代えてナンバープレートとしても、ステレオカメラ51とミリ波レーダ52との同一距離のステレオカメラ画像とレーダ像との取得する時刻ズレ量を、走行中に所定の時間間隔で繰り返し求めることが可能となる。
結果として、所定の時間間隔で、繰り返し時刻ズレ量が更新されて記憶されることにより、経年劣化などにより変化する時刻ズレ量に対応して、ステレオカメラ51とミリ波レーダ52との検出結果を組み合わせた検出物体距離画像の精度を向上させることが可能となる。
また、以上においては、目標物12の代用物として車両のナンバープレートを用いる例について説明してきたが、形状や大きさが特定されており、目標物12の代用物として認識できるものであれば、ナンバープレート以外のものでもよく、例えば、道路標識を利用するようにしてもよい。尚、検出物体距離画像生成処理については、図13を参照して説明した処理と同様であるので、その説明は省略する。
<<4.変形例>>
<ミリ波レーダに代えてLIDARを設けるようにした変形例>
以上においては、ステレオカメラ51により撮影されるステレオカメラ画像と、ミリ波レーダ52によるレーダ像とを組み合わせて検出物体距離画像を生成する例について説明してきたが、センサ部31を構成する複数のセンサは、ステレオカメラ51およびミリ波レーダ52以外の組み合わせであってもよい。
例えば、ミリ波レーダ52に代えて、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)と称するレーザ光を用いた距離画像と、ステレオカメラ画像における座標位置(x,y)のそれぞれに対応する距離情報の画素値からなる距離画像を用いるようにして、ステレオカメラ画像と組み合わせるようにしてもよい。尚、以降において、LIDARを用いて取得される距離画像をLIDAR距離画像と称する。
LIDAR距離画像は、ステレオカメラ画像を用いて得られる距離画像と比べて解像度が低いが、距離精度が高いという特徴がある。
図18は、ミリ波レーダ52に代えて、LIDAR371を設けるようにしたセンサ部31の構成例が示されている。尚、図18のセンサ部31において、図7のセンサ部31における構成と同一の機能を備えた構成については、同一の符号を付しており、説明を適宜省略する。
すなわち、図18のセンサ部31において、図7のセンサ部31と異なるのは、ミリ波レーダ52に代えてLIDAR371を設けた点である。
LIDAR371は、レーザ投受光部381、信号処理部382、および時刻情報付加部383を備えている。
レーザ投受光部381は、車両11の走行方向前方の監視領域に対して、所定の解像度でレーザ光を投光すると共に、投光したレーザ光の反射光を受光し、反射光の受光強度からなる信号や、投光したタイミングと受光したタイミングとを示す信号を信号処理部382に供給する。
信号処理部382は、反射光の受光強度からなるLIDAR反射強度画像を生成すると共に、投光したレーザ光の投光したタイミングと、受光したタイミングとから求められるレーザ光の往復時間に基づいて、いわゆるToF(Time of Flight)法により距離を求め、LIDAR距離画像を生成し、LIDAR反射強度画像とLIDAR距離画像とをペアにして時刻情報付加部383に出力する。
時刻情報付加部383は、基準時刻生成部54より供給される基準時刻の情報を、LIDAR反射強度画像とLIDAR距離画像とのペア毎にタイムスタンプとして付加して信号出力部53に出力する。尚、以降において、LIDAR反射強度画像とLIDAR距離画像とのペアを、単にLIDAR画像とも称する。
<LIDARを用いる場合の目標物の構成例>
次に、図19を参照して、ミリ波レーダ52に代えてLIDAR371を設けるセンサ部31を用いる場合の目標物の構成例について説明する。
図19で示されるように、センサ部31にミリ波レーダ52に代えてLIDAR371を設ける場合の目標物390は、左右にLIDAR371から投光されるレーザの反射率が所定値よりも高いレーザ反射体392−1,392−2が設けられており、中央には、マーカ72と同様のマーカ391が設けられている。
<センサ部にLIDARを用いる場合の物体検出処理部の構成例>
次に、図20を参照して、センサ部31にLIDAR371を用いる場合の物体検出処理部251の構成例について説明する。尚、図20の物体検出処理部251において、図9の物体検出処理部251における構成と同一の機能を備えた構成については、同一の符号を付しており、適宜、説明を省略する。
図20の物体検出処理部251において、図9の物体検出処理部251と異なる点は、レーダ像目標物検出部294に代えて、LIDAR画像目標物検出部401が設けられている点である。
LIDAR画像目標物検出部401は、LIDAR画像を構成する、LIDAR反射強度画像およびLIDAR距離画像に基づいて、目標物390の距離zrを求める。
図21の左部で示されるように、例えば、画像中の左部に人H1が撮影され、右側に目標物390が撮影されるようなステレオカメラ画像P71が撮影される場合を考える。
この場合、図21の中央部の画像P72で示されるように、LIDAR反射強度画像が撮影される。図21においてLIDAR反射強度画像は、反射強度が高いほど明るい画素とされ、反射強度が低いほど暗い画素とされる。目標物390におけるレーザ反射体392−1,392−2は、他の物体よりも、レーザ光の反射率が高いことから反射強度が高くなる。LIDAR画像目標物検出部401は、LIDAR反射強度画像P72に基づいて、他の領域よりも反射強度の高い領域を、目標物390の存在する領域として特定し、対応する座標位置(x,y)を読み出す。
LIDAR画像目標物検出部401は、図21の右部で示されるLIDAR距離画像P73における、LIDAR反射強度画像P72より求められた目標物390の座標位置(x,y)に対応する距離を、LIDAR画像に基づいた目標物390までの距離として求める。尚、LIDAR距離画像P73においては、距離が遠いほど暗い画素とされ、距離が近いほど明るい画素とされる。
<図20の物体検出処理部を用いたキャリブレーション処理>
次に、図22のフローチャートを参照して、図20の物体検出処理部を用いたキャリブレーション処理について説明する。尚、図22のフローチャートにおけるステップS91乃至S95の処理は、図12のフローチャートを参照して説明したステップS11乃至S15の処理と同様であるので、その説明は省略するものとする。
ステップS96において、LIDAR画像目標物検出部401は、LIDAR反射強度画像に基づいて、他の領域よりも反射強度の高い領域を、目標物390の存在する領域として特定し、対応する座標位置(x,y)を目標物位置として検出する。
ステップS97において、LIDAR画像目標物検出部401は、LIDAR距離画像における、LIDAR反射強度画像より求められた目標物390の座標位置(x,y)に対応する距離をLIDAR距離画像に基づいた目標物390までの距離を、LIDAR画像に基づいた目標物距離zrとして検出し、時刻情報と対応付けて記憶部252に出力して記憶させる。
ステップS92乃至S98の処理を繰り返して、所定回数分だけ、記憶部252に記憶された後、処理は、ステップS99に進む。
ステップS99において、時刻ズレ検出部253は、記憶部252に記憶されている、ステレオカメラ画像に基づいた目標物390までの距離zsおよび時刻情報、並びに、LIDAR画像に基づいた目標物までの距離zrおよび時刻情報を読み出して、距離zsおよび距離zrのそれぞれの時刻に対する近似式を求める。
ステップS100において、時刻ズレ検出部253は、求めた近似式に基づいて、所定の距離に対する、距離zsおよび距離zrのそれぞれの時刻を求める。
ステップS101において、時刻ズレ検出部253は、所定の距離に対する、距離zsおよび距離zrのそれぞれの時刻差分より、時刻ズレ量を求め、時刻ズレ記憶部254に記憶させる。
以上の処理により、ステレオカメラ51とLIDAR371との同一距離のステレオカメラ画像とLIDAR画像との取得する時刻ズレ量を求めることが可能となる。求められた時刻ズレ量を用いることにより、ステレオカメラ51とLIDAR371との検出結果を組み合わせた検出物体距離画像の精度を向上させることが可能となる。尚、検出物体距離画像生成処理については、図13を参照して説明した処理と同様であるので、その説明は省略する。
<<5.ソフトウェアにより実行させる例>>
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
図23は、汎用のコンピュータの構成例を示している。このコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
尚、図23におけるCPU1001が、図6における自動運転制御部112の機能を実現させる。また、図23における記憶部1008が、図6における記憶部111を実現する。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本開示は、以下のような構成も取ることができる。
<1> 物体を検出する第1の物体検出部と、
物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、
前記第1の物体検出部により所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部と
を含む信号処理装置。
<2> 前記第1の物体検出部、もしくは前記第2の物体検出部の少なくとも一方による前記物体の検出結果をバッファリングするバッファリング部と、
前記バッファリング部による遅延量を前記時刻ズレ量に応じて設定して、前記時刻ズレを補正する時刻ズレ補正部とをさらに含む
<1>に記載の信号処理装置。
<3> 前記所定の目標物は、前記時刻ズレ量を測定するための物体であり、
前記第1の物体検出部により検出可能な第1の被検出部位と、
前記第2の物体検出部により検出可能な第2の被検出部位とを含む
<1>または<2>に記載の信号処理装置。
<4> 前記第1の物体検出部は、前記物体を所定の視差を有する2枚のステレオカメラ画像として撮影するステレオカメラであり、
前記第2の物体検出部は、前記物体をミリ波帯の電波により検出し、レーダ像として取得するミリ波レーダであり、
基準時刻を発生する基準時刻発生部をさらに含み、
前記ステレオカメラ画像および前記レーダ像は、それぞれ生成されたタイミングにおける前記基準時刻からなる時刻情報を含む
<1>に記載の信号処理装置。
<5> 前記ステレオカメラ画像を構成する前記所定の視差を有する2枚の画像に基づいて画素単位で前記所定の目標物までの距離を算出し、前記距離を画素値とする距離画像を生成する距離画像算出部と、
前記距離画像における、前記所定の目標物までの距離をステレオカメラ画像距離として、対応する前記ステレオカメラ画像の時刻情報と共に検出する距離画像目標物検出部と、
前記レーダ像に基づいた、前記所定の目標物までの距離であるレーダ像距離を、対応する前記レーダ像の時刻情報と共に検出するレーダ像目標物検出部とを含み、
前記時刻ズレ検出部は、前記ステレオカメラ画像距離と、前記レーダ像距離とが一致する、前記ステレオカメラ画像の時刻情報と、前記レーダ像の時刻情報との差分を時刻ズレ量として検出する
<4>に記載の信号処理装置。
<6> 前記ステレオカメラ画像上における前記所定の目標物の座標位置を検出するステレオカメラ画像目標物位置検出部をさらに含み、
前記距離画像目標物検出部は、前記距離画像における、前記ステレオカメラ画像目標物位置検出部により検出された前記所定の目標物の座標位置の距離情報を、前記所定の目標物までの距離であるステレオカメラ画像距離として特定し、対応する前記ステレオカメラ画像の時刻情報と共に検出し、
前記レーダ像目標物検出部は、前記ステレオカメラ画像目標物位置検出部により検出された前記所定の目標物の座標位置と、前記ステレオカメラ画像距離とにより特定される位置の近傍の範囲の、前記レーダ像における応答強度が高い距離を、前記所定の目標物までの距離であるレーダ像距離として、対応する前記レーダ像の時刻情報と共に検出する
<5>に記載の信号処理装置。
<7> 前記所定の目標物は、
前記ミリ波レーダのレーダ波の反射率が所定値よりも高いレーダ反射体と、
前記ステレオカメラ画像により認識可能なマーカとを含む
<5>に記載の信号処理装置。
<8> 前記ステレオカメラ画像上における前記所定の目標物の座標位置を検出するステレオカメラ画像目標物位置検出部と、
前記レーダ像における反射断面積分布に基づいて、前記レーダ像内の前記所定の目標物の位置を検出する反射断面積目標物位置検出部とをさらに含み、
前記距離画像目標物検出部は、前記距離画像における、前記所定の目標物の座標位置の距離情報を、前記所定の目標物までの距離であるステレオカメラ画像距離として特定し、対応する前記ステレオカメラ画像の時刻情報と共に検出し、
前記レーダ像目標物検出部は、前記反射断面積目標物位置検出部により検出された前記レーダ像内における前記所定の目標物の位置に対応する距離をレーダ像距離として、対応する前記レーダ像の時刻情報と共に検出する
<5>に記載の信号処理装置。
<9> 前記距離画像算出部、前記距離画像目標物検出部、前記レーダ像目標物検出部、および前記時刻ズレ検出部は、所定の時間間隔で繰り返し、前記距離画像を生成し、前記ステレオカメラ画像距離を、対応する前記ステレオカメラ画像の時刻情報と共に検出し、前記レーダ像距離を、対応する前記レーダ像の時刻情報と共に検出し、時刻ズレ量を検出する
<8>に記載の信号処理装置。
<10> 前記所定の目標物は、前走車のナンバープレート、または、道路標識である
<8>に記載の信号処理装置。
<11> 前記第1の物体検出部は、前記物体を、所定の視差を有する2枚のステレオカメラ画像として撮影するステレオカメラであり、
前記第2の物体検出部は、前記物体を、レーザ光により検出し、前記レーザ光の反射強度に応じた画像として撮影するLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)であり、
基準時刻を発生する基準時刻発生部をさらに含み、
前記ステレオカメラ画像、並びに、前記LIDARにより撮影されるLIDAR画像は、それぞれ生成されたタイミングにおける前記基準時刻からなる時刻情報を含む
<1>に記載の信号処理装置。
<12> 前記ステレオカメラ画像より所定の視差に基づいて画素単位で被写体までの距離を算出し、前記距離を画素値とする距離画像を生成する距離画像算出部と、
前記距離画像に基づいた、前記所定の目標物までの距離であるステレオカメラ画像距離を、対応する前記ステレオカメラ画像の時刻情報と共に検出する距離画像目標物検出部と、
前記LIDAR画像に基づいた、前記所定の目標物までの距離であるLIDAR画像距離を、対応する前記LIDAR画像の時刻情報と共に検出するLIDAR画像目標物検出部とを含み、
前記時刻ズレ検出部は、前記ステレオカメラ画像距離と、前記LIDAR画像距離とが一致する、前記ステレオカメラ画像の時刻情報と、前記LIDAR画像の時刻情報との差分を時刻ズレ量として検出する
<11>に記載の信号処理装置。
<13> 前記ステレオカメラ画像上における前記所定の目標物の座標位置を検出するステレオカメラ画像目標物位置検出部をさらに含み、
前記距離画像目標物検出部は、前記距離画像における、前記ステレオカメラ画像目標物位置検出部により検出された前記所定の目標物の座標位置の距離情報を、前記所定の目標物までの距離であるステレオカメラ画像距離として特定し、対応する前記ステレオカメラ画像の時刻情報と共に検出し、
前記LIDAR画像は、前記レーザ光の反射強度を各画素の画素値とするLIDAR反射強度画像、および前記レーザ光の被写体までの往復時間に基づいてToF(Time of Flight)法で求められる距離画像からなるLIDAR距離画像を含み、
前記LIDAR画像目標物検出部は、前記LIDAR反射強度画像より、反射強度が特に高い位置を、前記所定の目標物の位置とみなし、対応する前記LIDAR距離画像における位置の距離を、前記所定の目標物までの距離であるLIDAR画像距離として、対応する前記レーザ光の反射強度に応じた画像の時刻情報と共に検出する
<12>に記載の信号処理装置。
<14> 前記所定の目標物は、
前記LIDARのレーザ光の反射率が所定値よりも高いレーザ反射体と、
前記ステレオカメラ画像により認識可能なマーカとを含む
<11>に記載の信号処理装置。
<15> 前記時刻ズレ検出部は、複数の前記時刻ズレを求め、統計処理により時刻ズレ量を検出する
<1>乃至<14>のいずれかに記載の信号処理装置。
<16> 物体を検出する第1の物体検出処理と、
前記第1の物体検出処理とは異なる方法で物体を検出する第2の物体検出処理と、
前記第1の物体検出処理により所定の目標物が検出される第1の時刻と、前記第2の物体検出処理により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部と
を含む信号処理方法。
<17> 物体を検出する第1の物体検出部と、
物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、
前記第1の物体検出部により所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部と
を含む処理をコンピュータに実行させるプログラム。
<18> 物体を検出する第1の物体検出部と、
物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、
前記第1の物体検出部により所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部と
を含む移動体。
<19> 所定の目標物と信号処理装置とからなる信号処理システムにおいて、
前記信号処理装置は、
物体を検出する第1の物体検出部と、
物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、
前記第1の物体検出部により前記所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部と
を含み、
前記所定の目標物は、
前記第1の物体検出部により検出可能な第1の被検出部位と、
前記第2の物体検出部により検出可能な第2の被検出部位と
を含む
信号処理システム。
11 車両, 12 目標物, 21 偏光カメラ, 51 ステレオカメラ, 51L,51R カメラ, 52 ミリ波レーダ, 53 信号出力部, 54 基準時刻生成部, 71 レーダ反射体, 72 マーカ, 102 データ取得部, 112 自動運転制御部, 141 外部情報検出部, 152 状況認識部, 201L,201R 撮像素子, 202L,202R 画像信号処理部, 203L,203R 時刻情報付加部, 211 ミリ波アンテナ, 212 レーダ受信信号処理部, 213 時刻情報付加部, 231 キャリブレーション処理部, 232 検出物体距離画像生成部, 251 物体検出処理部, 252 記憶部, 253 時刻ズレ検出部, 254 時刻ズレ記憶部, 271 遅延バッファ, 272 時刻ズレ補正処理部, 273 画像処理部, 291 距離画像算出部, 292 距離画像目標物検出部, 293 ステレオカメラ画像目標物検出部, 294 レーダ像目標物検出部, 301 ナンバープレート, 302 道路標識, 311 距離画像算出部, 312 ステレオカメラ画像ナンバープレート検出部, 321 反射断面積分布推定部, 322 車両位置推定部, 323 反射断面積分布データベース, 324 レーダ像ナンバープレート検出部, 371 LIDAR, 381 レーザ投受光部, 382 信号処理部, 383 時刻情報付加部, 390 目標物, 391 マーカ, 392−1,392−2 レーザ反射体, 401 LIDAR画像目標物検出部

Claims (19)

  1. 物体を検出する第1の物体検出部と、
    物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、
    前記第1の物体検出部により所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部と
    を含む信号処理装置。
  2. 前記第1の物体検出部、もしくは前記第2の物体検出部の少なくとも一方による前記物体の検出結果をバッファリングするバッファリング部と、
    前記バッファリング部による遅延量を前記時刻ズレ量に応じて設定して、前記時刻ズレを補正する時刻ズレ補正部とをさらに含む
    請求項1に記載の信号処理装置。
  3. 前記所定の目標物は、前記時刻ズレ量を測定するための物体であり、
    前記第1の物体検出部により検出可能な第1の被検出部位と、
    前記第2の物体検出部により検出可能な第2の被検出部位とを含む
    請求項1に記載の信号処理装置。
  4. 前記第1の物体検出部は、前記物体を所定の視差を有する2枚のステレオカメラ画像として撮影するステレオカメラであり、
    前記第2の物体検出部は、前記物体をミリ波帯の電波により検出し、レーダ像として取得するミリ波レーダであり、
    基準時刻を発生する基準時刻発生部をさらに含み、
    前記ステレオカメラ画像および前記レーダ像は、それぞれ生成されたタイミングにおける前記基準時刻からなる時刻情報を含む
    請求項1に記載の信号処理装置。
  5. 前記ステレオカメラ画像を構成する前記所定の視差を有する2枚の画像に基づいて画素単位で前記所定の目標物までの距離を算出し、前記距離を画素値とする距離画像を生成する距離画像算出部と、
    前記距離画像における、前記所定の目標物までの距離をステレオカメラ画像距離として、対応する前記ステレオカメラ画像の時刻情報と共に検出する距離画像目標物検出部と、
    前記レーダ像に基づいた、前記所定の目標物までの距離であるレーダ像距離を、対応する前記レーダ像の時刻情報と共に検出するレーダ像目標物検出部とを含み、
    前記時刻ズレ検出部は、前記ステレオカメラ画像距離と、前記レーダ像距離とが一致する、前記ステレオカメラ画像の時刻情報と、前記レーダ像の時刻情報との差分を時刻ズレ量として検出する
    請求項4に記載の信号処理装置。
  6. 前記ステレオカメラ画像上における前記所定の目標物の座標位置を検出するステレオカメラ画像目標物位置検出部をさらに含み、
    前記距離画像目標物検出部は、前記距離画像における、前記ステレオカメラ画像目標物位置検出部により検出された前記所定の目標物の座標位置の距離情報を、前記所定の目標物までの距離であるステレオカメラ画像距離として特定し、対応する前記ステレオカメラ画像の時刻情報と共に検出し、
    前記レーダ像目標物検出部は、前記ステレオカメラ画像目標物位置検出部により検出された前記所定の目標物の座標位置と、前記ステレオカメラ画像距離とにより特定される位置の近傍の範囲の、前記レーダ像における応答強度が高い距離を、前記所定の目標物までの距離であるレーダ像距離として、対応する前記レーダ像の時刻情報と共に検出する
    請求項5に記載の信号処理装置。
  7. 前記所定の目標物は、
    前記ミリ波レーダのレーダ波の反射率が所定値よりも高いレーダ反射体と、
    前記ステレオカメラ画像により認識可能なマーカとを含む
    請求項5に記載の信号処理装置。
  8. 前記ステレオカメラ画像上における前記所定の目標物の座標位置を検出するステレオカメラ画像目標物位置検出部と、
    前記レーダ像における反射断面積分布に基づいて、前記レーダ像内の前記所定の目標物の位置を検出する反射断面積目標物位置検出部とをさらに含み、
    前記距離画像目標物検出部は、前記距離画像における、前記所定の目標物の座標位置の距離情報を、前記所定の目標物までの距離であるステレオカメラ画像距離として特定し、対応する前記ステレオカメラ画像の時刻情報と共に検出し、
    前記レーダ像目標物検出部は、前記反射断面積目標物位置検出部により検出された前記レーダ像内における前記所定の目標物の位置に対応する距離をレーダ像距離として、対応する前記レーダ像の時刻情報と共に検出する
    請求項5に記載の信号処理装置。
  9. 前記距離画像算出部、前記距離画像目標物検出部、前記レーダ像目標物検出部、および前記時刻ズレ検出部は、所定の時間間隔で繰り返し、前記距離画像を生成し、前記ステレオカメラ画像距離を、対応する前記ステレオカメラ画像の時刻情報と共に検出し、前記レーダ像距離を、対応する前記レーダ像の時刻情報と共に検出し、時刻ズレ量を検出する
    請求項8に記載の信号処理装置。
  10. 前記所定の目標物は、前走車のナンバープレート、または、道路標識である
    請求項8に記載の信号処理装置。
  11. 前記第1の物体検出部は、前記物体を、所定の視差を有する2枚のステレオカメラ画像として撮影するステレオカメラであり、
    前記第2の物体検出部は、前記物体を、レーザ光により検出し、前記レーザ光の反射強度に応じた画像として撮影するLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)であり、
    基準時刻を発生する基準時刻発生部をさらに含み、
    前記ステレオカメラ画像、並びに、前記LIDARにより撮影されるLIDAR画像は、それぞれ生成されたタイミングにおける前記基準時刻からなる時刻情報を含む
    請求項1に記載の信号処理装置。
  12. 前記ステレオカメラ画像より所定の視差に基づいて画素単位で被写体までの距離を算出し、前記距離を画素値とする距離画像を生成する距離画像算出部と、
    前記距離画像に基づいた、前記所定の目標物までの距離であるステレオカメラ画像距離を、対応する前記ステレオカメラ画像の時刻情報と共に検出する距離画像目標物検出部と、
    前記LIDAR画像に基づいた、前記所定の目標物までの距離であるLIDAR画像距離を、対応する前記LIDAR画像の時刻情報と共に検出するLIDAR画像目標物検出部とを含み、
    前記時刻ズレ検出部は、前記ステレオカメラ画像距離と、前記LIDAR画像距離とが一致する、前記ステレオカメラ画像の時刻情報と、前記LIDAR画像の時刻情報との差分を時刻ズレ量として検出する
    請求項11に記載の信号処理装置。
  13. 前記ステレオカメラ画像上における前記所定の目標物の座標位置を検出するステレオカメラ画像目標物位置検出部をさらに含み、
    前記距離画像目標物検出部は、前記距離画像における、前記ステレオカメラ画像目標物位置検出部により検出された前記所定の目標物の座標位置の距離情報を、前記所定の目標物までの距離であるステレオカメラ画像距離として特定し、対応する前記ステレオカメラ画像の時刻情報と共に検出し、
    前記LIDAR画像は、前記レーザ光の反射強度を各画素の画素値とするLIDAR反射強度画像、および前記レーザ光の被写体までの往復時間に基づいてToF(Time of Flight)法で求められる距離画像からなるLIDAR距離画像を含み、
    前記LIDAR画像目標物検出部は、前記LIDAR反射強度画像より、反射強度が特に高い位置を、前記所定の目標物の位置とみなし、対応する前記LIDAR距離画像における位置の距離を、前記所定の目標物までの距離であるLIDAR画像距離として、対応する前記レーザ光の反射強度に応じた画像の時刻情報と共に検出する
    請求項12に記載の信号処理装置。
  14. 前記所定の目標物は、
    前記LIDARのレーザ光の反射率が所定値よりも高いレーザ反射体と、
    前記ステレオカメラ画像により認識可能なマーカとを含む
    請求項11に記載の信号処理装置。
  15. 前記時刻ズレ検出部は、複数の前記時刻ズレを求め、統計処理により時刻ズレ量を検出する
    請求項1に記載の信号処理装置。
  16. 物体を検出する第1の物体検出処理と、
    前記第1の物体検出処理とは異なる方法で物体を検出する第2の物体検出処理と、
    前記第1の物体検出処理により所定の目標物が検出される第1の時刻と、前記第2の物体検出処理により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部と
    を含む信号処理方法。
  17. 物体を検出する第1の物体検出部と、
    物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、
    前記第1の物体検出部により所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部と
    を含む処理をコンピュータに実行させるプログラム。
  18. 物体を検出する第1の物体検出部と、
    物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、
    前記第1の物体検出部により所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部と
    を含む移動体。
  19. 所定の目標物と信号処理装置とからなる信号処理システムにおいて、
    前記信号処理装置は、
    物体を検出する第1の物体検出部と、
    物体を検出する前記第1の物体検出部とは異なる第2の物体検出部と、
    前記第1の物体検出部により前記所定の目標物が検出される第1の時刻と、前記第2の物体検出部により前記所定の目標物が検出される第2の時刻との時刻ズレを時刻ズレ量として検出する時刻ズレ検出部と
    を含み、
    前記所定の目標物は、
    前記第1の物体検出部により検出可能な第1の被検出部位と、
    前記第2の物体検出部により検出可能な第2の被検出部位と
    を含む
    信号処理システム。
JP2019538057A 2017-08-22 2018-08-08 信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム Active JP7160040B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017159406 2017-08-22
JP2017159406 2017-08-22
PCT/JP2018/029731 WO2019039279A1 (ja) 2017-08-22 2018-08-08 信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム

Publications (2)

Publication Number Publication Date
JPWO2019039279A1 true JPWO2019039279A1 (ja) 2020-10-15
JP7160040B2 JP7160040B2 (ja) 2022-10-25

Family

ID=65438678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019538057A Active JP7160040B2 (ja) 2017-08-22 2018-08-08 信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム

Country Status (4)

Country Link
US (1) US11328444B2 (ja)
EP (1) EP3674747B1 (ja)
JP (1) JP7160040B2 (ja)
WO (1) WO2019039279A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7092540B2 (ja) * 2018-04-04 2022-06-28 パナソニックホールディングス株式会社 交通監視システムおよび交通監視方法
JP2020057869A (ja) * 2018-09-28 2020-04-09 パナソニックi−PROセンシングソリューションズ株式会社 撮像装置
EP3951663A4 (en) * 2019-03-29 2022-05-04 Sony Semiconductor Solutions Corporation INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM AND DEVICE
US10928508B2 (en) * 2019-04-12 2021-02-23 Ford Global Technologies, Llc Camera and radar fusion
US11861957B2 (en) * 2019-05-09 2024-01-02 Argo AI, LLC Time master and sensor data collection for robotic system
WO2020230619A1 (ja) * 2019-05-13 2020-11-19 日立オートモティブシステムズ株式会社 車両制御システム
JP7333195B2 (ja) * 2019-05-15 2023-08-24 株式会社Subaru 自動運転支援システム
JP7344031B2 (ja) * 2019-07-19 2023-09-13 株式会社Subaru 画像処理装置
US20210033722A1 (en) * 2019-07-29 2021-02-04 Trackman A/S System and method for inter-sensor calibration
CN114556157A (zh) * 2019-10-08 2022-05-27 株式会社电装 同步装置、同步方法、同步程序
CN110753167B (zh) * 2019-11-13 2022-04-08 广州文远知行科技有限公司 时间同步方法、装置、终端设备及存储介质
CN112819896B (zh) * 2019-11-18 2024-03-08 商汤集团有限公司 传感器的标定方法及装置、存储介质和标定系统
JP7290104B2 (ja) * 2019-12-23 2023-06-13 株式会社デンソー 自己位置推定装置、方法及びプログラム
JP2021110631A (ja) * 2020-01-10 2021-08-02 株式会社デンソー 検出器の姿勢・位置検出システムおよび検出器の姿勢・位置検出方法
JP7288409B2 (ja) * 2020-02-05 2023-06-07 マツダ株式会社 車両用制御装置
JP7367585B2 (ja) * 2020-03-30 2023-10-24 株式会社アイシン 物体検出システム
KR20220010900A (ko) * 2020-07-20 2022-01-27 현대모비스 주식회사 차량용 레이더 장치 및 제어방법
US11619708B2 (en) 2020-07-28 2023-04-04 Trackman A/S System and method for inter-sensor calibration
US20220113419A1 (en) * 2020-10-13 2022-04-14 Waymo, LLC LIDAR Based Stereo Camera Correction
CN112365545B (zh) * 2020-10-15 2023-02-24 中国科学院宁波材料技术与工程研究所 基于大平面复合靶标的激光雷达与可见光相机的标定方法
CN112911265B (zh) * 2021-02-01 2023-01-24 北京都视科技有限公司 融合处理器及融合处理系统
JP2022146480A (ja) 2021-03-22 2022-10-05 リコーインダストリアルソリューションズ株式会社 ステレオカメラ装置
CN113099385B (zh) * 2021-04-09 2022-10-04 北京骑胜科技有限公司 停车监测方法、系统和设备
CN113219447A (zh) * 2021-04-09 2021-08-06 国电南瑞科技股份有限公司 一种基于毫米波阵列的输电线距离稳定测量方法
WO2022249838A1 (ja) * 2021-05-26 2022-12-01 株式会社デンソー センサ制御装置、センサ制御方法、センサ制御プログラム
CN113327297B (zh) * 2021-06-30 2022-06-17 湖南科技大学 基于深度学习的深海海底障碍物测量系统与识别方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001091654A (ja) * 1999-09-22 2001-04-06 Nippon Signal Co Ltd:The 車載用障害物検出装置
JP2003315442A (ja) * 2002-04-22 2003-11-06 Mitsubishi Electric Corp 車載レーダ装置の位置調整装置および位置調整方法
JP2004037239A (ja) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
JP2004347471A (ja) * 2003-05-22 2004-12-09 Fuji Heavy Ind Ltd 先行車両検出装置
JP2011220732A (ja) * 2010-04-06 2011-11-04 Honda Motor Co Ltd 車両の周辺監視装置
US20140218226A1 (en) * 2013-02-01 2014-08-07 GM Global Technology Operations LLC Method and apparatus for remote object sensing employing compressive sensing
JP2017125829A (ja) * 2016-01-13 2017-07-20 株式会社リコー 距離測定装置、移動体装置及び距離測定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057056A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US10596964B2 (en) * 2016-01-13 2020-03-24 Ricoh Company, Ltd. Distance measurement device, moveable device, and distance measuring method
WO2018212346A1 (ja) * 2017-05-18 2018-11-22 パイオニア株式会社 制御装置、走査システム、制御方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001091654A (ja) * 1999-09-22 2001-04-06 Nippon Signal Co Ltd:The 車載用障害物検出装置
JP2003315442A (ja) * 2002-04-22 2003-11-06 Mitsubishi Electric Corp 車載レーダ装置の位置調整装置および位置調整方法
JP2004037239A (ja) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
JP2004347471A (ja) * 2003-05-22 2004-12-09 Fuji Heavy Ind Ltd 先行車両検出装置
JP2011220732A (ja) * 2010-04-06 2011-11-04 Honda Motor Co Ltd 車両の周辺監視装置
US20140218226A1 (en) * 2013-02-01 2014-08-07 GM Global Technology Operations LLC Method and apparatus for remote object sensing employing compressive sensing
JP2017125829A (ja) * 2016-01-13 2017-07-20 株式会社リコー 距離測定装置、移動体装置及び距離測定方法

Also Published As

Publication number Publication date
JP7160040B2 (ja) 2022-10-25
US11328444B2 (en) 2022-05-10
EP3674747A1 (en) 2020-07-01
WO2019039279A1 (ja) 2019-02-28
EP3674747A4 (en) 2020-09-02
EP3674747B1 (en) 2023-04-12
US20200211219A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
JP7160040B2 (ja) 信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム
JP7259749B2 (ja) 情報処理装置、および情報処理方法、プログラム、並びに移動体
US11427218B2 (en) Control apparatus, control method, program, and moving body
WO2019130945A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
US20200322585A1 (en) Image processing device, image processing method, and vehicle
CN112543876B (zh) 用于自动驾驶车辆中的传感器同步性数据分析的系统
WO2019073920A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
WO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JPWO2019077999A1 (ja) 撮像装置、画像処理装置、及び、画像処理方法
WO2019044571A1 (ja) 画像処理装置、および画像処理方法、プログラム、並びに移動体
WO2019188391A1 (ja) 制御装置、制御方法、並びにプログラム
US20220018932A1 (en) Calibration apparatus, calibration method, program, and calibration system and calibration target
JPWO2019082669A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP7257737B2 (ja) 情報処理装置、自己位置推定方法、及び、プログラム
JP2022034086A (ja) 情報処理装置、および情報処理方法、並びにプログラム
US20200230820A1 (en) Information processing apparatus, self-localization method, program, and mobile body
WO2020261838A1 (ja) 画像処理装置と画像処理方法およびプログラム
JP6984256B2 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
CA3134088A1 (en) Information processing method, program, and information processing apparatus
WO2019049710A1 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
JP2022028989A (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP2022017612A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JPWO2020116204A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R151 Written notification of patent or utility model registration

Ref document number: 7160040

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151