JP7384147B2 - 物標検出装置及びそれが搭載された車両 - Google Patents

物標検出装置及びそれが搭載された車両 Download PDF

Info

Publication number
JP7384147B2
JP7384147B2 JP2020198837A JP2020198837A JP7384147B2 JP 7384147 B2 JP7384147 B2 JP 7384147B2 JP 2020198837 A JP2020198837 A JP 2020198837A JP 2020198837 A JP2020198837 A JP 2020198837A JP 7384147 B2 JP7384147 B2 JP 7384147B2
Authority
JP
Japan
Prior art keywords
vehicle
undetectable
lidar
detected
stationary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020198837A
Other languages
English (en)
Other versions
JP2022086686A (ja
Inventor
博充 浦野
祥一 早坂
佳佑 保海
琢也 右島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020198837A priority Critical patent/JP7384147B2/ja
Priority to US17/485,907 priority patent/US20220171063A1/en
Priority to CN202111419767.4A priority patent/CN114572243A/zh
Publication of JP2022086686A publication Critical patent/JP2022086686A/ja
Application granted granted Critical
Publication of JP7384147B2 publication Critical patent/JP7384147B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • B60Q5/006Arrangement or adaptation of acoustic signal devices automatically actuated indicating risk of collision between vehicles or with pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Vascular Medicine (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、車両に搭載される物標検出装置、及びそれが搭載された車両に関する。
車両の周囲の物標を精度良く判別するための方法が種々提案されている。例えば、特許文献1には、壁と有効物標とを精度良く判別するための技術が開示されている。特許文献1に記載の従来技術では、LiDARにより基準長さよりも長い点群(第1点群)が計測された場合、当該点群は壁として分類される。また、壁として分類された第1点群以外の第2点群は物標候補として分類される。そして、単一の壁を表す第1点群が複数存在し、第1点群の端点と第2点群の端点との間に所定条件が満たされる場合、第2点群は有効物標と確定される。
特開2019-095290号公報
しかし、LiDARを含む外部センサは、その特性により、物体の検出が困難となる条件を有している。外部センサによる物体の検出ができなければ、物標候補を得ることもできない。
本発明は、上述のような課題に鑑みてなされたものであり、外部センサによる物体の検出が困難な条件下でも、車両の周囲に存在する物体を認識することが可能な物標検出装置を提供することを目的とする。また、併せて、本発明は、その物標検出装置が搭載された車両も提供する。
本発明に係る物標検出装置は、車両に搭載される物標検出装置であって、車両の外部状況に関する情報を取得する外部センサ、地図情報を記憶した記憶装置、及び、情報処理装置を備える。情報処理装置は、外部センサで取得された情報及び地図情報を処理する。情報処理装置により実行される処理は、第1処理、第2処理、及び第3処理を含む。第1処理では、情報処理装置は、地図情報に基づき外部センサの検出範囲内に存在する静止物体を認識する。第2処理では、情報処理装置は、外部センサにより検出された静止物体の像を地図情報から認識された静止物体と照合することによって、外部センサにより検出された静止物体の像に未検出領域が含まれているかどうか判定する。第3処理では、情報処理装置は、未検出領域が確認された場合、静止物体と車両との間に存在する検出不能物体を認識する。
上記構成を有する本物標検出装置によれば、車両の周囲に外部センサによって直接検出できない検出不能物体が存在する場合、外部センサによる静止物体の検出結果を利用することで検出不能物体を間接的に認識することができる。
外部センサはLiDARでもよい。この場合、情報処理装置は、LiDARにより検出された静止物体の像に点群が獲得されていない領域、すなわち、点群未獲得領域が含まれていないかどうか判定する。LiDARにおいては点群未獲得領域が前述の未検出領域である。静止物体の像に点群未獲得領域が含まれ、且つ、点群未獲得領域が所定点数以上の点群に相当する場合、情報処理装置は、静止物体と車両との間に存在する検出不能物体を認識する。
外部センサはカメラでもよい。この場合、情報処理装置は、カメラにより検出された静止物体の像に画像認識が不能な領域、すなわち、画像認識不能領域が含まれていないかどうか判定する。カメラにおいては画像認識不能領域が前述の未検出領域である。静止物体の像に画像認識不能領域が含まれ、且つ、画像認識不能領域が所定画素数以上の画素群に相当する場合、情報処理装置は、静止物体と車両との間に存在する検出不能物体を認識する。
また、情報処理装置は、外部センサにより検出された移動物体が外部センサの検出範囲から出たことが確認されていないにも関わらず外部センサにより検出されない場合、外部センサの検出不能範囲に存在する検出不能物体を認識してもよい。これによれば、検出不能物体の認識に利用可能な静止物体が周囲に存在しない場合に、外部センサの検出範囲内での移動物体の動きから、検出不能範囲に移動した移動物体、すなわち、検出不能物体を認識することができる。
本発明により提供される第1の車両は、本物標検出装置が搭載された自律走行可能な車両である。第1の車両は、本物標検出装置により検出された検出不能物体を含む物標に基づいて車両を制御する車両制御装置を備える。第1の車両によれば、外部センサで検出された物体だけでなく、本物標検出装置で認識された検出不能物体も自律走行としての物標として扱われるので、より安全な自律走行が可能となる。
本発明により提供される第2の車両は、本物標検出装置が搭載された自律走行可能な車両である。第2の車両は、本物標検出装置により検出不能物体が認識された場合、発進時に車外に向けてアラームを出すアラーム装置を備える。第2の車両によれば、外部センサで検出できない検出不能物体に対してアラームを出することで、より安全な発進が可能となる。
本発明により提供される第3の車両は、本物標検出装置が搭載された車両である。第3の車両は、本物標検出装置により検出不能物体が認識された場合、検出不能物体の存在を車両の監視者に対して通知する通知装置を備える。ここでいう監視者には、自動運転車両を遠隔地から通信ネットワーク経由で遠隔支援する遠隔支援オペレータ、遠隔運転車両を遠隔地から通信ネットワーク経由で遠隔運転する遠隔ドライバ、車両に搭乗して車両を直接運転するドライバが含まれる。第3の車両によれば、外部センサで検出できない検出不能物体の存在が監視者に通知されるので、監視者は周囲に注意しながら車両を監視することができる。
以上述べたように、本発明に係る物標検出装置によれば、外部センサによって直接検出できない検出不能物体が車両の周囲に存在する場合、外部センサによる静止物体の検出結果を利用することで検出不能物体を間接的に認識することができる。
物標検出装置が適用される車両の一例を示す図である。 LiDARによる物標の検出が不能となる第1のケースを説明するための図である。 LiDARによる物標の検出が不能となる第2のケースを説明するための図である。 車両の周囲に存在する静止物体を利用してLiDARで検出されない検出不能物体を認識する方法を説明するための図である。 車両の周囲に存在する静止物体を利用してLiDARで検出されない検出不能物体を認識する方法を説明するための図であり、第1のケースでの効果を示す図である。 車両の周囲に存在する静止物体を利用してLiDARで検出されない検出不能物体を認識する方法を説明するための図であり、第2のケースでの効果を示す図である。 第1実施形態に係る物標検出装置が適用された自動運転車両の構成を示すブロック図である。 第1実施形態に係る物標検出装置による検出不能物体の認識手順を示すフローチャートである。 自動運転車両の発進を妨げる検出不能物体を認識する方法を説明するための図である。 第1実施形態に係る物標検出装置が適用された自動運転車両の発進手順を示すフローチャートである。 第1実施形態に係る物標検出装置を監視者への警戒通知に適用した場合の通知判断の手順を示すフローチャートである。 LiDARで検出された移動物体の時系列データを利用してLiDARの検出範囲に存在する検出不能物体を認識する方法を説明するための図であり、移動物体がLiDARで検出されている状態を示す図である。 LiDARで検出された移動物体の時系列データを利用してLiDARの検出範囲に存在する検出不能物体を認識する方法を説明するための図であり、移動物体がLiDARで検出不能になった状態を示す図である。 第2実施形態に係る物標検出装置が適用された自動運転車両の構成を示すブロック図である。 第2実施形態に係る物標検出装置による検出不能物体の認識手順を示すフローチャートである。 車両の周囲に存在する静止物体を利用してカメラで検出されない検出不能物体を認識する方法を説明するための図である。
以下に説明される各実施形態において、各図において共通する要素には、同一の符号を付して重複する説明を省略又は簡略する。また、以下に示す実施の形態において各要素の個数、数量、量、範囲などの数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。
1.第1実施形態
1-1.概要
まず、第1実施形態の概要について図1乃至図6の図を用いて説明する。
図1には、道路40を2台の車両2、110が並走している様子が描かれている。2台の車両2、110のうちの少なくとも車両2は、本発明に係る物標検出装置が適用された自動運転車両である。車両2は、車両2の外部状況に関する情報を取得する外部センサ8を備える。外部センサ8は、例えば、LiDAR、カメラ、LiDARとカメラとのフュージョン、それらとミリ波レーダとのフュージョンである。図1に示す例では、外部センサ8は、車両2の屋根に搭載され、車両2の屋根から車両2の側方をセンシングしている。図1において、車両2の屋根から扇形に拡がる範囲100は、外部センサ8の検出範囲を模式的に表している。外部センサ8の検出範囲100に車両110が存在する場合、車両110は物標として検出される。例えば、車両2が車線変更を行う場合、隣接車線を走行する車両110の相対位置及び相対速度は車両2の目標軌跡の計算に反映される。
ただし、外部センサ8の検出範囲100に存在する物体であっても、検出条件によっては外部センサ8で検出できない場合がある。物体を検出できない状況は外部センサ8の種類によって異なる。図2乃至図6を用いた第1実施形態の概要の説明では、外部センサ8とはLiDARを意味するものとする。以下の概要の説明においては、外部センサをLiDAR8と表記する。
図2は、LiDAR8による物標の検出が不能となる第1のケースを説明するための図である。LiDAR8の検出範囲100に物体が存在する場合、LiDAR8から照射されたレーザ光は物体の表面で反射される。LiDAR8はその反射光を受光して物体の点群データを取得する。しかし、図2に示すように、物体111からLiDAR8までの距離が極短い場合、例えば、数10cm以内の距離の場合、物体111から得られた点群とLiDAR8のセンサノイズとを識別することは難しい。センサノイズのフィルタリング処理によって、物体111からの点群も除去されてしまう。つまり、車両2に極近接する物体111の場合、LiDAR8の検出範囲100内に存在するにも関わらず、LiDAR8によって直接検出できない可能性が有る。
図3は、LiDAR8による物標の検出が不能となる第2のケースを説明するための図である。前述のとおり、LiDAR8は、照射したレーザ光の反射光を受光して物体の点群を獲得する。このため、レーザ光の反射率が低い物体、例えば光を吸収する黒色の物体からは点群を獲得することは難しい。例えば、車両2の隣の車線を白色車両112と黒色車両113とが走行しているとする。両車両112,113がLiDAR8の検出範囲100内に入っていたとしても、白色車両112からの点群は獲得できるが、黒色車両113からの点群は獲得が困難である。つまり、レーザ光を吸収する物体113の場合、LiDAR8の検出範囲100内に存在するにも関わらず、LiDAR8によって直接検出できない可能性が有る。
上記の第1のケース及び第2のケースのように、検出条件によっては、車両2の周囲にLiDAR8によって直接検出できない検出不能物体が存在する場合がある。そこで、以下に図4乃至図6の図を用いて説明するように、第1実施形態では、車両2の周囲に存在する静止物体を利用して、LiDAR8で検出されない検出不能物体を認識する。なお、図4は図4Aと図4Bとを含み、図5は図5Aと図5Bとを含み、図6は図6Aと図6Bとを含む。図4A,図5A及び図6Aは車両2と各物体との位置関係を示す平面図、図4B,図5B及び図6Bは図4A,図5A及び図6Aに対応するLiDAR8の出力画像である。なお、LiDAR8の出力画像とは、点群データを2次元画像データに変換して得られる画像を意味する。
図4Aに示すように、道路40の路肩には、壁、ガードレール、フェンスなど、道路40に沿って設置された静止物体115が存在する場合がある。静止物体115がLiDAR8の検出範囲100内にある場合、LiDAR8では静止物体115からの点群105が得られる。一般に、車両2の走行時に、壁、ガードレール、フェンスなどの静止物体115が車両2の極近傍に存在することはない。また、一般に、この種の静止物体115の色はレーザ光を吸収するほどの黒色ではない。ゆえに、静止物体115がLiDAR8の検出範囲100内に入っている限りにおいて、図4Bに示すように、LiDAR8からは静止物体115をとらえた点群105が出力される。
図5は、静止物体115を利用してLiDAR8で検出されない検出不能物体を認識する方法を第1のケースに適用した例を示す図である。図5Aに示す例では、道路40の路肩に沿って静止物体115が存在し、静止物体115の内側で車両2の極近傍に検出不能物体111が存在している。この状態では、検出不能物体111によってレーザ光を遮られるため、検出不能物体111の影となる静止物体115の一部の領域からは点群を得ることはできない。
LiDAR8と静止物体115と検出不能物体111とが図5Aに示す位置関係にある場合、図5Bに示すようなLiDAR8の出力画像が得られる。つまり、静止物体115をとらえた点群105中に、点群が獲得されていない点群未獲得領域101が現れる。点群未獲得領域101は、静止物体115が検出されてない未検出領域である。点群未獲得領域101が、静止物体115が存在するのにも関わらずその点群105が得られていない未検出領域なのか、そもそも静止物体115が存在しない領域なのかは、地図情報から判断することができる。つまり、地図情報から認識される静止物体と照合することで、LiDAR8により検出された静止物体115の像に未検出領域が含まれているかどうか判定することができる。静止物体115の点群105中に未検出領域が確認される場合、静止物体115と車両2との間に存在する検出不能物体111を間接的に認識することができる。
図6は、静止物体115を利用してLiDAR8で検出されない検出不能物体を認識する方法を第2のケースに適用した例を示す図である。図6Aに示す例では、道路40の路肩に沿って静止物体115が存在し、車両2と静止物体115との間に、2台の車両112,113が存在している。前述のとおり一方の車両113はレーザ光を吸収するために点群の取得が困難な黒色車両、すなわち、検出不能物体である。2台の車両112,113によってレーザ光を遮られるため、それらの影となる静止物体115の一部の領域からは点群を得ることはできない。
LiDAR8と静止物体115と2台の車両112,113とが図6Aに示す位置関係にある場合、図6Bに示すようなLiDAR8の出力画像が得られる。つまり、静止物体115をとらえた点群105中に、車両112をとらえた点群102と、点群が獲得されていない点群未獲得領域103が現れる。点群未獲得領域103は、黒色車両113の影となるために静止物体115が検出されてない未検出領域である。このケースでも、地図情報から認識される静止物体と照合することで、点群未獲得領域103が、静止物体115が存在するのにも関わらずその点群105が得られていない未検出領域なのかどうか判定することができる。静止物体115の点群105中に未検出領域が確認される場合、静止物体115と車両2との間に存在する検出不能物体113を間接的に認識することができる。
1-2.自動運転車両の構成
図7は、第1実施形態に係る物標検出装置が適用された自動運転車両としての車両2の構成を示すブロック図である。車両2は、車両2を制御する車両制御装置10と、車両制御装置10に情報を入力する車載センサと、車両制御装置10から出力される信号によって動作するアクチュエータ4と、車両2の外部に向けてアラームを出すアラーム装置5とを備える。
車載センサは、GPS受信機6、内部センサ7、及び外部センサ8を含む。GPS受信機6は、GPS衛星から信号を受信することにより、車両2の現在位置(例えば緯度及び経度)を測定する。内部センサ7は、車両2の走行状態を検出するセンサである。内部センサ7は、車両2の運動に関わる三軸の角度と加速度を検出する慣性計測装置(IMU)と、車輪の回転数から車速を算出する車速計測装置とを含む。外部センサ8は、例えば、LiDAR、カメラ、LiDARとカメラとのフュージョン、それらとミリ波レーダとのフュージョンのうちの何れでもよい。外部センサ8で得られた情報に基づいて物標の検出が行われる。
アクチュエータ4は、具体的には、車両2を操舵する操舵アクチュエータ、車両2を駆動する駆動アクチュエータ、及び車両2を制動する制動アクチュエータを含む。アラーム装置5は、具体的には、音声を発生するスピーカ、情報を表示する表示装置、或いはそれらの組み合わせである。アラーム装置5は、音声や表示、或いはそれらの組み合わせによって、車両2の周囲の歩行者に対して車両2から離れることを促す。
車両制御装置10は、少なくとも1つのプロセッサ11と少なくとも1つのメモリ12とを有するECU(Electronic Control Unit)である。メモリ12は、主記憶装置と補助記憶装置とを含む。メモリ12には、プロセッサ11で実行可能なプログラムとそれに関連する種々のデータとが記憶されている。メモリ12に記憶されているプログラムがプロセッサ11で実行されることで、車両制御装置10には様々な機能が実現される。プログラムには、車両制御装置10を物標検出装置の情報処理装置として機能させ、検出不能物体を認識させるためのプログラムが含まれている。なお、車両制御装置10を構成するECUは、複数のECUの集合であってもよい。
メモリ12に記憶されるデータには地図情報が含まれている。地図情報は地図データベース(地図DB)21によって管理されている。地図DB21で管理される地図情報には、例えば、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率)、交差点の分岐点の情報、自車が走行すべき目標ルート情報、道路構造物の情報が含まれる。道路構造物の情報には、壁、白線、ポール、看板、標識、ガードレール、フェンスなど、外部センサ8によって取得可能な静止物の情報が含まれている。地図DB21はSSDやHDDなどの補助記憶装置に予め格納されている。ただし、インターネットを介して外部サーバから地図情報がダウンロードされてもよいし、外部サーバ上の地図情報が参照されるのでもよい。
車両制御装置10は、停車時の車両制御に関係する構成として、自己位置推定部22、静止物体認識部23、物体検出部24、検出不能物体認識部25、走行計画生成部26、及び走行制御部27を備える。これらは、メモリ12に記憶されたプログラムがプロセッサ11で実行されたときに、車両制御装置10の機能として実現される。
自己位置推定部22は、GPS受信機6で受信した車両2の位置情報と、内部センサ7で検出された車両2の走行状態に関する情報と、地図DB21から得られる地図情報とに基づいて、地図上における車両2の位置を推定する。走行状態に関する情報には、例えば、車速情報、加速度情報、ヨーレート情報などが含まれる。また、自己位置推定部22は、外部センサ8で検出された特徴物の車両2に対する相対位置と、内部センサ7で検出された車両2の走行状態に関する情報と、検出された特徴物の地図上における位置から車両2の位置を推定することもできる。
静止物体認識部23は、自己位置推定部22で推定された車両2の位置を地図DB21に問い合わせ、外部センサ8の検出範囲内に存在する静止物体を認識する。具体的には、外部センサ8の検出範囲は、車両2に複数設けられている外部センサ8ごとに予め登録されている。静止物体認識部23は、地図情報より外部センサ8の検出範囲内における静止物体の有無を判別し、検出範囲内に静止物体が存在する場合、その静止物体の地図上での位置を取得する。
物体検出部24は、外部センサ8から受け取った情報に対し、パターンマッチングやディープラーニングなどの手法を用いて車両2の周囲の移動物体を検出し、その存在位置を特定する。外部センサ8から受け取る情報は、外部センサ8がLiDARであれば点群データであり、外部センサ8がカメラであれば画像データである。物体検出部24で検出される移動物体には、車両、オートバイ、自転車、歩行者、動物などが含まれる。ただし、外部センサ8の検出範囲に移動物体が存在していたとしても、概要の項で説明したとおり、検出条件によっては当該移動物体を検出できない場合がある。外部センサ8で検出できなかった移動物体は、次に説明する検出不能物体認識部25によりに認識される。
検出不能物体認識部25は、外部センサ8から受け取った情報と、地図情報から認識された静止物の位置情報と、物体検出部24で検出された移動物体の位置情報とを用いて、外部センサ8の検出範囲内に存在する検出不能物体を認識する。具体的には、図5及び図6を用いて説明したように、検出不能物体認識部25は、外部センサ8により検出された静止物体の像を地図情報から認識された静止物体と照合する。外部センサ8がLiDARの場合、静止物体の像とは、点群データを2次元画像データに変換してなる像を意味する。
この照合により、検出不能物体認識部25は、外部センサ8により検出された静止物体の像に未検出領域が含まれているかどうか判定する。そして、未検出領域が確認された場合、検出不能物体認識部25は、静止物体と車両2との間に存在する検出不能物体を認識する。検出不能物体認識部25で認識された検出不能物体は、物体検出部24で検出された移動物体とともに物標として検出される。
走行計画生成部26は、地図DB21に記録された目標ルート、自己位置推定部22で認識された車両2の位置、物体検出部24で検出された移動物体の位置、及び、検出不能物体認識部25で認識された検出不能物体の位置を取得する。走行計画生成部26は、移動物体の位置及び検出不能物体の位置を含む物標情報と、地図DB21の地図情報とに少なくとも基づいて、予め設定された目標ルートに沿った走行計画を生成する。走行計画生成部26は、好ましくは、車両2に固定された座標系での目標位置pと各目標点での速度vとの二つの要素からなる組、すなわち配位座標(p、v)を複数持つものとして走行計画を生成する。走行計画生成部24は、車両2の走行計画に干渉する物標が検出された場合、操舵或いは減速によって物標との衝突を回避するように走行計画を更新する。
走行制御部27は、走行計画生成部26で生成された走行計画に基づいて車両2の走行を自動で制御する。走行制御部27は、走行計画に応じた制御信号をアクチュエータ4に出力する。これにより、走行制御部27は、走行計画に沿って車両2が自動走行するように、車両2の走行を制御する。
1-3.検出不能物体の認識手順
次に、第1実施形態に係る検出不能物体の認識手順について図8を用いて説明する。図8には、第1実施形態に係る物標検出装置としての車両制御装置10による検出不能物体の認識手順がフローチャートで表されている。図8を用いた検出不能物体の認識手順の説明では、外部センサ8とはLiDARを意味するものとする。以下の認識手順の説明では、外部センサをLiDAR8と表記する。
図8に表されたフローチャートによれば、車両制御装置10は、GPS受信機6、内部センサ7、及び外部センサ8で取得される各情報と、地図DB21から得られる地図情報とに基づいて、地図上における車両2の自己位置を推定する(ステップS101)。次に、車両制御装置10は、外部センサ8で取得された情報に基づいて車両2の周囲に存在する移動物体を検出する(ステップS102)。さらに、車両制御装置10は、ステップS101で推定された自己位置を基準にして、地図DB21から地図情報に基づきLiDAR8の検出範囲内に存在する静止物体を認識する(ステップS103)。
次に、車両制御装置10は、LiDAR8により検出された静止物体の像に未検出領域が含まれているかどうか判定する(ステップS104)。より詳しくは、車両制御装置10は、LiDAR8により検出された静止物体の像に点群が獲得されていない点群未獲得領域が含まれているかどうか判定する。そして、点群未獲得領域が所定点数以上の点群に相当する場合、車両制御装置10は、点群未獲得領域を静止物体が検出されていない未検出領域として判定する。点群未獲得領域の面積は、検出不能物体のサイズに正比例し、車両2と検出不能物体との距離に負比例する。より漏れなく極近傍の物体を認識可能とするため、ノイズとの区別がつく限りにおいて所定点数は小さく設定される。
なお、点群が獲得されない点群未獲得領域は、車内通信のパケット抜けによっても生じうる。点群未獲得領域がパケット抜けによるものかどうかは、パケットの受信間隔を用いて検証することができる。例えば、通常はLiDAR8から10ms間隔でデータが送られてきていたものが、あるときデータの受信に30msかかったとする。この場合、そのデータ受信時刻の手前の20msについてパケット抜けの有無を検証すればよい。
LiDAR8により検出された静止物体の像に未検出領域が含まれていないのであれば、LiDAR8の検出範囲内に検出不能物体は存在しない。ゆえに、ステップS104の判定の結果が否定の場合、フローチャートによる認識手順は終了する。
ステップS104の判定の結果が肯定の場合、車両制御装置10は、静止物体が検出されていない未検出領域に移動物体の点群が含まれていないかどうか判定する(ステップS105)。より詳しくは、車両制御装置10は、図6Bに例示するように、静止物体115からの点群105を得られていない全ての未検出領域について、移動物体112からの点群102が得られている領域なのか、領域103のように有効な点群が全く得られていない領域なのかを判定する。
未検出領域に移動物体の点群が含まれているのであれば、その未検出領域に検出不能物体は存在しない。ゆえに、ステップS105の判定の結果が否定の場合、フローチャートによる認識手順は終了する。
未検出領域に移動物体の点群が含まれていないのであれば、車両制御装置10は、静止物体と車両との間に存在する検出不能物体を認識する(ステップS106)。以上の手順によれば、LiDAR8の検出範囲内に静止物体が存在していれば、その検出結果を利用することによって、LiDAR8によって直接検出できない検出不能物体であっても間接的に認識することができる。
なお、未検出領域は言わば検出不能物体の陰であることから、未検出領域の形状は検出不能物体の形状を表している。ゆえに、未検出領域の形状に対してパターンマッチングやディープラーニングなどの物体認識手法を適用することで、未検出領域の形状から検出不能物体の種類を認識することも可能である。検出不能物体の位置に加えて種類も走行計画に反映させることで、車両2の外部状況に対してより適切な自動運転を実現することができる。
1-4.自動運転車両の発進制御への適用
外部センサ8によって検出できない検出不能物体は、車両2が発生する際の安全確保の上で留意すべき存在である。例えば、図9Aに示すように、車両2がバス車両であってバス停41に停車している場合、車両2から降りた乗客116が車両2の極近くを歩いていることが有る。前述のとおり、乗客116と車両2との距離があまりに近い場合、外部センサ8の検出範囲100内に乗客116が入っているとしても、外部センサ8にとって乗客116は検出不能物体となる可能性がある。
乗客116が車両2の近くにいるにも関わらず車両2を発進させることはできない。そこで、車両制御装置10は、車両2の周囲に検出不能物体が認識される場合には、アラーム装置5によって車外にアラームを出す。そして、車両制御装置10は、検出不能物体が車両2と干渉しない位置まで移動したことを確認してから車両2を発進させる。
車両2の発進制御において、車両制御装置10は、前述の手順にて検出不能物体を認識する。ただし、ここでも外部センサ8とはLiDARを意味するものとし、以下の説明では、外部センサをLiDAR8と表記する。
図9Aに示す例では、車両2の前に乗客116が立っており、その後ろに静止物体117が存在する。この場合のLiDAR8の出力画像には、図9Bに示すように、静止物体117をとらえた点群107中に、点群が獲得されていない点群未獲得領域106が現れる。点群未獲得領域106が静止物体117の点群107が得られていない未検出領域であることは、地図情報から判断することができる。静止物体117の点群107中に未検出領域が確認される場合、車両制御装置10は、車両2の前に存在する検出不能物体116を認識する。検出不能物体116が人(乗客)であることは、未検出領域の形状に対してパターンマッチングやディープラーニングなどの物体認識手法を適用することで認識することができる。
図10には、第1実施形態に係る物標検出装置としての車両制御装置10による車両2の発進手順がフローチャートで表されている。このフローチャートでは、検出不能物体の認識手順における処理と同一の処理については、図8のフローチャートと同一のステップ番号が付されている。以下、検出不能物体の認識手順の説明において既に説明した処理については、重ねての説明を省略するか簡略化する。
図10に表されたフローチャートによれば、ステップS102で車両2の周囲に移動物体が検出された場合、車両制御装置10は、検出された移動物体の車両2からの距離が所定距離未満かどうか判定する(ステップS201)。この判定で用いられる所定距離は、車両2が発進した場合に車両の周囲の物体との間で安全を十分に確保できる最低距離に基づいて設定される。移動物体と車両2との距離が所定距離未満の場合、車両制御装置10は、アラーム装置5によってアラームを出し、車両2の近傍の移動物体に対して車両2から離れるように移動を促す(ステップS202)。
検出された移動物体の車両2からの距離が所定距離未満でない場合、車両制御装置10は、ステップS103及びステップS104の処理を行う。ステップS102で移動体が検出されなかった場合にも、手順はステップS201からステップS103及びステップS104に進む。
ステップS104では、LiDAR8により検出された静止物体の像に未検出領域が含まれているかどうか判定される。LiDAR8により検出された静止物体の像に未検出領域が含まれていない場合、LiDAR8の検出範囲内には検出不能物体は存在しないと判断できる。また、ステップS201の判定結果は否定であるので、車両2からの距離が所定距離未満である移動体も存在しない。ゆえに、車両制御装置10は、車両2を発進させることに問題はないと判断し、車両2を発進させる(ステップS204)。
LiDAR8により検出された静止物体の像に未検出領域が含まれている場合、車両制御装置10は、ステップS105の判定を行う。静止物体が検出されていない未検出領域に移動物体の点群が含まれている場合、その点群は、車両2からの距離が所定距離以上である移動体の点群である。つまり、この場合、車両2の周囲に検出不能物体も存在しないし、車両2の発進を妨げる距離にいる移動体も存在しない。ゆえに、車両制御装置10は、車両2を発進させることに問題はないと判断し、車両2を発進させる(ステップS204)。
静止物体が検出されていない未検出領域に移動物体の点群が含まれていない場合、その未検出領域は静止物体と車両との間に存在する検出不能物体によって作られたものである。車両2の周囲に存在する検出不能物体が認識される状況では、車両2を安全に発進させることはできない。この場合、車両制御装置10は、アラーム装置5によってアラームを出し、車両2の近傍の物体に対して車両2から離れるように移動を促す(ステップS202)。
車両2の近傍の物体に対してアラームを出した場合、車両制御装置10は、検出不能物体を含む車両2の近傍の物体が車両2と干渉しない位置まで、すなわち、車両2から所定距離以上離れた位置まで移動したか判定する(ステップS203)。車両2の近傍の物体が車両2と干渉しない位置まで移動するまで、車両制御装置10は、アラーム装置5によってアラームを出し続ける。そして、車両2の近傍の物体が車両2と干渉しない位置まで移動したことが確認されれば、車両制御装置10は、車両2を発進させることに問題はないと判断し、車両2を発進させる(ステップS204)。
1-4.車両の監視者に対する警戒通知への適用
今までの説明では、第1実施形態に係る物標検出装置が適用される車両2は、自律走行する自動運転車両であった。しかし、第1実施形態に係る物標検出装置は、遠隔地から通信ネットワーク経由で遠隔支援される自動運転車両、遠隔地から通信ネットワーク経由で遠隔運転される遠隔運転車両、及び、ドライバによって直接運転される車両にも利用可能である。例えば、物標検出装置によって検出不能物体が認識された場合、検出不能物体の存在を車両の監視者に通知して警戒を促すことができる。ここでいう監視者とは、自動運転車両を遠隔支援する遠隔支援オペレータ、遠隔運転車両を遠隔運転する遠隔ドライバ、或いは、車両に搭乗して車両を直接運転するドライバである。
図11には、第1実施形態に係る物標検出装置を監視者への警戒通知に適用した場合の通知判断の手順がフローチャートで表されている。このフローチャートでは、検出不能物体の認識手順における処理と同一の処理については、図10のフローチャートと同一のステップ番号が付されている。以下、検出不能物体の認識手順の説明において既に説明した処理については、重ねての説明を省略するか簡略化する。
図11に表されたフローチャートによれば、ステップS102で車両2の周囲に移動物体が検出された場合、検出された移動物体の車両2からの距離が所定距離未満かどうか判定される(ステップS301)。この判定で用いられる所定距離は、車両2が発進した場合に車両の周囲の物体との間で安全を十分に確保できる最低距離である。移動物体と車両2との距離が所定距離未満の場合、通知装置を介して車両2の監視者に周囲への警戒が促される(ステップS302)。通知装置としては、例えば、音声で通知するスピーカ、視覚情報で通知するヘッドアップディスプレイ、メーターパネルなどのHMIを用いることができる。
検出された移動物体の車両2からの距離が所定距離未満でない場合、ステップS103及びステップS104の処理が行われる。ステップS104では、LiDAR8により検出された静止物体の像に未検出領域が含まれているかどうか判定される。ステップS104の判定結果が否定の場合、LiDAR8の検出範囲内には検出不能物体は存在しないと判断できる。また、ステップS301の判定結果は否定であるので、車両2からの距離が所定距離未満である移動体も存在しない。ゆえに、この場合、車両2の監視者への警戒通知は行われない。
ステップS104の判定結果が肯定の場合、車両制御装置10は、ステップS105の判定を行う。静止物体が検出されていない未検出領域に移動物体の点群が含まれている場合、その点群は、車両2からの距離が所定距離以上である移動体の点群である。ゆえに、ステップS105の判定結果が否定の場合、車両2の監視者への警戒通知は行われない。
ステップS105の判定結果が肯定の場合、静止物体と車両2との間にLiDAR8で検出できない検出不能物体が存在する。この場合、車両2の周囲に存在する検出不能物体に対して警戒するよう、HMIを介して車両2の監視者に対し警戒通知が行われる(ステップS302)。
2.第2実施形態
2-1.概要
第2実施形態の概要について図12及び図13を用いて説明する。
第1実施形態に係る物標検出装置は、外部センサによる静止物体の検出結果を利用することで、外部センサによって直接検出できない検出不能物体を間接的に認識する。しかし、車両が置かれている環境によっては、利用可能な静止物体が車両の周囲に存在しない場合がある。第2実施形態は、利用可能な静止物体が存在しない場合に検出不能物体を認識可能にする方法の提案である。なお、図12及び図13を用いた第2実施形態の概要の説明では、外部センサとはLiDARを意味するものとする。
第1実施形態でも述べたように、物体からLiDARから物体までの距離が極短い場合、物体から得られた点群とLiDARのセンサノイズとを識別することは難しい。具体的には、図12Aに示すように、物体118がLiDAR8から至近距離の検出不能範囲120内にある場合、LiDAR8は物体118からの有効な点群を得ることはできない。また、車両2の周囲に静止物体が無い場合には、静止物体からの点群を得ることもできない。このため、図12Bに示すように、LiDAR8の出力画像には、点群が得られない点群獲得不能領域109が広がることになる。
しかし、検出不能範囲120はLiDAR8の検出範囲100内にある。このため、物体118は直接的に検出不能範囲120に入るのではなく、図13Aに示すように、検出範囲100内の検出不能範囲120の外側の領域を通って検出不能範囲120に入る。物体118が図13Aに示す位置にいる場合、図13Bに示すようなLiDAR8の出力画像が得られる。つまり、物体118が検出不能範囲120に入る前には、物体118に対応する点群108が得られる。
LiDAR8により物体118が検出されている間は、LiDAR8の出力画像内の点群108の動きから、車両2に対する物体118の移動速度を推定することができる。物体118の移動速度が推定されていれば、図13Bに示すようにLiDAR8の出力画像から点群が消えたとしても、物体118の位置を推定することができる。そして、推定された物体118の位置に基づき、物体118が検出不能範囲120に入っているかどうか判定することができる。つまり、LiDAR8の検出不能範囲120に存在する検出不能物体118を間接的に認識することができる。
2-2.自動運転車両の構成
図14は、第2実施形態に係る物標検出装置が適用された自動運転車両としての車両2の構成を示すブロック図である。第2実施形態では、車両制御装置10は、時系列データベース(時系列DB)29をさらに備える。時系列DB29には、物体検出部24で検出された移動物体の情報が時系列に登録されている。時系列DB29に登録された情報は、検出不能物体認識部25において利用される。
第2実施形態では、検出不能物体認識部25は、物体検出部24で検出された移動物体の位置情報と、時系列DB29に登録された過去フレームでの移動物体の位置及び速度の情報とを用いて、外部センサ8の検出範囲内に存在する検出不能物体を認識する。具体的には、検出不能物体認識部25は、過去フレームにおいて検出され時系列DB29に登録された移動物体が、物体検出部24により今回も検出されたかどうか判定する。そして、過去フレームにおいて検出された移動物体が今回検出されなかった場合、検出不能物体認識部25は、時系列DB29に登録された当該移動物体の速度から、当該移動物体が外部センサ8の検出不能範囲に入ったかどうか判定する。当該移動物体が外部センサ8の検出不能範囲に入っていると推定される場合、検出不能物体認識部25によって検出不能物体が認識される。
2-2.検出不能物体の認識手順
次に、第2実施形態に係る検出不能物体の認識手順について図15を用いて説明する。図15には、第2実施形態に係る物標検出装置としての車両制御装置10による検出不能物体の認識手順がフローチャートで表されている。図15を用いた検出不能物体の認識手順の説明では、外部センサ8とはLiDARを意味するものとする。以下の認識手順の説明では、外部センサをLiDAR8と表記する。
図15に表されたフローチャートによれば、車両制御装置10は、LiDAR8で取得された情報に基づいて車両2の周囲に存在する移動物体を検出する(ステップS401)。車両制御装置10は、ステップS401で移動物体を検出できたかどうか判定し(ステップS402)、移動物体が検出されていればステップS403に進む。
ステップS401で移動物体が検出された場合、車両制御装置10は、時系列DB29を参照し、検出された移動物体の最新の過去フレームにおける位置情報を取得する(ステップS403)。そして、車両制御装置10は、当該移動物体の今回の位置情報と時系列DB29から取得した位置情報とに基づき当該移動物体の速度を推定し(ステップS404)、時系列DB29に登録されている当該移動物体の速度情報を更新する(ステップS405)。ステップS401で検出された移動物体の位置情報が時系列DB29に登録されていない場合は、ステップS404及びステップS405の処理に変えて、時系列DB29への位置情報の登録が行われる。
車両制御装置10は、ステップS401で移動物体が検出されなくなるまで、ステップS401からステップS405までのループを繰り返し実行する。そして、移動物体が検出されなかった場合、車両制御装置10は、ステップS406に進んで次の判定を実行する。なお、図15に表されたフローチャートによれば、LiDAR8による移動物体の検出が一度も行われることなく、ステップS406に進む場合もある。しかし、移動物体が直接、LiDAR8の検出不能範囲、すなわち、LiDAR8が物体からの点群を獲得できない至近距離の範囲に入る可能性は無視してもよい。
ステップS406では、車両制御装置10は、移動物体がLiDAR8の検出不能範囲に進入したかどうか判定する。移動物体が検出不能範囲に進入したかどうかは、時系列DB29に登録されている移動物体の情報、詳しくは、LiDAR8で検出されなくなる直前の移動物体の位置と速度とから判断することができる。例えば、検出されなくなる直前の移動物体の移動方向が検出不能範囲の方向であれば、移動物体は検出不能範囲に進入した可能性が高い。しかし、検出されなくなる直前の移動物体の移動方向がLiDAR8の検出範囲の外方向であれば、移動体はLiDAR8の検出範囲外に出た可能性が高い。
移動物体が検出不能範囲に進入したのであれば、その移動物体はLiDAR8により検出することはできない。ゆえに、移動物体が検出不能範囲に進入したと推定される場合、車両制御装置10は、LiDAR8の検出不能範囲に存在する検出不能物体を認識する(ステップS407)。以上の手順によれば、検出不能物体の認識に利用可能な静止物体が車両2の周囲に存在しない場合に、LiDAR8の検出範囲内での移動物体の動きから、LiDAR8の検出不能範囲に移動した移動物体、すなわち、検出不能物体を認識することができる。
3.その他の実施形態
上述の各実施形態では、外部センサ8がLiDARである例について具体的に説明したが、本発明が適用される物標検出装置においては、外部センサ8はLiDARには限定されない。つまり、外部センサ8は、カメラでもよいし、LiDARとカメラとのフュージョンでもよいし、さらにミリ波レーダを加えたフュージョンでもよい。
例えば、図16は、外部センサ8がカメラである場合において、静止物体115を利用してカメラ8で検出されない検出不能物体を認識する方法を説明するための図である。カメラ8と静止物体115と物体111とが図16Aに示す位置関係にある場合、物体111はカメラ8の検出範囲(画角)130内に入っている。しかし、物体111がカメラ8の極近傍にあるために、物体111の全体をカメラ8の検出範囲130に収めることはできない。
この場合、図16Bに示すように、カメラ8の出力画像には、静止物体115をとらえた画像125の中に、物体111の一部をとらえた画像121が現れる。しかし、物体111の一部のみが写された画像121からは画像認識によって物体111を認識することはできない。よって、画像121は、カメラ8の出力画像の処理において画像認識が不能な画像認識不能領域として扱われる。
画像認識不能領域121が、静止物体115が存在するのにも関わらずその画像125が得られていない未検出領域なのか、そもそも静止物体115が存在しない領域なのかは、地図情報から判断することができる。つまり、地図情報から認識される静止物体と照合することで、カメラ8により検出された静止物体115の像に未検出領域が含まれているかどうか判定することができる。
また、画像認識不能領域121がカメラ8のセンサノイズかどうかは、画像認識不能領域121の画素数から判断することができる。具体的には、画像認識不能領域121が所定画素数以上の画素群に相当する場合、画像認識不能領域121はセンサノイズではなく、静止物体115の画像125が得られていない未検出領域であると判断することができる。
静止物体115の画像125中に未検出領域が確認される場合、静止物体115と車両2との間に存在する検出不能物体111を間接的に認識することができる。以上のように、外部センサ8がカメラである場合であっても、カメラ8で検出される静止物体115を利用してカメラ8で検出されない検出不能物体を認識することができる。
なお、第2実施形態に係る検出不能物体の認識方法をカメラに適用する場合、距離及び速度を測れるステレオカメラが使用される。ただし、物体の速度を計測できるセンサと併用できるのであれば、モノラルカメラであっても使用することができる。
2 車両
5 アラーム装置
8 外部センサ
10 車両制御装置
21 地図データベース
29 時系列データベース
100 検出範囲
101 点群未獲得領域(未検出領域)
102 車両の点群
103 点群未獲得領域(未検出領域)
105 静止物体の点群
111 検出不能物体(極近接物体)
113 検出不能物体(黒色車両)
115 静止物体

Claims (6)

  1. 車両に搭載される物標検出装置であって、
    前記車両の外部状況に関する情報を取得するLiDARと、
    地図情報を記憶した記憶装置と、
    前記LiDARで取得された点群及び前記地図情報を処理する情報処理装置と、を備え、
    前記情報処理装置は、
    前記地図情報に基づき前記LiDARの検出範囲内に存在する道路に沿って設置された静止物体を認識し、
    前記LiDARにより検出された前記静止物体の像を前記地図情報から認識された前記静止物体と照合することによって、前記LiDARにより検出された前記静止物体の像に前記静止物体の点群が獲得されていない未検出領域が含まれているかどうか判定し、
    前記未検出領域が確認された場合、前記LiDARにより検出された移動物体の点群が前記未検出領域に含まれていないか判定し、
    前記移動物体の点群が前記未検出領域に含まれていないことが確認された場合、前記静止物体と前記車両との間に存在する検出不能物体を認識する
    ことを特徴とする物標検出装置。
  2. 請求項1に記載の物標検出装置において
    前記情報処理装置は、
    前記LiDARにより検出された前記静止物体の像に前記静止物体の点群も前記移動物体の点群も獲得されていない点群未獲得領域が含まれ、前記点群未獲得領域が所定点数以上の点群に相当する場合、前記静止物体と前記車両との間に存在する前記検出不能物体を認識する
    ことを特徴とする物標検出装置。
  3. 請求項1又は2に記載の物標検出装置において、
    前記情報処理装置は、
    前記移動物体が前記LiDARの検出範囲から出たことが確認されていないにも関わらず前記LiDARにより検出されない場合、前記LiDARの検出不能範囲に存在する前記検出不能物体を認識する
    ことを特徴とする物標検出装置。
  4. 請求項1乃至3の何れか1項に記載の物標検出装置が搭載された自律走行可能な車両であって、
    前記物標検出装置により検出された前記検出不能物体を含む物標に基づいて前記車両を制御する車両制御装置を備える
    ことを特徴とする車両。
  5. 請求項1乃至3の何れか1項に記載の物標検出装置が搭載された自律走行可能な車両であって、
    前記物標検出装置により前記検出不能物体が認識された場合、発進時に車外に向けてアラームを出すアラーム装置を備える
    ことを特徴とする車両。
  6. 請求項1乃至3の何れか1項に記載の物標検出装置が搭載された車両であって、
    前記物標検出装置により前記検出不能物体が認識された場合、前記検出不能物体の存在を前記車両の監視者に対して通知する通知装置を備える
    ことを特徴とする車両。
JP2020198837A 2020-11-30 2020-11-30 物標検出装置及びそれが搭載された車両 Active JP7384147B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020198837A JP7384147B2 (ja) 2020-11-30 2020-11-30 物標検出装置及びそれが搭載された車両
US17/485,907 US20220171063A1 (en) 2020-11-30 2021-09-27 Target detection apparatus and vehicle having the same mounted thereon
CN202111419767.4A CN114572243A (zh) 2020-11-30 2021-11-26 物标检测装置以及搭载有该物标检测装置的车辆

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020198837A JP7384147B2 (ja) 2020-11-30 2020-11-30 物標検出装置及びそれが搭載された車両

Publications (2)

Publication Number Publication Date
JP2022086686A JP2022086686A (ja) 2022-06-09
JP7384147B2 true JP7384147B2 (ja) 2023-11-21

Family

ID=81751988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020198837A Active JP7384147B2 (ja) 2020-11-30 2020-11-30 物標検出装置及びそれが搭載された車両

Country Status (3)

Country Link
US (1) US20220171063A1 (ja)
JP (1) JP7384147B2 (ja)
CN (1) CN114572243A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11978294B2 (en) * 2020-12-29 2024-05-07 Nanjing Easthouse Electrical Co., Ltd. Multi-factor authentication electronic lock systems and methods of using the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032063A (ja) 2003-07-08 2005-02-03 Nissan Motor Co Ltd 車載用障害物検出装置
JP2009276906A (ja) 2008-05-13 2009-11-26 Panasonic Corp 走行情報提供装置
JP2014016962A (ja) 2012-07-11 2014-01-30 Resonant Systems Inc 車両周辺監視システム
JP2020154983A (ja) 2019-03-22 2020-09-24 トヨタ自動車株式会社 物体認識装置及び車両制御システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032063A (ja) 2003-07-08 2005-02-03 Nissan Motor Co Ltd 車載用障害物検出装置
JP2009276906A (ja) 2008-05-13 2009-11-26 Panasonic Corp 走行情報提供装置
JP2014016962A (ja) 2012-07-11 2014-01-30 Resonant Systems Inc 車両周辺監視システム
JP2020154983A (ja) 2019-03-22 2020-09-24 トヨタ自動車株式会社 物体認識装置及び車両制御システム

Also Published As

Publication number Publication date
CN114572243A (zh) 2022-06-03
US20220171063A1 (en) 2022-06-02
JP2022086686A (ja) 2022-06-09

Similar Documents

Publication Publication Date Title
CN109927719B (zh) 一种基于障碍物轨迹预测的辅助驾驶方法和系统
CN108706009B (zh) 车辆的行驶控制系统
JP4420011B2 (ja) 物体検知装置
JP4561863B2 (ja) 移動体進路推定装置
JP5094658B2 (ja) 走行環境認識装置
JP4615038B2 (ja) 画像処理装置
CN112074885A (zh) 车道标志定位
CN109841088B (zh) 车辆驾驶辅助系统及方法
WO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US20140240502A1 (en) Device for Assisting a Driver Driving a Vehicle or for Independently Driving a Vehicle
US11310269B2 (en) Methods to detect spoofing attacks on automated driving systems
US20180037162A1 (en) Driver assistance system
CN113492846B (zh) 控制装置、控制方法以及存储程序的计算机可读取存储介质
US20180204462A1 (en) Device and method for start assistance for a motor vehicle
JP2017224107A (ja) センタ及び運転支援システム
CN115917616A (zh) 障碍物信息管理装置、障碍物信息管理方法、车辆用装置
JP2008097279A (ja) 車両外部情報表示装置
JP6259680B2 (ja) 安全確認判定装置、及び運転支援装置
JP7384147B2 (ja) 物標検出装置及びそれが搭載された車両
WO2017013692A1 (ja) 走行車線判定装置及び走行車線判定方法
JP6609292B2 (ja) 車外環境認識装置
JP2019206318A (ja) 監視装置
CN111645705A (zh) 一种下发驾驶路线调整的方法和一种服务器
US8681219B2 (en) System and method for driving assistance at road intersections
KR102355426B1 (ko) 주행 경로 상의 장애물 탐색 및 회피를 위한 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R151 Written notification of patent or utility model registration

Ref document number: 7384147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151