JP7005326B2 - 路側物認識装置 - Google Patents

路側物認識装置 Download PDF

Info

Publication number
JP7005326B2
JP7005326B2 JP2017238208A JP2017238208A JP7005326B2 JP 7005326 B2 JP7005326 B2 JP 7005326B2 JP 2017238208 A JP2017238208 A JP 2017238208A JP 2017238208 A JP2017238208 A JP 2017238208A JP 7005326 B2 JP7005326 B2 JP 7005326B2
Authority
JP
Japan
Prior art keywords
reflection point
vehicle
reflection
image
roadside
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017238208A
Other languages
English (en)
Other versions
JP2019106022A (ja
Inventor
昌也 岡田
俊也 熊野
巧 植松
光宏 時政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017238208A priority Critical patent/JP7005326B2/ja
Priority to US16/216,239 priority patent/US11042759B2/en
Publication of JP2019106022A publication Critical patent/JP2019106022A/ja
Application granted granted Critical
Publication of JP7005326B2 publication Critical patent/JP7005326B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、自車両の運転制御に利用するために、自車両の走行経路に存在する路側物を認識する技術に関する。
車両の自動運転では、自車両の走行する走路形状を認識し、認識した走路形状に沿うように走行制御が実行される。走路形状を認識するためには、カメラやレーダー等の各種の車載センサを用いて、走路形状の決定に利用可能な複数の対象物の形状が認識される。このような対象物としては、例えば、白線等の走路区画線(レーンマーカー)や、ガードレール等の路側物がある。
特許文献1には、レーダーを用いて路側物を認識する技術が記載されている。レーダーによる測定では複数の反射点が得られるので、それらの複数の反射点を順次接続することによって路側物の形状を認識できる。但し、反射点としては、路側物以外の物体からの反射点もノイズ点として存在するので、そのようなノイズ点を除外する処理が求められる。特許文献1では、レーダーによって認識された先行車と自車の間にある反射点をノイズ点として除外する技術が開示されている。
特許第5402983号公報
上記先行技術の場合、レーダーによって先行車を検出できない場合にはノイズ点を除外することができない。路側物の形状を認識するためには、種々の状況においてレーダーのノイズ点を除去できる技術が望まれる。
本発明は、上述の課題を解決するためになされたものであり、以下の形態として実現することが可能である。
本発明の一形態によれば、自車両(50)の運転制御に利用するために、前記自車両の走行経路に存在する路側物(RSO,PL)を認識する路側物認識装置(200)が提供される。この路側物認識装置は、電波又は光である電磁波を放射するレーダー(414)を用いて、前記走行経路に存在する物体からの前記電磁波の反射点で構成される反射点群を取得する反射点取得部(222)と;カメラ(412)を用いて前記走行経路の画像を取得する画像取得部(224)と;前記画像の画像処理によって前記路側物の反射点では無い可能性が高いと判定される反射点を前記反射点群から除外することによって、前記反射点群を修正する反射点修正部(226)と;修正された前記反射点群を用いて、前記路側物の形状を認識する形状認識部(228)と;を備える。
第1の形態では、前記反射点修正部は、前記画像において前記自車両の走行路を含む走行路領域を設定し、前記走行路領域に存在する反射点を前記反射点群から除外し、前記反射点修正部は、前記走行路領域を設定するために利用可能な複数の基準物を認識した場合には、前記複数の基準物のうちで前記走行路領域が最も広くなる基準物を使用して前記走行路領域を設定する。
第2の形態では、前記反射点修正部は、前記画像において前記自車両の走行路を含む走行路領域を設定し、前記走行路領域に存在する反射点を前記反射点群から除外し、前記反射点修正部は、前記走行路領域を設定するために利用可能な複数の基準物を認識した場合には、前記複数の基準物で設定される複数の領域の和領域を前記走行路領域として設定する。
第3の形態では、前記反射点修正部は、前記画像に暫定走行区間であることを示す区画線である暫定区画線が含まれる場合に、前記暫定区画線を含む暫定区画線領域以外の領域に存在する反射点を前記反射点群から除外し、前記暫定区画線は白線と黄線の複合線である。
この路側物認識装置によれば、走行経路の画像の画像処理から、路側物では無い可能性が高い反射点を反射点群から除外するので、ノイズ点を適切に除外することができ、路側物を誤認識する可能性を低減できる。
第1実施形態としての自動運転制御システムの構成を示すブロック図。 第1実施形態における走路形状に関連する複数の対象物の例を示す説明図。 カメラで撮影される画像の一例を示す説明図。 路側物認識処理のフローチャート。 走路区画線を利用した走行路領域の設定例を示す説明図。 他車軌跡を利用した走行路領域の設定例を示す説明図。 道路端を利用した走行路領域の設定例を示す説明図。 走路区画線と他車軌跡を利用した走行路領域の設定例を示す説明図。 修正された反射点群から路側物を認識する処理を示す説明図。 認識された上方物体を利用した走行路領域の設定方法の例を示す説明図。 認識された上方物体を利用した走行路領域の設定方法の他の例を示す説明図。 暫定区画線を含む走行路を示す説明図。 暫定区画線を利用した反射点の除外方法を示す説明図。
A. 第1実施形態:
図1に示すように、第1実施形態の車両50は、自動運転制御システム100を備える。自動運転制御システム100は、自動運転ECU200(Electronic Control Unit)と、車両制御部300と、前方検出装置410と、後方検出装置420と、支援情報取得部500と、を備える。なお、本明細書において、車両50を「自車両50」とも呼ぶ。
自動運転ECU200は、CPUとメモリとを含む回路である。自動運転ECU200は、不揮発性記憶媒体に格納されたコンピュータプログラムを実行することによって、自動運転制御部210と、状況認知部220と、の機能をそれぞれ実現する。なお、自動運転ECU200の機能の一部をハードウェア回路で実現するようにしてもよい。
状況認知部220は、前方検出装置410と、後方検出装置420と、支援情報取得部500と、一般センサ類340から提供される各種の情報や検出値を利用して、自車両50及び他車60の走行状況や、周囲の環境を認知する。本実施形態において、状況認知部220は、反射点取得部222と、画像取得部224と、反射点修正部226と、形状認識部228と、走路形状算出部230とを含む。このうち、反射点取得部222と、画像取得部224と、反射点修正部226と、形状認識部228とは、全体として、自車両50の走行経路に存在する路側物を認識する路側物認識装置を構成している。換言すれば、本実施形態において、自動運転ECU200は、路側物認識装置として機能する。
反射点取得部222は、前方検出装置410のレーダー414を用いて、走行経路に存在する物体からの電磁波の反射点で構成される反射点群を取得する。画像取得部224は、カメラ412を用いて走行経路の画像を取得する。反射点修正部226は、カメラ412で撮影された画像の画像処理を行うことによって、路側物の反射点では無い可能性が高いと判定される反射点(ノイズ点)を反射点群から除外し、反射点取得部222で取得された反射点群を修正する。この修正内容については更に後述する。反射点修正部226は、更に、カメラ412で撮影された画像とレーザー414で測定された結果とを利用して、区画線や他の物体を認識する機能も有している。形状認識部228は、反射点修正部226で修正された反射点群を用いて、路側物の形状を認識する。より具体的には、形状認識部228は、ガードレール等の路側物の2次元的な形状を算出する。ここで、「2次元的な形状」とは、自車両50及びその走行経路を平面視したときの形状である。
走路形状算出部230は、形状認識部228で認識された路側物の形状を使用して、自車両50が走行すべき走路形状を算出する。但し、走路形状の算出には、路側物のみでなく、白線等の走路区画線の認識結果も使用することが好ましい。
車両制御部300は、車両50の運転のための各種の制御を実行する部分であり、自動運転と手動運転のいずれの場合にも利用される。車両制御部300は、駆動部制御装置310と、ブレーキ制御装置320と、操舵角制御装置330と、一般センサ類340とを含む。駆動部制御装置310は、車両50の車輪を駆動する駆動部(図示せず)を制御する機能を有する。車輪の駆動部としては、内燃機関と電動モータのうちの1つ以上の原動機を使用可能である。ブレーキ制御装置320は、車両50のブレーキ制御を実行する。ブレーキ制御装置320は、例えば電子制御ブレーキシステム(ECB)として構成される。操舵角制御装置330は、車両50の車輪の操舵角を制御する。「操舵角」とは、車両50の2つの前輪の平均操舵角を意味する。操舵角制御装置330は、例えば電動パワーステアリングシステム(EPS)として構成される。一般センサ類340は、車速センサ342と操舵角センサ344とヨーレートセンサ346を含んでおり、車両50の運転に必要とされる一般的なセンサ類である。一般センサ類340は、自動運転と手動運転のいずれの場合にも利用されるセンサを含んでいる。
前方検出装置410は、車載センサを使用して、自車両50の前方に存在する物体や道路設備(車線、交差点、信号機等)等の各種の対象物に関する情報を取得する。本実施形態において、前方検出装置410は、カメラ412と、レーダー414とを含んでいる。カメラ412としては、単眼カメラや、ステレオカメラを使用可能である。また、カメラ412は、対象物の色(例えば白線の走路区画線と黄線の走路区画線)を区別するために、カラーカメラであることが好ましい。レーダー414としては、光を放射するLIDAR(Light Detection and Ranging)や、電波を放射するレーダー(例えばミリ波レーダー)など、電磁波を放射する各種のレーダーを使用可能である。後方検出装置420は、自車両50の後方に存在する物体や道路設備等の各種の対象物に関する情報を取得する。後方検出装置420も、前方検出装置410と同様な車載センサを含むように構成可能である。
支援情報取得部500は、自動運転のための各種の支援情報を取得する。支援情報取得部500は、GNSS受信機510と、ナビゲーション装置520と、無線通信装置530とを含んでいる。GNSS受信機510は、GNSS(Global Navigation Satellite System)を構成する人工衛星から受信した航法信号に基づいて、自車両50の現在位置(経度・緯度)を測位する。ナビゲーション装置520は、目的地とGNSS受信機510で検出される自車位置とに基づいて、自動運転における走行予定経路を決定する機能を有する。走行予定経路の決定や修正のために、GNSS受信機510に加えて、ジャイロ等の他のセンサを利用してもよい。無線通信装置530は、高度道路交通システム70(Intelligent Transport System)との無線通信によって自車両50の状況や周囲の状況に関する状況情報を交換することが可能であり、また、他車60との車車間通信や、道路設備に設置された路側無線機との路車間通信を行って状況情報を交換することも可能である。支援情報取得部500は、このような無線通信を介して得られる状況情報を利用して、自車の走行状況に関する情報の一部を取得するようにしてもよい。支援情報取得部500によって取得された各種の支援情報は、自動運転ECU200に送信される。
本明細書において「自動運転」とは、ドライバ(運転者)が運転操作を行うことなく、駆動部制御とブレーキ制御と操舵角制御のすべてを自動で実行する運転を意味する。従って、自動運転では、駆動部の動作状態と、ブレーキ機構の動作状態と、車輪の操舵角が、自動的に決定される。「手動運転」とは、駆動部制御のための操作(アクセルペダルの踏込)と、ブレーキ制御のための操作(ブレーキベダルの踏込)と、操舵角制御のための操作(ステアリングホイールの回転)を、ドライバが実行する運転を意味する。
自動運転制御部210は、状況認知部220で認知される各種の状況を使用して、自車両50の自動運転の制御を実行する。具体的には、自動運転制御部210は、駆動部(エンジンやモータ)の動作状態を示す駆動指示値を駆動部制御装置310に送信し、ブレーキ機構の動作状態を示すブレーキ指示値をブレーキ制御装置320に送信し、車輪の操舵角を示す操舵角指示値を操舵角制御装置330に送信する。各制御装置310,320,330は、与えられた指示値に従ってそれぞれの制御対象機構の制御を実行する。なお、自動運転制御部210の各種の機能は、例えばディープラーニングなどの機械学習を利用した人工知能により実現可能である。
自動運転制御システム100は、自動運転ECU200を含む多数の電子機器を有している。これらの複数の電子機器は、CAN(Controller Area Network)などの車載ネットワークを介して互いに接続されている。
図2に示すように、状況認知部220は、自車両50が走行経路SDRに沿って走行している際に、走路形状に関連する複数の対象物を認識することが可能である。ここでは、状況認知部220が認識可能な対象物として、走路の左端LEと、右端REと、走路区画線WL1,WL2,WL3と、路側物RSOとが描かれている。2つの走路区画線WL1,WL3は実線の白線であり、中央の走路区画線WL2は破線の白線である。路側物RSOは、例えばガードレールである。これらの対象物は、カメラ412で撮影された画像や、レーダー414の検出結果を利用して認識することが可能である。自車両50の前方には、先行する他車60が走行している場合がある。このような他車60の存在及びその走行軌跡も、カメラ412で撮影された画像や、レーダー414の検出結果を利用して認識可能である。以下では、自車両50の走路形状を算出するための対象物として、路側物RSOを認識する処理について説明する。なお、路側物としては、ガードレールの他に、路肩の縁石やポール列などの路肩に存在する他の物体も認識することが可能である。
図3に示すように、カメラ412で撮影される画像には、図2に示した走路の左端LE及び右端REと、走路区画線WL1,WL2,WL3と、路側物RSOとが含まれている。この画像には、更に、自車両50よりも上方に存在する上方物体UOBが含まれている。この例では、上方物体UOBは、道路標識である。但し、上方物体UOBとしては、オーバーパスや歩道橋などの高架が画像に含まれる可能性がある。なお、「自車両50よりも上方」とは、自車両50の直上に存在することは必要でなく、自車両50よりも鉛直方向の位置が高いことを意味している。路側物RSOと上方物体UOBについては、レーダー414が、その電磁波の反射点を検出できる。従って、反射点取得部222は、路側物RSOの反射点のみでなく、上方物体UOBの反射点を含む反射点群を取得する可能性がある。
上方物体UOBの反射点は、路側物RSOを認識する際にはノイズとなるので、上方物体UOBの反射点は反射点群から除外したい。第1実施形態では、カメラ412で撮影した画像において、自車両50の走行路を含む走行路領域を設定し、その走行路領域内に存在する反射点を反射点群から除外する。この処理の内容は後述する。
図4に示すように、路側物RSOを認識する処理では、まずステップS110において、反射点取得部222が、レーダー414の検出結果から反射点群を取得する。上述したように、この反射点群には、路側物RSOの反射点のみでなく、上方物体UOBの反射点を含み得る。
ステップS120では、画像取得部224が、カメラ412を用いて走行経路の画像を取得する。この画像は、例えば、前述した図3のような画像である。
ステップS130では、反射点修正部226が、カメラ412で撮影した画像の画像処理により、路側物RSOでない可能性の高い反射点を除外して反射点群を修正する。なお、レーダー414による測定で得られた反射点の位置は、予め定められた座標変換行列によって、カメラ412で撮影した画像内の位置に変換される。ステップS130の処理として、第1実施形態では、画像処理によって自車両50の走行路を含む走行路領域を設定し、その走行路領域内に存在する反射点は、路側物RSOでない可能性が高いものと判定して反射点群から除外する。この処理では、例えば、以下に示す3つの方法のうちの1つ以上を使用可能である。
<方法1(図5)>走路区画線WL1~WL3を基準として自車両50の走行路領域RLA1を設定し、走行路領域RLA1に存在する反射点RP8,RP9を反射点群から除外する。
<方法2(図6)>先行する他車61の軌跡を基準として自車両50の走行路領域RLA2を設定し、走行路領域RLA2に存在する反射点RP8,RP9を反射点群から除外する。
<方法3(図7)>道路端REを基準として自車両50の走行路領域RLA3を設定し、走行路領域RLA3に存在する反射点RP8,RP9を反射点群から除外する。
なお、以下では、認識対象の路側物RSOが自車両50の右側に存在する場合について、上記方法1~3の具体例を説明する。路側物RSOが自車両50の左側に存在する場合には、以下の説明における「左」と「右」を逆にすれば同様の説明が成立する。
図5の例では、カメラ412で撮影された画像の画像処理によって、走路区画線WL1~WL3が認識されている。この場合には、自車両50の右側に認識されている走路区画線のうちで最も右に存在する走路区画線WL1よりも左側の領域を走行路領域RLA1として設定する。走行路領域RLA1には砂目のハッチングが付されている。このとき、反射点修正部226は、走行路領域RLA1に存在する反射点RP8,RP9を反射点群から除外する。こうすれば、路側物RSOの反射点RP1~RP7で構成される反射点群を正しく認識できる。
なお、図5において、自車両50の基準位置を原点として、車幅方向をX軸とし、X軸に垂直な方向をY軸とする2次元座標系が描かれている。車幅方向Xを「横方向」とも呼ぶ。反射点の位置は、XY座標値で規定される。また、走路区画線WL1~WL3は、XY座標系における2次元的な形状として認識される。これは、後述する他車走行軌跡や道路端も同様である。
図6の例では、カメラ412で撮影された画像の画像処理によって、先行する他車61,62が1台以上認識されている。この場合には、自車両50の右側に認識されている他車のうち、最も右に存在する他車61の軌跡の右端位置よりも左側を走行路領域RLA2として設定する。なお、「自車両50の右側に認識されている他車61」とは、その車両の左右の中心線が自車両50の左右の中心線よりも右側に存在する車両を意味する。また、「他車61の軌跡」とは、走行中の他車61の右端OVEの軌跡であり、時系列的に撮影された複数の画像から認識される軌跡を意味する。他車61の軌跡を用いて走行路領域RLA2を設定する場合には、自車両50の進行方向に沿った走行路領域RLA2の範囲は、他車61の後端までの位置に設定することが好ましい。反射点修正部226は、走行路領域RLA2に存在する反射点RP8,RP9を反射点群から除外する。こうすれば、路側物RSOの反射点RP1~RP7で構成される反射点群を正しく認識できる。
図7の例では、カメラ412で撮影された画像の画像処理によって、道路端LE,REが認識されている。この場合には、自車両50の右側に認識されている道路端REよりも左側を走行路領域RLA3として設定する。反射点修正部226は、走行路領域RLA3に存在する反射点RP8,RP9を反射点群から除外する。こうすれば、路側物RSOの反射点RP1~RP7で構成される反射点群を正しく認識できる。
図8の例では、図5(方法1)で使用された基準物である走路区画線WL1と、図6(方法2)で使用された基準物である他車61の軌跡とが認識されている。このように、走行路領域を設定するために利用可能な基準物が複数存在する場合には、それらの複数の基準物のうちで走行路領域が最も広くなる基準物を使用して走行路領域を設定することが好ましい。すなわち、図8の例では、自車両50の右側に認識されている走路区画線のうちで最も右に存在する走路区画線WL1よりも左側の領域(図5のRLA1)と、自車両50の右側に認識されている他車61のうち、最も右に存在する他車61の軌跡より左側である領域(図6のRLA2)のうち、より広い領域を走行路領域RLA4として設定する。この場合にも、反射点修正部226は、走行路領域RLA4に存在する反射点RP8,RP9を反射点群から除外する。こうすれば、路側物RSOの反射点RP1~RP7で構成される反射点群を正しく認識できる。
各基準物に対応する走行路領域は、各基準物毎に予め定められたルールに従ってそれぞれ決定される。なお、図8の例において、複数の基準物を用いて設定される複数の走行路領域RLA1,RLA2のうちの最も広い領域を走行路領域RLA4として選択する代わりに、それらの領域RLA1,RLA2の和領域を、反射点の除外に使用する走行路領域として設定するようにしてもよい。
上述した図5~図8では、カメラ412で撮影した画像の画像処理によって自車両50の走行路を含む走行路領域を設定し、その走行路領域に存在する反射点は路側物RSOでない可能性が高いものと判定して反射点群から除外している。但し、走行路領域を設定する方法以外の方法で、路側物RSOの反射点では無い可能性が高いと判定される反射点を選択して除外するようにしてもよい。例えば、図3から理解できるように、カメラ412で撮影した画像の中で、路側物RSOは、画面の左辺又は右辺から画像内の消失点に向かう物体である場合が多いので、このような物体の反射点である可能性の低い反射点を反射点群から除外するようにしてもよい。
図9に示すように、反射点群RP1~RP9から不要な反射点RP8,RP9を除外することによって反射点群が修正されると、図4のステップS140において、形状認識部228が、修正された反射点群RP1~RP7を使用して路側物RSOの形状を認識する。具体的には、修正された反射点群RP1~RP7を順次接続することによって、路側物RSOの2次元形状を認識する。反射点群から路側物RSOの形状を認識する技術は周知なので、ここではその詳細は省略する。
ステップS150では、走路形状算出部230が、認識された路側物RSOを使用して走路形状を算出する。具体的には、路側物RSOや他の対象物(走路区画線WL1~WL3等)の形状から、自車両50が走行すべき走路形状を算出する。自動運転制御部210は、こうして算出された走路形状を使用して、自車両50の自動運転を実行する。
以上のように、第1実施形態では、カメラ412で撮影された画像の画像処理によって路側物RSOの反射点では無い可能性が高いと判定される反射点を、反射点群から除外することによって反射点群を修正し、修正された反射点群を用いて路側物RSOの形状を認識する。すなわち、第1実施形態では、走行経路の画像の画像処理の結果を用いて路側物RSOでは無い可能性が高い反射点を反射点群から除外するので、ノイズ点を適切に除去することができ、路側物RSOの形状を誤認識する可能性を低減できる。
B. 第2実施形態:
第2実施形態では、カメラ412で撮影された画像の画像処理によって、画像内の物体が上方物体UOB(図3)であると認識された場合に、上述した第1実施形態の処理(図5~図8)に加えて、以下の図10に示す処理を実行する。
なお、画像内の自車両50の上方物体UOBを認識する方法としては、例えば、予め登録された多数の上方物体のテンプレート画像とのパターンマッチング、或いは、機械学習済の人工知能を利用して画像内の物体を認識し、その物体が画像の消失点よりも上方に存在すれば、上方物体と認識することができる。また、GNSS信号が検出できない場合は、オーバーパスやトンネルの天井等の上方構造物が存在する可能性が高いため、上方構造物が存在すると判定してもよい。ただし、後者の場合は、後述する通り、予め設定した距離(例えば50m~60mの範囲の値)以遠の領域を上方物体領域UA1として設定することが好ましい。
図10に示すように、画像内の物体が自車両50の上方物体UOBであると認識された場合には、上方物体UOBが存在すると想定される上方物体領域UA1を設定し、上方物体領域UA1に存在する反射点RPa,RP8,RP9を反射点群から除外する。図10には、図5の処理で設定された走行路領域RLA1も示されている。図10の処理によって反射点群から除外された3つの反射点RPa,RP8,RP9のうち、反射点RPaは走行路領域RLA1の外側にあるので、図5の処理では除外できない。この反射点RPaは、例えば、図3に示す画像の上方物体UOBの柱からの電磁波の反射に相当する。このような場合にも、上方物体UOBが存在すると想定される上方物体領域UA1を設定して、上方物体領域UA1に存在する反射点RPa,RP8,RP9を反射点群から除外すれば、路側物RSOの形状をより正しく認識することが可能である。
上方物体UOBが存在すると想定される上方物体領域UA1は、種々の方法で設定可能である。第2実施形態において、上方物体領域UA1は、上方物体UOBが存在すると算出又は推定される位置以遠の領域として設定される。例えば、カメラ412がステレオカメラであれば、自車両50から上方物体UOBの距離をステレオカメラの画像から算出し、算出された距離以遠の領域を上方物体領域UA1として設定することが可能である。また、カメラ412が単眼カメラである場合には、カメラ412で撮影された画像内の上方物体UOBの座標と、レーダー414で測定された上方物体UOBの反射点の座標及び距離から、上方物体UOBの距離を推定し、その距離以遠の領域を上方物体領域UA1として設定することが可能である。或いは、上方物体UOBが存在する位置を算出又は推定できない場合には、予め設定した距離(例えば50m~60mの範囲の値)以遠の領域を上方物体領域UA1として設定してもよい。
このように、第2実施形態では、自車両50の走行路の上方に存在すると認識される上方物体UOB(例えば行先案内標識や高架道路)が画像に含まれる場合に、上方物体UOBが存在すると想定される上方物体領域UA1を設定し、その上方物体領域UA1に存在する反射点を反射点群から除外するので、上方物体OUBを路側物RSOと誤認識する可能性を低減できる。
C. 第3実施形態:
第3実施形態では、カメラ412で撮影された画像の画像処理によって、画像内の物体が上方物体UOB(図3)であると認識された場合に、上述した第1実施形態の処理(図5~図8)に加えて、以下の図11に示す処理を実行する。この図11の処理は、図10と処理と同様に、上方物体UOBが存在すると想定される上方物体領域UA2を設定し、上方物体領域UA2に存在する反射点RPa,RP8,RP9を反射点群から除外する処理である。第3実施形態が第2実施形態と異なる点は、上方物体領域UA2の設定方法である。
図11に示すように、第3実施形態において、上方物体領域UA2は、上方物体UOBが存在すると算出又は推定される位置から予め定めた距離の範囲内の領域として設定される。例えば、カメラ412がステレオカメラであれば、上方物体UOBの位置をステレオカメラの画像から算出し、その位置から予め定めた距離(例えば2m)の範囲内の領域を上方物体領域UA2として設定することが可能である。また、カメラ412が単眼カメラである場合には、カメラ412で撮影された画像内の上方物体UOBの座標と、レーダー414で測定された上方物体UOBの反射点の座標及び距離から、上方物体UOBの3次元的な位置を推定し、その位置から予め定めた距離の範囲内の領域を上方物体領域UA2として設定することが可能である。この第3実施形態によっても、第2実施形態と同様の効果を奏することが可能である。
D. 第4実施形態:
図12に示す例では、走行経路SDRに暫定区画線TLMが含まれている。暫定区画線TLMは、その区間が暫定走行区間であることを示す区画線である。暫定区画線TLMは、例えば白線と黄線の複合線として路面に描かれる。また、暫定区画線TLMの領域内には、ポール列PLが配置されることが多い。反射点修正部226が暫定区画線TLMを認識する際には、区画線が白線と黄色線の複合線であるという特徴の他に、他の特徴(左側が白線の実線であること、車線幅が狭いこと、縦に並んだエッジ点群(ポール列PL等の点群)が連続すること、等)を用いて認識を実行することが可能である。第4実施形態では、このポール列PLを路側物として認識する場合の処理について説明する。
図13に示す例では、レーダー414によって得られる反射点群に、図12のポール列PLに相当する反射点RP11~RP18と、他の路側物から得られる反射点RP*とが含まれている。反射点修正部226は、カメラ412で撮影された画像に暫定区画線TLMが含まれるか否かを判定し、暫定区画線TLMが含まれると判定された場合には、暫定区画線TLMを含む暫定区画線領域TLA以外の領域RLA7を設定する。なお、暫定区画線領域TLAは、例えば、暫定区画線TLMに外接する領域として設定することができ、或いは、暫定区画線TLMに外接する領域の外側に予め定めた幅(例えば40cm~60cm)のマージンを取った領域とすることも可能である。反射点修正部226は、この領域RLA7に存在する反射点RP*を反射点群から除外する。
このように、カメラ412で撮影された画像に暫定区画線TLMが含まれる場合に、暫定区画線TLM以外の領域RLA7に存在する反射点RP*を反射点群から除外するようにすれば、暫定区画線TLMの領域に含まれるポール列PLなどの路側物を正しく認識することが可能である。この処理は、特に、トンネル内などのように反射点のノイズが多い場所において、暫定区画線TLMの領域に含まれる路側物を正しく認識できる点での効果が顕著である。なお、第4実施形態における反射点群の修正も、画像の画像処理によって路側物の反射点では無い可能性が高いと判定される反射点を反射点群から除外する処理の一種である。
本発明は上述した実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の形態において実施することが可能である。
50…自車両、200…自動運転ECU(路側物認識装置)、222…反射点取得部、224…画像取得部、226…反射点修正部、228…形状認識部、412…カメラ、414…レーダー

Claims (5)

  1. 自車両(50)の運転制御に利用するために、前記自車両の走行経路に存在する路側物(RSO,PL)を認識する路側物認識装置(200)であって、
    電波又は光である電磁波を放射するレーダー(414)を用いて、前記走行経路に存在する物体からの前記電磁波の反射点で構成される反射点群を取得する反射点取得部(222)と、
    カメラ(412)を用いて前記走行経路の画像を取得する画像取得部(224)と、
    前記画像の画像処理によって前記路側物の反射点では無い可能性が高いと判定される反射点を前記反射点群から除外することによって、前記反射点群を修正する反射点修正部(226)と、
    修正された前記反射点群を用いて、前記路側物の形状を認識する形状認識部(228)と、
    を備え
    前記反射点修正部は、前記画像において前記自車両の走行路を含む走行路領域を設定し、前記走行路領域に存在する反射点を前記反射点群から除外し、
    前記反射点修正部は、前記走行路領域を設定するために利用可能な複数の基準物を認識した場合には、前記複数の基準物のうちで前記走行路領域が最も広くなる基準物を使用して前記走行路領域を設定する、路側物認識装置。
  2. 自車両(50)の運転制御に利用するために、前記自車両の走行経路に存在する路側物(RSO,PL)を認識する路側物認識装置(200)であって、
    電波又は光である電磁波を放射するレーダー(414)を用いて、前記走行経路に存在する物体からの前記電磁波の反射点で構成される反射点群を取得する反射点取得部(222)と、
    カメラ(412)を用いて前記走行経路の画像を取得する画像取得部(224)と、
    前記画像の画像処理によって前記路側物の反射点では無い可能性が高いと判定される反射点を前記反射点群から除外することによって、前記反射点群を修正する反射点修正部(226)と、
    修正された前記反射点群を用いて、前記路側物の形状を認識する形状認識部(228)と、
    を備え
    前記反射点修正部は、前記画像において前記自車両の走行路を含む走行路領域を設定し、前記走行路領域に存在する反射点を前記反射点群から除外し、
    前記反射点修正部は、前記走行路領域を設定するために利用可能な複数の基準物を認識した場合には、前記複数の基準物で設定される複数の領域の和領域を前記走行路領域として設定する、路側物認識装置。
  3. 請求項1又は2に記載の路側物認識装置であって、
    前記反射点修正部は、前記自車両の走行路の上方に存在すると認識される上方物体が前記画像に含まれる場合には、前記上方物体が存在すると想定される上方物体領域を設定し、前記上方物体領域に存在する反射点を前記反射点群から除外する、路側物認識装置。
  4. 請求項1~のいずれか一項に記載の路側物認識装置であって、
    前記反射点修正部は、前記画像に暫定走行区間であることを示す区画線である暫定区画線が含まれる場合に、前記暫定区画線を含む暫定区画線領域以外の領域に存在する反射点を前記反射点群から除外する、路側物認識装置。
  5. 自車両(50)の運転制御に利用するために、前記自車両の走行経路に存在する路側物(RSO,PL)を認識する路側物認識装置(200)であって、
    電波又は光である電磁波を放射するレーダー(414)を用いて、前記走行経路に存在する物体からの前記電磁波の反射点で構成される反射点群を取得する反射点取得部(222)と、
    カメラ(412)を用いて前記走行経路の画像を取得する画像取得部(224)と、
    前記画像の画像処理によって前記路側物の反射点では無い可能性が高いと判定される反射点を前記反射点群から除外することによって、前記反射点群を修正する反射点修正部(226)と、
    修正された前記反射点群を用いて、前記路側物の形状を認識する形状認識部(228)と、
    を備え
    前記反射点修正部は、前記画像に暫定走行区間であることを示す区画線である暫定区画線が含まれる場合に、前記暫定区画線を含む暫定区画線領域以外の領域に存在する反射点を前記反射点群から除外し、
    前記暫定区画線は白線と黄線の複合線である、路側物認識装置。
JP2017238208A 2017-12-13 2017-12-13 路側物認識装置 Active JP7005326B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017238208A JP7005326B2 (ja) 2017-12-13 2017-12-13 路側物認識装置
US16/216,239 US11042759B2 (en) 2017-12-13 2018-12-11 Roadside object recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017238208A JP7005326B2 (ja) 2017-12-13 2017-12-13 路側物認識装置

Publications (2)

Publication Number Publication Date
JP2019106022A JP2019106022A (ja) 2019-06-27
JP7005326B2 true JP7005326B2 (ja) 2022-01-21

Family

ID=66696976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017238208A Active JP7005326B2 (ja) 2017-12-13 2017-12-13 路側物認識装置

Country Status (2)

Country Link
US (1) US11042759B2 (ja)
JP (1) JP7005326B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11891067B2 (en) * 2019-12-11 2024-02-06 Electronics And Telecommunications Research Institute Vehicle control apparatus and operating method thereof
CN111257881A (zh) * 2020-03-02 2020-06-09 上海神添实业有限公司 一种动态道路交会场景目标车辆散射建模方法
CN113468922B (zh) * 2020-03-31 2023-04-18 宇通客车股份有限公司 一种基于雷达点云的道路边界识别方法及装置
WO2023152871A1 (ja) * 2022-02-10 2023-08-17 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
JP7273438B1 (ja) 2022-07-13 2023-05-15 株式会社岩崎 鮮明化装置、鮮明化プログラムおよび鮮明化方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084064A (ja) 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法
WO2012059955A1 (ja) 2010-11-04 2012-05-10 トヨタ自動車株式会社 道路形状推定装置
JP2017208040A (ja) 2016-05-20 2017-11-24 トヨタ自動車株式会社 移動体の自動運転制御システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5316471B2 (ja) * 2010-04-27 2013-10-16 株式会社デンソー 物体認識装置、及びプログラム
KR101030763B1 (ko) * 2010-10-01 2011-04-26 위재영 이미지 획득 유닛, 방법 및 연관된 제어 유닛
JP5402983B2 (ja) 2011-05-17 2014-01-29 株式会社デンソー 車両用道路形状認識方法及び装置、記録媒体
US10254121B2 (en) * 2017-01-23 2019-04-09 Uber Technologies, Inc. Dynamic routing for self-driving vehicles
US10354368B2 (en) * 2017-07-31 2019-07-16 GM Global Technology Operations LLC Apparatus and method for hybrid ground clearance determination

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084064A (ja) 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法
WO2012059955A1 (ja) 2010-11-04 2012-05-10 トヨタ自動車株式会社 道路形状推定装置
JP2017208040A (ja) 2016-05-20 2017-11-24 トヨタ自動車株式会社 移動体の自動運転制御システム

Also Published As

Publication number Publication date
JP2019106022A (ja) 2019-06-27
US11042759B2 (en) 2021-06-22
US20190180117A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
JP7005326B2 (ja) 路側物認識装置
US11313976B2 (en) Host vehicle position estimation device
JP6663406B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US9898005B2 (en) Driving path determination for autonomous vehicles
US9483059B2 (en) Method to gain driver's attention for autonomous vehicle
US11157751B2 (en) Traffic guide object recognition device, traffic guide object recognition method, and storage medium
US10890453B2 (en) Vehicle localization device
GB2551884A (en) Vehicle lane map estimation
US10325163B2 (en) Vehicle vision
GB2613692A (en) Systems and methods for vehicle navigation
JP7469896B2 (ja) 周辺認識装置、周辺認識方法、およびプログラム
WO2018066133A1 (ja) 車両判定方法、走行経路補正方法、車両判定装置、及び走行経路補正装置
JP2020060369A (ja) 地図情報システム
JP6827026B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP2020087191A (ja) 車線境界設定装置、車線境界設定方法
JP7043765B2 (ja) 車両走行制御方法及び装置
US12065132B2 (en) Methods and systems for inferring unpainted stop lines for autonomous vehicles
JP2019148889A (ja) 道路境界検出装置
JP2021064056A (ja) ゼブラゾーン認識装置、車両制御装置、ゼブラゾーン認識方法、およびプログラム
JP7216695B2 (ja) 周囲車両監視装置及び周囲車両監視方法
CN114926805A (zh) 划分线识别装置
CN111766601A (zh) 识别装置、车辆控制装置、识别方法及存储介质
JP7543196B2 (ja) 走行制御装置
US20220276069A1 (en) Map generation apparatus
JP7040995B2 (ja) 信頼度算出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220105

R150 Certificate of patent or registration of utility model

Ref document number: 7005326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150