JP2021120255A - 距離推定装置及び距離推定用コンピュータプログラム - Google Patents

距離推定装置及び距離推定用コンピュータプログラム Download PDF

Info

Publication number
JP2021120255A
JP2021120255A JP2020014050A JP2020014050A JP2021120255A JP 2021120255 A JP2021120255 A JP 2021120255A JP 2020014050 A JP2020014050 A JP 2020014050A JP 2020014050 A JP2020014050 A JP 2020014050A JP 2021120255 A JP2021120255 A JP 2021120255A
Authority
JP
Japan
Prior art keywords
distance
feature
moving object
vehicle
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020014050A
Other languages
English (en)
Other versions
JP7067574B2 (ja
Inventor
宏次朗 立石
Kojiro Tateishi
宏次朗 立石
一志 田中
Kazushi Tanaka
一志 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020014050A priority Critical patent/JP7067574B2/ja
Priority to US17/160,761 priority patent/US11663808B2/en
Publication of JP2021120255A publication Critical patent/JP2021120255A/ja
Application granted granted Critical
Publication of JP7067574B2 publication Critical patent/JP7067574B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Navigation (AREA)

Abstract

【課題】地物と移動物体との間の距離を正しく推定できる距離推定装置を提供する。
【解決手段】距離推定装置は、第1及び第2センサを用いて取得された移動物体の周囲の第1及び第2領域内の地物を表す第1及び第2データから、移動物体と右側地物との間の第1及び第2右側距離と、移動物体と左側地物との間の第1及び第2左側距離を算出する第1及び第2距離算出部と、移動物体の現在位置の右側地物と左側地物との間の参照地物間距離を求め、第1右側距離と第1左側距離との和である第1地物間距離と参照距離との差に基づいて推定誤差を求め、参照距離と最も近い、推定誤差で補正された第1右側距離又は第2右側距離と推定誤差で補正された第1左側距離又は第2左側距離との組み合わせごとに得られる右側地物と左側地物との間の地物間距離となる組み合わせの右側及び左側距離を、現在位置における移動物体と右側地物との間の距離及び移動物体と左側地物との間の距離として推定する。
【選択図】図3

Description

本発明は、距離推定装置及び距離推定用コンピュータプログラムに関する。
車両の運転支援又は自動運転制御に利用するために、車両の位置を推定することが研究されている。
車両に搭載されたカメラを用いて車両の前方の画像を取得して画像内の車線区画線を認識し、左右の車線区画線に対する車両の位置を求めることにより、道路上における車両の進行方向と直交する横方向の位置を推定することが行われている。
例えば、特許文献1に記載の区画線認識装置は、車両の左側の情報を取得するレーザレンジファンイダと、右側の情報を取得するレーザレンジファインダと、車両の左右に存在する区画線の間隔である車線幅を算出する車線幅算出部と、車両の幅を記憶する記憶部と、車両から左区画線候補までの距離と、車両から右区画線候補までの距離と、車両の幅と、車線幅とに基づき、左区画線位置算出部が検出した左区画線候補および右区画線位置算出部が検出した右区画線候補が、車両の左右の区画線か否かを判断する区画線判定部とを有する。この区画線判定部は、車両の左側にある複数の区画線の何れかと右側にある複数の区画線の何れかとの組み合わせごとに、車両の左右の区画線候補が、車両が走行する車線の区画線であるか否かを判定する。
特開2017−59003号公報
レーザレンジファイダが車両へ取り付けられる位置(例えば、高さ)及び姿勢はあらかじめ決められており、レーザレンジファイダの光軸方向及び取り付け位置などの設置位置情報と、レーザレンジファイダの測定結果とを用いて、車両から左右区画線候補までの距離が算出される。
しかし、車両に搭乗する人の数、または、トランクに積載される荷物の重さによって、車両の高さまたは姿勢が変化するので、車両に搭載されたセンサの位置又は姿勢は変化し得る。また、レーザレンジファイダなどのセンサが車両へ取り付けられる位置又は姿勢には、取り付け作業に起因して誤差が生じる場合がある。
センサが車両へ搭載される位置又は姿勢が、設置位置情報に対して変化している場合、この設置位置情報を用いて、車両から左右区画線候補までの距離を算出すると、正しい距離を算出できないおそれがある。
そこで、本発明は、移動物体の周囲の地物と移動物体との間の距離を正しく推定できる距離推定装置を提供することを目的とする。
一の実施形態によれば、距離推定装置を提供される。この距離推定装置は、地物の位置を表す位置情報を記憶する記憶部と、移動物体に取り付けられた第1センサを用いて取得された当該移動物体の周囲の第1の所定の領域内の地物を表す第1領域データから、移動物体と、移動物体の右側に位置する右側地物との間の第1右側距離と、移動物体と、移動物体の左側に位置する左側地物との間の第1左側距離とを算出する第1距離算出部と、移動物体に取り付けられた第2センサを用いて取得された当該移動物体の周囲の第2の所定の領域内の地物を表す情報を有する第2領域データから、移動物体と、移動物体の右側に位置する右側地物との間の第2右側距離と、移動物体と、移動物体の左側に位置する左側地物との間の第2左側距離とを算出する第2距離算出部と、移動物体の現在位置を測位する測位部により求められた当該移動物体の現在位置と、記憶部に記憶される地物の位置情報とに基づいて、現在位置における移動物体の右側に位置する右側地物と移動物体の左側に位置する左側地物との間の参照地物間距離を求める地物間距離算出部と、第1右側距離と第1左側距離との和である第1地物間距離と、参照地物間距離との差に基づいて、第1地物間距離の第1推定誤差を求める誤差推定部と、第1推定誤差を用いて、第1右側距離及び第1左側距離を補正する補正部と、補正された第1右側距離又は第2右側距離の何れかと、補正された第1左側距離又は第2左側距離の何れかとの組み合わせごとに得られる、移動物体の右側に位置する右側地物と移動物体の左側に位置する左側地物との間のセンサ地物間距離と参照地物間距離とを比較して、最も参照地物間距離と近いセンサ地物間距離となる組み合わせに含まれる右側距離及び左側距離を、現在位置における移動物体と右側地物との間の距離及び移動物体と左側地物との間の距離として推定する距離推定部と、を有する。
この距離推定装置において、誤差推定部は、過去の一連の第1地物間距離と参照地物間距離との差を予測フィルタに入力して、現時点の第1地物間距離の推定誤差を求めることが好ましい。
また、この距離推定装置において、距離推定部は、過去の推定結果に基づいて、第1右側距離の信頼度、第1左側距離の信頼度、第2右側距離の信頼度及び第2左側距離の信頼度を決定し、第1推定誤差を用いて補正された第1右側距離、又は第2右側距離の何れかと、第1推定誤差を用いて補正された第1左側距離又は第2左側距離の何れかとの組み合わせごとに、当該組み合わせに含まれる右側距離の信頼度及び左側距離の信頼度の和が大きい程且つセンサ地物間距離と参照地物間距離との差が小さい程、大きくなるように評価値を算出し、当該評価値が最大となる組み合わせに含まれる右側距離と左側距離とを、現在位置における移動物体と右側地物との間の距離及び移動物体と左側地物との間の距離として推定することが好ましい。
また、この距離推定装置において、第1センサが第1領域データを取得した時刻と、第2センサが第2領域データを取得した時刻とは一致していることが好ましい。
また、他の実施形態によれば、距離推定用コンピュータプログラムを提供される。この距離推定用コンピュータプログラムは、移動物体に取り付けられた第1センサを用いて取得された当該移動物体の周囲の第1の所定の領域内の地物を表す第1領域データから、移動物体と、移動物体の右側に位置する右側地物との間の第1右側距離と、移動物体と、移動物体の左側に位置する左側地物との間の第1左側距離とを算出し、移動物体に取り付けられた第2センサを用いて取得された当該移動物体の周囲の第2の所定の領域内の地物を表す情報を有する第2領域データから、移動物体と、移動物体の右側に位置する右側地物との間の第2右側距離と、移動物体と、移動物体の左側に位置する左側地物との間の第2左側距離とを算出し、移動物体の現在位置を取得する測位部により求められた当該移動物体の現在位置と、地物の位置情報を記憶する記憶部に記憶される地物の位置情報とに基づいて、現在位置における移動物体の右側に位置する右側地物と移動物体の左側に位置する左側地物との間の参照地物間距離を求め、第1右側距離と第1左側距離との和である第1地物間距離と、参照地物間距離との差に基づいて、第1地物間距離の第1推定誤差を求め、第1推定誤差を用いて、第1右側距離及び第1左側距離を補正し、補正された第1右側距離又は第2右側距離の何れかと、補正された第1左側距離又は第2左側距離の何れかとの組み合わせごとに得られる、移動物体の右側に位置する右側地物と移動物体の左側に位置する左側地物との間のセンサ地物間距離と参照地物間距離とを比較して、最も参照地物間距離と近いセンサ地物間距離となる組み合わせに含まれる右側距離及び左側距離を、現在位置における移動物体と右側地物との間の距離及び移動物体と左側地物との間の距離として推定する、ことをプロセッサに実行させる。
本発明に係る距離推定装置は、移動物体の周囲の地物と移動物体との間の距離を正しく推定できるという効果を奏する。
距離推定装置が実装される車両制御システムの概略構成図である。 距離推定装置の一つの実施形態である電子制御装置のハードウェア構成図である。 距離推定装置を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。 第1距離算出部の処理を説明する図である。 第2距離算出部の処理を説明する図である。 第3距離算出部の処理を説明する図である。 誤差推定部の処理を説明する図(その1)である。 誤差推定部の処理を説明する図(その2)である。 距離推定部の処理を説明する図である。 距離推定処理を含む、車両制御システムの動作フローチャート(その1)である。 距離推定処理を含む、車両制御システムの動作フローチャート(その2)である。
以下、図を参照しつつ、距離推定装置について説明する。この距離推定装置は、移動物体に取り付けられたカメラなどの第1センサを用いて取得された移動物体の周囲の第1の所定の領域内の地物を表す第1領域データから、移動物体と、移動物体の右側に位置する右側地物との間の第1右側距離と、移動物体と、移動物体の左側に位置する左側地物との間の第1左側距離とを算出する。また、距離推定装置は、移動物体に取り付けられた第2センサを用いて取得された移動物体の周囲の第2の所定の領域内の地物を表す第2領域データから、移動物体と、移動物体の右側に位置する右側地物との間の第2右側距離と、移動物体と、移動物体の左側に位置する左側地物との間の第2左側距離とを算出する。第1センサと第2センサとは異なっていてもよいし、同じであってもよい。第1センサと第2センサとが同じ場合、距離推定装置は、第2右側距離を第1右側距離とは異なるアルゴリズムを用いて算出することが好ましい。さらに、距離推定装置は、移動物体の現在位置を取得する測位部により求められた移動物体の現在位置と、記憶部に記憶される地物の位置を表す位置情報とに基づいて、現在位置における移動物体の右側に位置する右側地物と移動物体の左側に位置する左側地物との間の参照地物間距離を求める。移動物体の現在位置は、例えば、カメラなどの第1センサを用いて取得された移動物体の周囲の第1の所定の領域内の地物を表す第1領域データの一例である画像が取得された画像取得時刻における移動物体の位置である。また、距離推定装置は、第1右側距離と第1左側距離との和である第1地物間距離と、参照地物間距離との差に基づいて、第1地物間距離の第1推定誤差を求める。距離推定装置は、第1推定誤差を用いて補正された第1右側距離か、又は第2右側距離の何れかと、第1推定誤差を用いて補正された第1左側距離か、又は第2左側距離の何れかとの組み合わせごとに得られる、移動物体の右側に位置する右側地物と移動物体の左側に位置する左側地物との間のセンサ地物間距離と参照地物間距離とを比較して、最も参照地物間距離と近いセンサ地物間距離となる組み合わせに含まれる右側距離及び左側距離を、現在位置における移動物体と右側地物との間の距離及び移動物体と左側地物との間の距離として推定する。これにより、距離推定装置は、例えば、カメラなどのセンサの移動物体への取り付け位置又は姿勢に誤差が生じた場合でも、センサの位置又は姿勢の誤差を補正して、移動物体が走行している車線の左右の車線区画線などの地物と移動物体との間の距離を正しく推定できる。
以下では、距離推定装置を、車両制御システムに適用した例について説明する。この例では、距離推定装置は、車両に取り付けられたカメラなどのセンサを用いて取得された領域データ(例えば、画像)に基づいて、距離推定処理を実行することで、車両が走行している車線において、車両と右側地物との間の右側距離及び車両と左側地物との間の左側距離を推定する。そして、距離推定装置は、推定された車両と左側距離及び右側距離に基づいて車線内の車両の位置を推定し、その推定された位置に基づいて車両の運転計画を生成して、車両の運転制御に利用する。但し、本発明の技術範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。
図1は、距離推定装置が実装される車両制御システムの概略構成図である。また、図2は、距離推定装置の一つの実施形態である電子制御装置のハードウェア構成図である。
本実施形態では、車両10に搭載され、且つ、車両10を制御する車両制御システム1は、車両の前方の画像を撮影する第1カメラ2を有する。また、車両制御システム1は、車両10の前後左右の画像を取得する第2カメラ4a〜4dと、第2カメラ4a〜4dで撮影した画像を処理するカメラ画像処理御装置4eを有する。また、車両制御システム1は、測位情報受信機5と、所定の領域の広域地図情報を記憶しており、測位情報受信機5が出力する測位情報に基づいて、測位情報により表される現在位置を含む領域の地図情報を出力する地図情報記憶装置6を有する。さらに、車両制御システム1は、距離推定装置の一例である電子制御装置(ECU)7を有する。また、車両10は、無線通信装置(図示せず)を有しており、この無線通信装置を介した無線通信により、基地局を介して外部のサーバと通信可能である。
第1カメラ2と、第2カメラ4a〜4dと、カメラECU4eと、地図情報記憶装置6と、ECU7とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク8を介して通信可能に接続される。
第1カメラ2は、所定の周期で設定される画像情報取得時刻において、車両10の前方の所定の領域内の地物の位置を表す情報を有する領域データの一例である、車両の前方の領域の第1画像を生成する。生成された第1画像には、車両10の前方の所定の領域内に含まれる路面上の車線区画線などの地物が表わされる。第1カメラ2により生成された第1画像は、カラー画像であってもよく、又は、グレー画像であってもよい。第1カメラ2は、撮像部の一例であり、CCDあるいはC−MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そして第1カメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。
第1カメラ2は、第1画像を生成する度に、第1画像及び第1画像を取得した画像情報取得時刻を、車内ネットワーク8を介してECU7へ出力する。第1画像は、ECU7において、距離推定処理および車両の位置を推定する処理と、車両10の周囲の物体を検出する処理に使用される。
第2カメラ4a〜4dは、第1カメラ2と同じ所定の周期かつ同じ時刻で設定される画像情報取得時刻において、車両10の前方、左側方、後方、右側方の所定の領域内の地物の位置を表す情報を有する領域データ一例である第2画像を生成して、カメラ画像処理御装置4eへ出力する。第2カメラ4a〜4dは、撮像部の一例であり、CCDあるいはC−MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そして第2カメラ4a〜4dは、車両10の前方、左側方、後方、右側方を向くように、例えば、車両10の前後左右に取り付けられる。第2カメラ4a〜4dにより得られた画像は、カラー画像であってもよく、又は、グレー画像であってもよい。
カメラ画像処理御装置4eは、プロセッサ(図示せず)を有する。このプロセッサは、第2カメラ4a〜4dが生成した画像を合成して、車両10の周囲が写った合成画像を生成する。また、カメラ画像処理御装置4eのプロセッサは、第2カメラ4b、4dが生成した左右の画像を含む第2カメラ情報を生成する。カメラ画像処理御装置4eのプロセッサは、第2カメラ情報を生成する度に、第2カメラ情報及び第2カメラ情報を取得した画像情報取得時刻を、合成画像と共に、車内ネットワーク8を介してECU7へ出力する。第2カメラ情報は、ECU7において、距離推定処理に使用される。車両10の周囲が写った合成画像は、ECU7において、車両10の周囲の他の物体との相対的な位置関係を求める処理に使用される。
測位情報受信機5は、車両10の現在位置を表す測位情報を取得する。例えば、測位情報受信機5は、GPS受信機とすることができる。そして測位情報受信機5は、所定の受信周期で測位情報を取得する度に、測位情報及び測位情報を取得した測位情報取得時刻を、地図情報記憶装置6へ出力する。
地図情報記憶装置6は、プロセッサ(図示せず)と、磁気ディスクドライブ又は不揮発性の半導体メモリなどの記憶装置(図示せず)とを有しており、この記憶装置は、車両10の現在位置を含む広い範囲(例えば数km四方の範囲)の広域地図情報を記憶する。この広域地図情報は、道路上の車線区画線などの地物、構造物の種類及び位置を表す情報を含む高精度地図情報であることが好ましい。なお、道路上の地物、構造物の位置は、例えば、実空間における所定の基準位置を原点とする世界座標系で表される。地図情報記憶装置6のプロセッサは、車両10の現在位置に応じて、無線通信装置を介した無線通信により、基地局を介して外部のサーバから広域地図情報を受信して記憶装置に記憶する。地図情報記憶装置6のプロセッサは、測位情報受信機5から測位情報を入力する度に、記憶部に記憶している広域地図情報を参照して、測位情報により表される現在位置を含む狭い領域(例えば、数十〜数百m四方の範囲)の地図情報及び測位情報を取得した時刻を、車内ネットワーク8を介してECU7へ出力する。地図情報記憶装置6は、地物の位置情報を記憶する記憶部の一例である。
ECU7は、車両10を制御する。本実施形態では、ECU7は、第1カメラ2が出力する第1画像などに基づいて、車両10と右側地物との間の右側距離及び車両と左側地物との間の左側距離を決定する。そして、ECU7は、右側距離及び左側距離に基づいて車線内の車両の位置を推定して、車両10を自動運転するように車両10を制御する。そのために、ECU7は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
通信インターフェース21は、通信部の一例であり、ECU7を車内ネットワーク8に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク8を介して、第1カメラ2及び地図情報記憶装置6などと接続される。そして通信インターフェース21は、例えば、第1カメラ2から第1画像などの情報を受信する度に、受信した情報をプロセッサ23へわたす。また通信インターフェース21は、地図情報記憶装置6から測位情報、測位情報取得時刻及び地図情報を受信する度に、受信した測位情報、測位情報取得時刻及び地図情報をプロセッサ23へわたす。また通信インターフェース21は、図示しない車両速度センサ及びヨーレートセンサから受信した車両速度及びヨーレートを、プロセッサ23へわたす。
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU7のプロセッサ23により実行される距離推定処理において使用される各種のデータ、例えば、各カメラの光軸方向及び取り付け位置などの設置位置情報、結像光学系の焦点距離及び画角といった内部パラメータなどを記憶する。また、メモリ22は、第1カメラ2などから受信した第1画像などの情報、地図情報記憶装置6から受信した測位情報、測位情報を取得した時刻及び地図情報などを記憶する。
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。プロセッサ23が複数個のCPUを有する場合、CPUごとにメモリを有していてもよい。そしてプロセッサ23は、第1画像又は第2カメラ情報を入力する度に、車両と右側地物との間の右側距離及び車両と左側地物との間の左側距離を推定する距離推定処理を実行する。プロセッサ23は、推定された左側距離及び右側距離に基づいて、画像情報取得時刻における車線内の車両の位置を推定する。また、プロセッサ23は、画像情報取得時刻よりも短い所定の周期で設定される位置決定時刻において、直前の画像情報取得時刻における車両10の位置と、車両速度及びヨーレートに基づいて、位置決定時刻における車両10の位置を推定する。さらに、プロセッサ23は、推定された車両10の位置と、車両10の周囲の他の物体との相対的な位置関係に基づいて、車両10を自動運転するよう、車両10を制御する。
図3は、距離推定処理を含む車両制御処理に関する、ECU7のプロセッサ23の機能ブロック図である。プロセッサ23は、第1距離算出部31aと、第2距離算出部31bと、第3距離算出部31cと、地物距離間算出部32と、誤差推定部33と、補正部34と、距離推定部35と、位置推定部36と、物体検出部37と、運転計画部38と、車両制御部39とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、第1〜4距離算出部31a〜31d、地物間距離算出部32、誤差推定部33及び距離推定部35が、距離推定処理を実行する。
第1距離算出部31aは、第1画像から、車両10と、車両10の右側に位置する右側車線区画線との間の第1右側距離と、車両10と、車両10の左側に位置する左側車線区画線との間の第1左側距離とを算出する。第1距離算出部31aは、まず、第1画像から、地物の一例である車線区画線を表す複数の候補点を検出する。第1距離算出部31aは、第1画像に対して設定された所定の照合範囲内において、複数の候補点を検出してもよい。第1距離算出部31aは、例えば、第1画像に対してSobelフィルタといったエッジ検出フィルタを適用してエッジとなる画素を検出し、かつ、検出された画素の中で所定のしきい値以上の輝度を有する画素を候補点として検出する。また、第1距離算出部31aは、例えば、画像を識別器に入力することで画像内の候補点を検出してもよい。識別器として、例えば、入力された画像から、その画像内の車線区画線を検出するように予め学習されたディープニューラルネットワーク(DNN)を用いることができる。第1距離算出部31aは、第1画像内で車線区画線として識別された領域内の画素を候補点として検出する。候補点の位置情報は、例えば、第1画像の左上の隅の位置を原点として、右方に伸びるxi軸と、下方に伸びるyi軸とを有する画像座標系で表すことができる。
第1距離算出部31aは、画像座標系で表された候補点の座標を、車両10に原点を有する車両座標系で表す。車両座標系は、例えば、車両10の左右の後輪の間の中点かつ地面上の点を原点として、車両10の進行方向をzv軸とし、zv軸と直交し、かつ、地面に平行な方向をxv軸とし、鉛直方向をyv軸とする。まず、第1距離算出部31aは、画像座標系で表された候補点の座標に対して、第1カメラ2の設置位置情報及び内部パラメータなどの情報を用いて視点変換処理を実行することで、候補点の座標をカメラ座標系で表わす。カメラ座標系では、撮像面の中心を原点として、車両10の進行方向をzc軸とし、zc軸と直交し、かつ、地面に平行な方向をxc軸とし、鉛直方向をyc軸とする。第1カメラ2により撮影された地面上の車線区画線を表す候補点は、yc座標が一定である地面上に位置すると仮定される。そして、第1距離算出部31aは、候補点の座標を、画像座標系から車両座標系へ変換する。画像座標系から車両座標系への変換式は、座標系間の回転を表す回転行列と座標系間の平行移動を表す並進ベクトルの組み合わせで表される。第1距離算出部31aは、車両座標系で表された候補点の座標を、第1画像が取得された画像情報取得時刻と共に、第2距離算出部31bへ通知する。
図4は、車両座標系で表した候補点402R、402Lを含む第1画像400を示す。第1距離算出部31aは、第1画像400を、車両座標系のzv軸の撮像面への射影成分となる中心線400cにより右側領域401Rと左側領域401Lとに分割する。右側領域401Rは、複数の候補点402Rを含む右側候補点群403Rを有する。また、左側領域401Lは、複数の候補点402Lを含む左側候補点群403Lを有する。
このように、第1画像の車線区画線を候補点群として検出した場合、第1画像から道路の分岐及び合流等の複雑な形状に対応する車線区画線を検出できることが期待される。
第1距離算出部31aは、位置推定部36から通知された前回の位置決定時刻における車両10の位置と、前回の位置決定時刻と画像情報取得時刻との間の車両10の移動量及び移動方向とに基づいて、画像情報取得時刻における車両10の位置及び進行方向を推定する。ここで、第1距離算出部31aは、前回の位置決定時刻と画像情報取得時刻との間の車両10の移動量及び移動方向を、その間に通知された車両速度及びヨーレートに基づいて算出する。第1距離算出部31aは、車両10の車両速度を積分して、前回の位置決定時刻と画像情報取得時刻との間の車両10の移動量を求め、車両10のヨーレートを積分して、位置決定時刻と画像情報取得時刻との間の車両10の方位角変化量である移動方向を求める。第1距離算出部31aは、第1カメラ2の設置位置情報及び内部パラメータなどの情報と、推定された車両10の位置及び移動方向とを用いて、画像情報取得時刻における第1カメラ2の仮定位置及び仮定姿勢を推定する。また、第1距離算出部31aは、画像情報取得時刻を、地物間距離算出部32へ通知する。
そして、第1距離算出部31aは、右側候補点群を用いて、車両10と、車両10の右側に位置する右側車線区画線との間の第1右側距離を算出する。まず、第1距離算出部31aは、画像情報取得の車両10の仮定位置を含む所定の領域の地図情報を車両座標系で表す。そして、第1距離算出部31aは、右側候補点群を、地図情報により表される地図上に投影して、地図に表された車両10の周囲の車線区画線と右側候補点群との一致度合を算出する。第1距離算出部31aは、例えば、車線区画線の周辺に含まれる右側候補点群に含まれる候補点の数(インライア数)を、一致度合いとして算出してもよい。第1距離算出部31aは、仮定位置及び仮定姿勢を所定量ずつ変化させながら、上記と同様の右側候補点群の画像座系から車両座標系への位置変換、右側候補点群の一致度合の算出の各処理を実行することで、複数の仮定位置及び仮定姿勢のそれぞれについて、地図情報に表された車両10の周囲の車線区画線と右側候補点群との一致度合を算出する。第1距離算出部31aは、一致度合が最大となるときの仮定位置及び仮定姿勢を特定し、その第1カメラ2の仮定位置及び仮定姿勢に基づいて、第1カメラ2が画像を撮影した画像情報取得時刻における車両10の位置及び進行方向を推定する。第1距離算出部31aは、車両10の位置と、地図上の右側車線区画線の位置とに基づいて、画像情報取得時刻における車両10の位置と、右側車線区画線との間の第1右側距離を算出する。第1距離算出部31aは、車両10の位置を、車両10の進行方向と直交する方向である横方向の中心でありかつ車両10の進行方向の中心の位置として求めてもよい。第1右側距離は、車両10の進行方向と直交する横方向において、車両10の位置と、右側車線区画線との間の距離となる。
同様にして、第1距離算出部31aは、第1画像の左側の領域に生成された左側候補点群を用いて、車両10と、車両10の左側に位置する左側車線区画線との間の第1左側距離を算出する。第1左側距離は、車両10の進行方向と直交する横方向において、車両10の位置と、左側車線区画線との間の距離となる。第1距離算出部31aは、第1右側距離及び第1左側距離を、第1画像が取得された画像情報取得時刻と共に、誤差推定部33及び距離推定部35へ通知する。第1距離算出部31aは、第1画像が取得された画像情報取得時刻における車両10の進行方向を、距離推定部35へ通知してもよい。
第2距離算出部31bは、第1距離算出部31aとは異なるアルゴリズムを用いて、画像情報取得時刻における第1画像から、車両10と、車両10の右側に位置する右側車線区画線との間の第2右側距離と、車両10と、車両10の左側に位置する左側車線区画線との間の第2左側距離とを算出する。第2距離算出部31bは、第1距離算出部31aから通知された候補点の中で、第1画像の右側の領域に検出された候補点群に基づいて、右側検出線を生成する。また、第2距離算出部31bは、第1距離算出部31aから通知された候補点の中で、第1画像の左側の領域に検出された候補点群に基づいて、左側検出線を生成する。図5は、右側検出線及び左側検出線を示す図である。図5は、車両座標系で表した候補点502R、502Lを含む第1画像500を示す。第1画像500は、車両座標系のzv軸の撮像面への射影成分となる中心線500cにより右側領域501Rと左側領域501Lとに分割される。第2距離算出部31bは、右側領域501Rに位置する候補点502Rを含む候補点群に対して、例えば、ハフ変換を適用して、右側検出線503Rを生成する。また、第2距離算出部31bは、左側領域501Lに位置する候補点502Lを含む候補点群に対して、例えば、ハフ変換を適用して、左側検出線503Lを生成する。
第2距離算出部31bのように、第1画像の車線区画線を検出線として検出した場合、車線区画線以外のものを車線区画線として検出することが抑制される。一方、第1距離算出部31aのように、第1画像の車線区画線を候補点群として検出した場合、点状のノイズが候補点として検出され得るので車線区画線以外のものを車線区画線として検出するおそれがある。なお、第1画像から車線区画線を検出線として検出することは、第1画像から車線区画線を候補点群として検出することと比べて、道路の分岐及び合流等の複雑な形状を検出する精度が劣る場合がある。そこで、ECU7は、車線区画線を候補点群として検出する第1距離算出部31aと、車線区画線を検出線として検出する第2距離算出部31bとを利用することにより、それぞれの長所を利用して車線区画線などの地物を検出する。
そして、第2距離算出部31bは、右側検出線503Rを用いて、車両10と、車両10の右側に位置する右側車線区画線との間の第2右側距離を算出する。第2距離算出部31bは、車両10の中心線と右側車線区画線との間に配置される第1画像500上の画素数に基づいて第2右側距離を算出する。同様にして、第2距離算出部31bは、左側検出線503Lを用いて、車両10と、車両10の左側に位置する左側車線区画線との間の第2左側距離を算出する。第2距離算出部31bは、第2右側距離及び第2左側距離を、第1画像が取得された画像情報取得時刻と共に、誤差推定部33及び距離推定部35へ通知する。なお、第2距離算出部31bは、第1距離算出部31aが第1右側距離及び第1左右側距離を算出したのと同様の処理に基づいて、右側検出線503R及び左側検出線503Lのそれぞれと、地図情報に表された車両10の周囲の車線区画線との一致度合を算出して、第2右側距離及び第2左側距離を算出してもよい。
第3距離算出部31cは、第2カメラ情報に基づいて、第3右側距離及び第3左側距離を算出する。第3距離算出部31cは、第2カメラ情報の第2カメラ4dが生成した画像(以下、第3画像Aともいう)に基づいて、第3右側距離を算出する。図6(A)は、車両座標系で表した候補点602Rを含む第3画像600Aを示す。第3画像600Aは、車両座標系のzv軸の撮像面への射影成分となる中心線600cより右側領域601Rを含む。右側領域601Rは、複数の候補点602Rを含む右側候補点群603Rを有する。第3距離算出部31cは、第1距離算出部31aが第1右側距離を算出したのと同様の処理に基づいて、第3右側距離を算出してもよい。第3右側距離は、第1右側距離が算出されるのに用いられた第1カメラ2とは異なるセンサであり且つ取り付け位置が異なる第2カメラ4dが生成した画像に基づいて算出される。また、第3距離算出部31cは、第2カメラ情報の第2カメラ4bが生成した画像(以下、第3画像Bともいう)に基づいて、第3左側距離を算出する。図6(B)は、車両座標系で表した候補点602Lを含む第3画像600Bを示す。第3画像600Bは、車両座標系のzv軸の撮像面への射影成分となる中心線600cより左側領域601Lを含む。左側領域601Lは、複数の候補点602Lを含む左側候補点群603Lを有する。第3距離算出部31cは、第1距離算出部31aが第1左側距離を算出したのと同様の処理に基づいて、第3左側距離を算出してもよい。第3左側距離は、第1左側距離が算出されるのに用いられた第1カメラ2とは異なるセンサであり且つ取り付け位置が異なる第2カメラ4bが生成した画像に基づいて算出される。第3距離算出部31cは、第3右側距離及び第3左側距離を、第2カメラ画像が取得された画像情報取得時刻と共に、誤差推定部33及び距離推定部35へ通知する。
ECU7は、上述した第1距離算出部31a及び第1距離算出部31aとは異なるアルゴリズムを用いる第2距離算出部31bと共に、異なるセンサの測定結果及び異なるアルゴリズムを用いて距離を算出する第3距離算出部31cを使用して、車両10と右側車線区画線及び左側車線区画線のそれぞれとの間の距離を算出する。ECU7は、第1距離算出部31a〜第3距離算出部31cが算出した右側距離の何れかと、左側距離の何れかとの組み合わせごとに、右側車線区画線と左側車線区画線との間のセンサ地物間距離を求める。ECU7は、後述するように、参照地物間距離と最も近いセンサ地物間距離を持つ、右側距離と左側距離との組み合わせを選択する。これにより、最も正確な右側距離及び左側距離との組み合わせを推定できることが期待される。
地物間距離算出部32は、測位情報受信機5により求められた測位情報と、地図情報記憶装置6から入力した地図情報とに基づいて、第1距離算出部31aから通知された画像情報取得時刻における車両10の右側に位置する右側車線区画線と車両10の左側に位置する左側車線区画線との間の距離である参照地物間距離を算出する。地物間距離算出部32は、第1距離算出部31aから通知された画像情報取得時刻における車両10の位置を、測位情報受信機5により求められた測位情報に基づいて推定する。地物間距離算出部32は、画像情報取得時刻と一致する時刻に取得された測位情報がある場合、この画像情報取得時刻と一致する時刻に取得された測位情報を用いて、画像情報取得時刻における車両10の位置を推定する。一方、地物間距離算出部32は、画像情報取得時刻と一致する時刻に取得された測位情報がない場合、画像情報取得時刻の前後の時刻に取得された測位情報を用いて、画像情報取得時刻における車両10の位置を推定する。地物間距離算出部32は、画像情報取得時刻における車両10の位置と、地図情報とを用いて、画像情報取得時刻における車両10が走行する車線を特定し、特定された車線を区画する隣接する二つの車線区画線間の距離を、参照地物間距離として求める。地物間距離算出部32は、隣接する二つの車線区画線のそれぞれと直交する直線が、これらの車線区画線と交差する交差点間の距離を、参照地物間距離として求めてもよい。地物間距離算出部32は、参照地物間距離を誤差推定部33及び距離推定部35へ通知する。また、地物間距離算出部32は、測位情報に基づいて推定した画像情報取得時刻における車両10の位置を、位置推定部36へ通知する。
誤差推定部33は、第1距離算出部31aから通知された第1右側距離と第1左側距離との和である第1地物間距離と、参照地物間距離との差に基づいて、第1地物間距離の第1推定誤差を求める。また、誤差推定部33は、第2距離算出部31bから通知された第2右側距離と第2左側距離との和である第2地物間距離と、参照地物間距離との差に基づいて、第2地物間距離の第2推定誤差を求める。さらに、誤差推定部33は、第3距離算出部31cから通知された第3右側距離と第3左側距離との和である第3地物間距離と、参照地物間距離との差に基づいて、第3地物間距離の第3推定誤差を求める。
第1カメラ2などのセンサが車両10へ取り付けられる位置又は姿勢には、取り付けられる位置(例えば、高さ)及び姿勢はあらかじめ決められている。しかし、センサが車両10に取り付けられる作業に起因して取り付け位置又は姿勢に誤差が生じる場合がある。また、車両10に搭乗する人の数、または、トランクなどに積載される荷物の重さによって、車両10の高さまたは姿勢が変化するので、車両10に搭載されたセンサの位置又は姿勢は変化し得る。その結果、センサが車両10へ取り付けられる位置又は姿勢は、センサの設置位置情報に対して変化していることがある。
例えば、第1カメラ2の車両10へ取り付けられる高さに誤差がある場合、第1カメラ2が撮影した画像に基づいて算出される隣接する2つの車線区画線の間隔に誤差が生じることを、図7を参照しながら、以下に説明する。
第1カメラ2が車両10へ取り付けられる高さは、設計上Yであり、第1カメラ2が撮影した画像上の消失点の座標は、画像座標系において(u、v)とする。画像上の画素の位置は、画像座標系における座標で表される。また、画像上で車両10が走行する車線を区画する2つの車線区画線の間隔Δxiは、Yi軸上の位置に応じて変化するので、Δu(v)で表す。
隣接する2つの車線区画線の間隔をWobs1は、以下の式(1)で表される。
Wobs1=Δu(v)・Y/(v−v) (1)
ここで、第1カメラ2が車両10へ取り付けられる高さに誤差ΔYが生じた場合、隣接する2つの車線区画線の間隔をWobs2は、以下の式(2)で表される。
Wobs2=Δu(v)・(Y+ΔY)/(v−v) (2)
第1カメラ2が車両10へ取り付けられる高さに誤差ΔYが生じたことによる隣接する2つの車線区画線の間隔の誤差は、以下の式(3)で表される。
Δe=Wobs2−Wobs1=Δu(v)・Y/(v−v) (3)
このように、第1カメラ2が車両10へ取り付けられる高さYに一定の誤差ΔYが生じた場合、隣接する2つの車線区画線の算出される間隔に対しても一定の誤差Δeが生じる。同様の理由により、車両10と右側車線区画線との間の距離である第1右側距離と、車両10と左側車線区画線との間の距離である第1左側距離にも誤差が生じる。
そこで、ECU7は、誤差推定部33を用いて各距離算出部の誤差を推定して、各距離算出部が算出した右側距離及び左側距離に対して誤差を補正し、補正された右側距離及び左側距離を用いて、センサ地物間距離を求める。
誤差推定部33は、過去の一連の画像取得時刻における、第1右側距離と第1左側距離との和である第1地物間距離と、参照地物間距離との差を予測フィルタに入力して、現時点の画像取得時刻における第1地物間距離の第1推定誤差を求める。予測フィルタとして、例えば、カルマンフィルタを用いることができる。誤差推定部33は、第1推定誤差を補正部34へ通知する。
図8は、予測フィルタが出力する推定値としての第1地物間距離の誤差の推定値が、推定処理の時間経過と共に、真の誤差に近づいていくことを示す。
同様に、誤差推定部33は、過去の一連の画像取得時刻における、第2右側距離と第2左側距離との和である第2地物間距離と、参照地物間距離との差を予測フィルタに入力して、現時点の画像取得時刻における第2地物間距離の第2推定誤差を求める。誤差推定部33は、第2推定誤差を補正部34へ通知する。さらに、誤差推定部33は、過去の一連の画像取得時刻における、第3右側距離と第3左側距離との和である第3地物間距離と、参照地物間距離との差を予測フィルタに入力して、現時点の画像取得時刻における第3地物間距離の第3推定誤差を求める。誤差推定部33は、第3推定誤差を補正部34へ通知する。
補正部34は、第1推定誤差を用いて、第1右側距離及び第1左側距離を補正する。例えば、補正部34は、第1右側距離から、第1地物間距離の推定誤差の半分の値を減算して、補正された第1右側距離を算出する。同様に、誤差推定部33は、第1左側距離から、第1地物間距離の推定誤差の半分の値を減算して、補正された第1左側距離を算出する。誤差推定部33は、補正された第1右側距離及び補正された第1左側距離を、距離推定部35へ通知する。
同様にして、補正部34は、第2推定誤差を用いて第2右側距離及び第2左側距離を補正し、第3推定誤差を用いて第3右側距離及び第3左側距離を補正する。補正部34は、補正された第2右側距離及び補正された第2左側距離と、補正された第3右側距離及び補正された第3左側距離とを、距離推定部35へ通知する。
なお、誤差推定部33は、第1地物間距離から第3地物間距離の中の少なくとも1つの地物間距離に対して推定誤差を求めることが好ましいが、全ての地物間距離に対して推定誤差を求めなくてもよい。
距離推定部35は、補正された第1右側距離から第3右側距離の何れかと補正された第1左側距離から第3左側距離の何れかとの組み合わせごとに得られる、車両10の右側に位置する右側車線区画線と車両10の左側に位置する左側車線区画線との間のセンサ地物間距離と参照地物間距離とを比較する。そして、距離推定部35は、最も参照地物間距離と近いセンサ地物間距離となる組み合わせに含まれる右側距離及び左側距離を、画像情報取得時刻の位置における車両10と右側車線区画線との間の距離及び車両10と左側車線区画線との間の距離として推定する。距離推定部35は、画像情報取得時刻における車両10と右側車線区画線との間の距離及び車両10と左側車線区画線との間の距離を、位置推定部36へ通知する。
図9は、各右側距離と、各左側距離との組み合わせを説明する図である。図9に示す例では、距離推定部35は、センサ地物間距離の16の組み合わせごとに、参照地物間距離との比較を実行する。距離推定部35は、第1右側距離と第1左側距離との組み合わせで得られるセンサ地物間距離と、参照地物間距離との差を求める。そして、距離推定部35は、第1右側距離と第2左側距離との組み合わせで得られるセンサ地物間距離と、参照地物間距離との差を求める。そして、距離推定部35は、第1右側距離と第3左側距離との組み合わせで得られるセンサ地物間距離と、参照地物間距離との差を求める。同様にして、距離推定部35は、第2右側距離と第1左側距離〜第3左側距離との組み合わせのそれぞれで得られるセンサ地物間距離と、参照地物間距離との差を求める。さらに、距離推定部35は、第3右側距離と第1左側距離〜第3左側距離との組み合わせのそれぞれで得られるセンサ地物間距離と、参照地物間距離との差を求める。距離推定部35は、センサ地物間距離と、参照地物間距離との差の絶対値が最も小さい組み合わせに含まれる右側距離を、画像情報取得時刻の位置における車両10と右側車線区画線との間の距離として推定する。また、距離推定部35は、センサ地物間距離と、参照地物間距離との差の絶対値が最も小さい組み合わせに含まれる左側距離を、画像情報取得時刻の位置における車両10と左側車線区画線との間の距離として推定する。
位置推定部36は、画像情報取得時刻における、車両10の進行方向と直交する方向である横方向の位置と、車両10の進行方向の位置とを推定する。位置推定部36は、車両10と右側車線区画線との間の距離及び車両10と左側車線区画線との間の距離を用いて、画像情報取得時刻における車両10の横方向の位置を推定する。また、位置推定部36は、地物間距離算出部32から通知された画像情報取得時刻における車両10の位置を用いて、画像情報取得時刻における車両10の進行方向の位置を推定する。なお、位置推定部36は、第1カメラ2が生成した画像中の標識などの地物を、地図上の地物と照合して、画像情報取得時刻における車両10の進行方向の位置を推定してもよい。
また、位置推定部36は、画像情報取得時刻よりも短い所定の周期で設定される位置決定時刻において、位置決定時刻における車両10の位置を、直前の画像情報取得時刻における車両10の推定位置(進行方向及び横方向の位置)と、位置決定時刻と画像情報取得時刻との間の車両10の移動量及び移動方向とに基づいて推定する。位置推定部36は、位置決定時刻と画像情報取得時刻との間の車両10の移動量及び移動方向を、その間に入力した車両速度及びヨーレートに基づいて算出する。
物体検出部37は、第1画像及び合成画像のそれぞれに基づいて、車両10の周囲の他の物体を検出する。物体検出部37は、例えば、第1画像を識別器に入力することで第1画像に表された物体を検出する。識別器として、例えば、入力された画像から、その画像に表された物体を検出するように予め学習されたディープニューラルネットワーク(DNN)を用いることができる。物体検出部37は、DNN以外の識別器を用いてもよい。例えば、物体検出部37は、識別器として、画像上に設定されるウィンドウから算出される特徴量(例えば、Histograms of Oriented Gradients, HOG)を入力として、そのウィンドウに検出対象となる物体が表される確信度を出力するように予め学習されたサポートベクトルマシン(SVM)を用いてもよい。あるいはまた、物体検出部37は、検出対象となる物体が表されたテンプレートと画像との間でテンプレートマッチングを行うことで、物体領域を検出してもよい。同様にして、物体検出部37は、合成画像に基づいて、各画像に表された物体を検出する。また、物体検出部37は、オプティカルフローに基づく追跡処理に従って、最新の画像から検出された物体を過去の画像から検出された物体と対応付けることで、最新の画像から検出された物体を追跡してもよい。そして物体検出部37は、時間経過に伴う画像上での追跡中の物体のサイズの変化に基づいて、車両10に対するその物体の相対速度を推定してもよい。そして、物体検出部37は、各画像に基づいて検出された物体について同一物を判定し、同一と判定された物体は1つの物体として判断する。物体検出部37は、検出された物体の位置を示す情報を、運転計画部38へ通知する。なお、物体検出部37は、ライダセンサ等の距離画像を取得するセンサが測定した測定結果に基づいて、車両10の周囲の他の物体を検出してもよい。
運転計画部38は、位置決定時刻における車両10の位置と、検出された物体の位置を示す情報と、地図情報とを取得する。運転計画部38は、これらの情報に基づいて、車両10の走行予定経路を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。運転計画部38は、車両10の位置と、地図に表された道路上の構造物と、検出された他の物体との位置関係に応じて、車両10と他の物体との相対的な位置関係を推定する。例えば、運転計画部38は、地図に表された車線と、他の物体との位置関係に応じて、他の物体が走行している車線を特定することで、他の物体と車両10とが同じ車線を走行しているか否かを判定する。例えば、運転計画部38は、他の物体の水平方向の中心位置を挟むように位置する互いに隣接する二つの車線区画線で特定される車線を他の物体が走行していると判定する。同様に、運転計画部38は、車両10を挟むように位置する互いに隣接する二つの車線区画線で特定される車線を車両10が走行していると判定する。そして運転計画部38は、車両10が走行中の車線と他の物体が走行中の車線とが同一か否かを判定する。また、地図に表された隣接する二つの車線区画線間の間隔は既知であり、かつ、カメラの焦点距離といった内部パラメータが既知であるため、画像上での隣接する二つの車線区画線間の間隔により、車両10からの距離が推定できる。そこで、運転計画部38は、画像上での他の物体の位置における、地図に表された隣接する二つの車線区画線間の間隔に基づいて、車両10から他の物体までの距離を推定してもよい。このように、運転計画部38は、地図に表された道路上の構造物との位置関係で他の物体と車両10との相対的な位置関係を推定する。そのため、運転計画部38は、画像に写った車線区画線などの道路上の地物が不明瞭でも、他の物体と車両10との相対的な位置関係を正確に推定できる。
運転計画部38は、検出された他の物体の現在及び過去の軌跡に基づいての将来の軌跡を推定し、検出された他の物体が走行中の車線及び相対距離に基づいて、他の物体と車両10とが異なる車線を走行するか、あるいは、車両10から他の物体までの相対距離が所定距離以上となるように、車両10の走行予定経路を生成する。なお、運転計画部38は、複数の走行予定経路を生成してもよい。この場合、運転計画部38は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。運転計画部38は、生成した走行予定経路を車両制御部39へ通知する。
車両制御部39は、画像情報取得時刻及び位置決定時刻における車両10の位置と、車両速度及びヨーレートと、通知された走行予定経路とに基づいて、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部39は、通知された走行予定経路、及び、車両10の現在の車両速度及びヨーレートに従って、車両10の操舵角、加速度及び角加速度を求め、その操舵角、加速度及び角加速度となるように、操舵量、アクセル開度またはブレーキ量を設定する。そして車両制御部39は、設定された操舵量に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。また、車両制御部39は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置(図示せず)へ出力する。あるいは、車両制御部39は、設定されたブレーキ量に応じた制御信号を車両10のブレーキ(図示せず)へ出力する。
図10および図11は、プロセッサ23により実行される、距離推定処理を含む、車両制御処理の動作フローチャートである。プロセッサ23は、所定の周期で設定される画像情報取得時刻ごとに図10および図11に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS1001〜S1005の処理が距離推定処理に対応する。
まず、プロセッサ23の第1距離算出部31aは、車両10に取り付けられた第1カメラ2を用いて取得された車両10の周囲の第1の所定の領域内の地物を表す第1画像から、車両10と、車両10の右側に位置する右側地物との間の第1右側距離と、車両10と、車両10の左側に位置する左側地物との間の第1左側距離とを算出する(ステップS1001)。また、プロセッサ23の第2距離算出部31bは、車両10に取り付けられた第1カメラ2を用いて取得された車両10の周囲の第1の所定の領域内の地物を表す第1画像から、車両10と、車両10の右側に位置する右側地物との間の第2右側距離と、車両10と、車両10の左側に位置する左側地物との間の第2左側距離とを算出する。さらに、プロセッサ23の第3距離算出部31cは、車両10に取り付けられた第2カメラ4b,4dを用いて取得された車両10の周囲の左右の所定の領域内の地物を表す画像から、車両10と、車両10の右側に位置する右側地物との間の第3右側距離と、車両10と、車両10の左側に位置する左側地物との間の第3左側距離とを算出する。
次に、プロセッサ23の地物間距離算出部32は、車両10の現在位置を取得する測位部により求められた車両10の現在位置と、記憶部の一例である地図情報記憶装置6に記憶される地物の位置を表す位置情報とに基づいて、現在位置における車両10の右側に位置する右側地物と車両10の左側に位置する左側地物との間の参照地物間距離を求める(ステップS1002)。
次に、プロセッサ23の誤差推定部33は、第1右側距離と第1左側距離との和である第1地物間距離と、参照地物間距離との差に基づいて、第1地物間距離の第1推定誤差を求める(ステップS1003)。また、プロセッサ23の誤差推定部33は、第2右側距離と第2左側距離との和である第2地物間距離と、参照地物間距離との差に基づいて、第2地物間距離の第2推定誤差を求める。さらに、プロセッサ23の誤差推定部33は、第3右側距離と第3左側距離との和である第3地物間距離と、参照地物間距離との差に基づいて、第3地物間距離の第3推定誤差を求める。
次に、プロセッサ23の補正部34は、第1推定誤差を用いて、第1右側距離及び第1左側距離を補正し、第2推定誤差を用いて、第2右側距離及び第2左側距離を補正し、第3推定誤差を用いて、第3右側距離及び第3左側距離を補正する(ステップS1004)。
次に、プロセッサ23の距離推定部35は、補正された第1右側距離から第3右側距離の何れかと、補正された第1左側距離から第3左側距離の何れかとの組み合わせごとに得られる、車両10の右側に位置する右側地物と車両10の左側に位置する左側地物との間のセンサ地物間距離と参照地物間距離とを比較して、最も参照地物間距離と近いセンサ地物間距離となる組み合わせに含まれる右側距離及び左側距離を、現在位置における車両10と右側地物との間の距離及び車両10と左側地物との間の距離として推定する(ステップS1005)。
次に、プロセッサ23の位置推定部36は、車両10の進行方向と直交する方向である横方向の位置と、車両10の進行方向の位置とを推定する(ステップS1101)。
次に、プロセッサ23の物体検出部37は、第1カメラ2により生成された画像などに基づいて、車両10の周囲の他の物体を検出する(ステップS1102)。
次に、プロセッサ23の運転計画部38は、車両10の位置と、検出された物体の位置を示す情報と、地図情報などに基づいて、車両10の走行予定経路を生成する(ステップS1103)。
次に、プロセッサ23の車両制御部39は、車両10の位置と、車両速度及びヨーレートと、走行予定経路とに基づいて、走行予定経路に沿って走行するように車両10の各部を制御する(ステップS1104)。
以上に説明してきたように、この距離推定装置は、移動物体に取り付けられたカメラなどの第1センサを用いて取得された移動物体の周囲の第1の所定の領域内の地物を表す第1領域データから、移動物体と、移動物体の右側に位置する右側地物との間の第1右側距離と、移動物体と、移動物体の左側に位置する左側地物との間の第1左側距離とを算出する。また、距離推定装置は、第1領域データ及び異なるアルゴリズムか、又は、第1センサとは異なるセンサを用いて取得された移動物体の周囲の所定の領域内の地物を表す領域データを用いて、移動物体と、移動物体の右側に位置する右側地物との間の第2〜3右側距離と、移動物体と、移動物体の左側に位置する左側地物との間の第2〜3左側距離とを算出する。距離推定装置は、移動物体の現在位置を取得する測位部により求められた移動物体の現在位置と、記憶部に記憶される地物の位置情報とに基づいて、現在位置における移動物体の右側に位置する右側地物と移動物体の左側に位置する左側地物との間の参照地物間距離を求める。また、距離推定装置は、第1右側距離と第1左側距離との和である第1地物間距離と、参照地物間距離との差に基づいて、第1地物間距離の第1推定誤差を求める。同様にして、距離推定装置は、第2〜3右側距離と第2〜3左側距離との和である第2〜3地物間距離と、参照地物間距離との差に基づいて、第2〜3地物間距離の第2〜3推定誤差を求める。距離推定装置は、第1〜3推定誤差を用いて補正された第1〜3右側距離の何れかと第1〜3推定誤差を用いて補正された第1〜3左側距離の何れかとの組み合わせごとに得られる、移動物体の右側に位置する右側地物と移動物体の左側に位置する左側地物との間のセンサ地物間距離と参照地物間距離とを比較して、最も参照地物間距離と近いセンサ地物間距離となる組み合わせに含まれる右側距離及び左側距離を、画像情報取得時刻の移動物体の位置における移動物体と右側地物との間の距離及び移動物体と左側地物との間の距離として推定する。これにより、距離推定装置は、例えば、カメラなどのセンサの移動物体への取り付け位置又は姿勢に誤差が生じた場合でも、センサの位置又は姿勢の変化を補正して、移動物体が走行している車線の左右の車線区画線などの地物と移動物体との間の距離を正しく推定できる。
次に、上述した距離推定部35が、画像情報取得時刻の位置における車両10と右側車線区画線との間の距離及び車両10と左側車線区画線との間の距離を推定する他の例を以下に説明する。
上述した距離推定部35は、過去の推定結果に基づいて、第1右側距離の信頼度、第1左側距離の信頼度、第2右側距離の信頼度及び第2左側距離の信頼度、および、第3右側距離の信頼度及び第3左側距離の信頼度を決定する。
上述した距離推定部35は、第1右側距離から第3右側距離の何れかと第1左側距離から第3左側距離の何れかとの組み合わせごとに、この組み合わせに含まれる右側距離の信頼度及び左側距離の信頼度の和が大きい程且つセンサ地物間距離と参照地物間距離との差が小さい程、大きくなるように評価値を算出し、この評価値が最大となる組み合わせに含まれる右側距離と左側距離とを、画像情報取得時刻の現在位置における車両10と右側車線区画線との間の距離及び車両10と左側車線区画線との間の距離として推定してもよい。
例えば、距離推定部35は、過去に、車両10と右側車線区画線との間の距離として推定された回数に基づいて、第1右側距離〜第3右側距離のそれぞれの第1の信頼度を決定してもよい。同様に、距離推定部35は、過去に、車両10と左側車線区画線との間の距離として推定された回数に基づいて、第1左側距離〜第3左側距離のそれぞれの第1の信頼度を決定してもよい。距離推定部35は、車両10と右側車線区画線との間の距離として推定される度に、推定された第1右側距離〜第3右側距離の中の何れかの第1の信頼度を初期値から1ずつ加算して、第1の信頼度を求めてもよい。同様に、距離推定部35は、車両10と左側車線区画線との間の距離として推定される度に、推定された第1左側距離〜第3左側距離の中の何れかの第1の信頼度を初期値から1ずつ加算して、第1の信頼度を求めてもよい。距離推定部35は、第1の信頼度の値が大きい程、その距離の信頼度が高いと判定する。
また、距離推定部35は、カメラの光軸方向と、太陽との位置関係に基づいて、第1右側距離〜第3右側距離及び第1左側距離〜第3左側距離の第2の信頼度を決定してもよい。距離推定部35は、第1カメラ2の設置位置情報と、第1距離算出部31aから通知された画像情報取得時刻の車両10の位置及び進行方向とを用いて、第1カメラ2の光軸方向を推定する。また、距離推定部35は、画像情報取得時刻と、メモリ22に記憶された太陽の位置を算出するための情報とを用いて、画像情報取得時刻における車両10を中心とした太陽の方向を示す方位角を、世界座標系におけるXw−Zw座標平面上において推定する。世界座標系では、地面に平行な面内にXw軸及びZwが設定され、鉛直方向にYw軸が設定される。そして、距離推定部35は、第1カメラ2の光軸方向をXw−Zw座標平面上に投影した投影成分が、太陽の方向を示す方位角に対して所定の範囲内にある場合、第1カメラ2は逆光状態にあるので、第1右側距離及び第1左側距離の第2の信頼度は低いと判定する。距離推定部35は、第1距離算出部31aから通知された第1右側距離及び第1左側距離の第2の信頼度を、例えば0.1とすることができる。また、距離推定部35は、第1カメラ2が逆光状態にない場合、第1距離算出部31aから通知された第1右側距離及び第1左側距離の第2の信頼度を、例えば1.0とすることができる。同様にして、距離推定部35は、第2〜第3右側距離及び第2〜第3左側距離の第2の信頼度を決定する。ここで、距離推定部35は、第3距離算出部31dから通知された第3右側距離及び第3左側距離の信頼度を決定する場合、第2カメラ4b又は第2カメラ4dの何れか一方の光軸方向の投影成分が、太陽の方向を示す方位角に対して所定の範囲内にある場合、第2カメラ4b又は第2カメラ4dは逆光状態にあると判定する。
距離推定部35は、第1の信頼度、又は第2の信頼度、又は第1の信頼度及び第2の信頼度の和を用いて、右側距離の信頼度及び左側距離の第3の信頼度を決定する。そして、距離推定部35は、第1右側距離から第3右側距離の何れかと第1左側距離から第3左側距離の何れかとの組み合わせごとに、この組み合わせに含まれる右側距離の第3の信頼度及び左側距離の第3の信頼度の和を求める。
また、距離推定部35は、第1右側距離から第3右側距離の何れかと第1左側距離から第3左側距離の何れかとの組み合わせごとに、センサ地物間距離と参照地物間距離との差の絶対値の最大値Dmを求める。そして、距離推定部35は、第1右側距離から第3右側距離の何れかと第1左側距離から第3左側距離の何れかとの組み合わせごとに、最大値Dmに対するセンサ地物間距離と参照地物間距離との差の絶対値Dcとの比(Dm/Dc)を求める。距離推定部35は、第1右側距離から第3右側距離の何れかと第1左側距離から第3左側距離の何れかとの組み合わせごとに、組み合わせに含まれる右側距離の第3の信頼度及び左側距離の第3の信頼度の和と比(Dm/Dc)との和を、評価値として求める。そして、距離推定部35は、この評価値が最大となる組み合わせに含まれる右側距離と左側距離とを、画像情報取得時刻の現在位置における車両10と右側車線区画線との間の距離及び車両10と左側車線区画線との間の距離として推定してもよい。なお、距離推定部35が評価値を求める方法は、特に制限されない。距離推定部35は、上述した方法以外の方法で評価値を求めてもよい。また、第1距離算出部31aが、画像内の車線区画線を検出するように予め学習されたディープニューラルネットワーク(DNN)を用いて、車線区画線を表す候補点を検出する場合、第1画像内で車線区画線として識別された領域内の画素が有する信頼度の平均値または最大値に基づいて、第1右側距離の信頼度及び第1左側距離の信頼度を決定してもよい。
次に、地物間距離算出部32が、参照地物間距離を算出する他の例を以下に説明する。
上述した実施形態では、記憶部の一例である地図情報記憶装置6が、車線区画線などの地物の位置を表す位置情報を含む地図を記憶しており、地物間距離算出部32は、記憶部に記憶されている地図に基づいて参照地物間距離を算出していた。このように、記憶部に地物の位置情報をあらかじめ記憶しておく代わりに、距離推定部35は、右側距離及び左側距離を推定する度に、推定された右側距離及び左側距離を、画像情報取得時刻における車両10の位置と関連づけて記憶部に記憶してもよい。この場合、記憶部には、参照地物間距離の初期値として、定数の値が記憶される。地物間距離算出部32は、この記憶部に記憶された情報を用いて、参照地物間距離を算出するようにしてもよい。
本発明では、上述した実施形態の距離推定装置は、本発明の趣旨を逸脱しない限り適宜変更が可能である。
例えば、上述した実施形態では、領域データは、カメラが撮影した画像であり、2次元の情報を有していた。この領域データは、レーザ又はミリ波等の電磁波を照射して地物から反射された反射波に基づいて求められた地物を表す距離画像であってもよい。この場合、領域データは、三次元の情報を有する。
また、上述した実施形態では、第1カメラが画像を取得した画像情報取得時刻と、第2カメラ4a〜4dが画像を取得した画像情報取得時刻と、測位情報が取得された時刻とは一致していたが、車両が走行する車線を区画する隣接する2つの車線区画線の幅が一定とみなせる時間内であれば、各画像情報取得時刻及び測位情報が取得された時刻は異なっていてもよい。隣接する2つの車線区画線の幅が一定とみなせる時間は、車両速度及び車線区画線の形状によって異なるが、例えば、車両が直線である車線区画線を走行している場合であれば、この直線である車線を走行している時間内であれば、各画像情報取得時刻は異なっていてもよい。車線区画線の形状は、地図情報に基づいて判定可能である。
また、上述した車両の横方向の位置を求める第1〜4距離算出部の動作は一例であり、距離推定装置が車両の横方向の位置を算出する方法は特に制限されない。
1 車両制御システム
2 第1カメラ
4a〜4d 第2カメラ
4e カメラ画像処理御装置
5 測位情報受信機
6 地図情報記憶装置
7 電子制御装置
8 車内ネットワーク
10 車両
21 通信インターフェース
22 メモリ
23 プロセッサ
31a 第1距離算出部
31b 第2距離算出部
31c 第3距離算出部
32 地物間距離算出部
33 誤差推定部
34 補正部
35 距離推定部
36 位置推定部
37 物体検出部
38 運転計画部
39 車両制御部

Claims (5)

  1. 地物の位置を表す位置情報を記憶する記憶部と、
    移動物体に取り付けられた第1センサを用いて取得された当該移動物体の周囲の第1の所定の領域内の地物を表す第1領域データから、前記移動物体と、前記移動物体の右側に位置する右側地物との間の第1右側距離と、前記移動物体と、前記移動物体の左側に位置する左側地物との間の第1左側距離とを算出する第1距離算出部と、
    前記移動物体に取り付けられた第2センサを用いて取得された当該移動物体の周囲の第2の所定の領域内の地物を表す情報を有する第2領域データから、前記移動物体と、前記移動物体の右側に位置する前記右側地物との間の第2右側距離と、前記移動物体と、前記移動物体の左側に位置する前記左側地物との間の第2左側距離とを算出する第2距離算出部と、
    前記移動物体の現在位置を測位する測位部により求められた当該移動物体の現在位置と、前記記憶部に記憶される地物の位置情報とに基づいて、現在位置における前記移動物体の右側に位置する前記右側地物と前記移動物体の左側に位置する前記左側地物との間の参照地物間距離を求める地物間距離算出部と、
    前記第1右側距離と前記第1左側距離との和である第1地物間距離と、前記参照地物間距離との差に基づいて、前記第1地物間距離の第1推定誤差を求める誤差推定部と、
    前記第1推定誤差を用いて、前記第1右側距離及び前記第1左側距離を補正する補正部と、
    補正された前記第1右側距離又は前記第2右側距離の何れかと、補正された前記第1左側距離又は前記第2左側距離の何れかとの組み合わせごとに得られる、前記移動物体の右側に位置する前記右側地物と前記移動物体の左側に位置する前記左側地物との間のセンサ地物間距離と前記参照地物間距離とを比較して、最も前記参照地物間距離と近い前記センサ地物間距離となる組み合わせに含まれる右側距離及び左側距離を、現在位置における前記移動物体と前記右側地物との間の距離及び前記移動物体と前記左側地物との間の距離として推定する距離推定部と、
    を有する距離推定装置。
  2. 前記誤差推定部は、過去の一連の前記第1地物間距離と前記参照地物間距離との差を予測フィルタに入力して、現時点の前記第1地物間距離の推定誤差を求める請求項1に記載の距離推定装置。
  3. 前記距離推定部は、
    過去の推定結果に基づいて、前記第1右側距離の信頼度、前記第1左側距離の信頼度、前記第2右側距離の信頼度及び前記第2左側距離の信頼度を決定し、
    前記第1推定誤差を用いて補正された前記第1右側距離、又は前記第2右側距離の何れかと、前記第1推定誤差を用いて補正された前記第1左側距離又は前記第2左側距離の何れかとの組み合わせごとに、当該組み合わせに含まれる右側距離の信頼度及び左側距離の信頼度の和が大きい程且つ前記センサ地物間距離と前記参照地物間距離との差が小さい程、大きくなるように評価値を算出し、当該評価値が最大となる前記組み合わせに含まれる右側距離と左側距離とを、現在位置における前記移動物体と前記右側地物との間の距離及び前記移動物体と前記左側地物との間の距離として推定する請求項1又は2に記載の距離推定装置。
  4. 前記第1センサが前記第1領域データを取得した時刻と、前記第2センサが前記第2領域データを取得した時刻とは一致している請求項1〜3の何れか一項に記載の距離推定装置。
  5. 移動物体に取り付けられた第1センサを用いて取得された当該移動物体の周囲の第1の所定の領域内の地物を表す第1領域データから、前記移動物体と、前記移動物体の右側に位置する右側地物との間の第1右側距離と、前記移動物体と、前記移動物体の左側に位置する左側地物との間の第1左側距離とを算出し、
    前記移動物体に取り付けられた第2センサを用いて取得された当該移動物体の周囲の第2の所定の領域内の地物を表す情報を有する第2領域データから、前記移動物体と、前記移動物体の右側に位置する前記右側地物との間の第2右側距離と、前記移動物体と、前記移動物体の左側に位置する前記左側地物との間の第2左側距離とを算出し、
    前記移動物体の現在位置を取得する測位部により求められた当該移動物体の現在位置と、地物の位置情報を記憶する記憶部に記憶される地物の位置情報とに基づいて、現在位置における前記移動物体の右側に位置する前記右側地物と前記移動物体の左側に位置する前記左側地物との間の参照地物間距離を求め、
    前記第1右側距離と前記第1左側距離との和である第1地物間距離と、前記参照地物間距離との差に基づいて、前記第1地物間距離の第1推定誤差を求め、
    前記第1推定誤差を用いて、前記第1右側距離及び前記第1左側距離を補正し、
    補正された前記第1右側距離又は前記第2右側距離の何れかと、補正された前記第1左側距離又は前記第2左側距離の何れかとの組み合わせごとに得られる、前記移動物体の右側に位置する前記右側地物と前記移動物体の左側に位置する前記左側地物との間のセンサ地物間距離と前記参照地物間距離とを比較して、最も前記参照地物間距離と近い前記センサ地物間距離となる組み合わせに含まれる右側距離及び左側距離を、現在位置における前記移動物体と前記右側地物との間の距離及び前記移動物体と前記左側地物との間の距離として推定する、
    ことをプロセッサに実行させる距離推定用コンピュータプログラム。
JP2020014050A 2020-01-30 2020-01-30 距離推定装置及び距離推定用コンピュータプログラム Active JP7067574B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020014050A JP7067574B2 (ja) 2020-01-30 2020-01-30 距離推定装置及び距離推定用コンピュータプログラム
US17/160,761 US11663808B2 (en) 2020-01-30 2021-01-28 Distance estimating device and storage medium storing computer program for distance estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020014050A JP7067574B2 (ja) 2020-01-30 2020-01-30 距離推定装置及び距離推定用コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2021120255A true JP2021120255A (ja) 2021-08-19
JP7067574B2 JP7067574B2 (ja) 2022-05-16

Family

ID=77062779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020014050A Active JP7067574B2 (ja) 2020-01-30 2020-01-30 距離推定装置及び距離推定用コンピュータプログラム

Country Status (2)

Country Link
US (1) US11663808B2 (ja)
JP (1) JP7067574B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210017525A (ko) * 2019-08-08 2021-02-17 삼성전자주식회사 거리 추정 장치 및 이의 동작 방법
US11486893B2 (en) * 2020-10-06 2022-11-01 Pixart Imaging Inc. Optical sensing system and optical navigation system
JP2022121377A (ja) * 2021-02-08 2022-08-19 フォルシアクラリオン・エレクトロニクス株式会社 外界認識装置
US20230061830A1 (en) * 2021-09-02 2023-03-02 Canoo Technologies Inc. Metamorphic labeling using aligned sensor data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014074591A (ja) * 2012-10-02 2014-04-24 Denso Corp キャリブレーション方法、及びキャリブレーション装置
JP2017004155A (ja) * 2015-06-08 2017-01-05 いすゞ自動車株式会社 車線逸脱態様判定装置
JP2018013956A (ja) * 2016-07-21 2018-01-25 いすゞ自動車株式会社 画像処理装置及び画像処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6568437B2 (ja) 2015-09-17 2019-08-28 クラリオン株式会社 区画線認識装置
JP6908439B2 (ja) 2017-06-05 2021-07-28 株式会社Soken 区画線認識装置
US10803325B2 (en) * 2017-11-15 2020-10-13 Uatc, Llc Autonomous vehicle lane boundary detection systems and methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014074591A (ja) * 2012-10-02 2014-04-24 Denso Corp キャリブレーション方法、及びキャリブレーション装置
JP2017004155A (ja) * 2015-06-08 2017-01-05 いすゞ自動車株式会社 車線逸脱態様判定装置
JP2018013956A (ja) * 2016-07-21 2018-01-25 いすゞ自動車株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US11663808B2 (en) 2023-05-30
US20210237768A1 (en) 2021-08-05
JP7067574B2 (ja) 2022-05-16

Similar Documents

Publication Publication Date Title
JP7067574B2 (ja) 距離推定装置及び距離推定用コンピュータプログラム
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
KR20200042760A (ko) 차량 위치 결정 방법 및 차량 위치 결정 장치
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
US11151729B2 (en) Mobile entity position estimation device and position estimation method
US11514683B2 (en) Outside recognition apparatus for vehicle
US10832428B2 (en) Method and apparatus for estimating a range of a moving object
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
US11473912B2 (en) Location-estimating device and computer program for location estimation
JP2018048949A (ja) 物体識別装置
KR20230031344A (ko) 자동차를 둘러싼 영역 내 장애물을 검출하기 위한 시스템 및 방법
US20220309776A1 (en) Method and system for determining ground level using an artificial neural network
CN115923839A (zh) 一种车辆路径规划方法
JP2021026683A (ja) 距離推定装置
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP7234840B2 (ja) 位置推定装置
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
EP3971525B1 (en) Self-position correction method and self-position correction device
JP2020076714A (ja) 位置姿勢推定装置
JP7334489B2 (ja) 位置推定装置及びコンピュータプログラム
CN113492850B (zh) 倾斜角检测装置及控制装置
JP7572980B2 (ja) 道路端推定装置、道路端推定方法及び道路端推定用コンピュータプログラム
US20230260294A1 (en) Apparatus, method, and computer program for estimating road edge
WO2023017624A1 (en) Drive device, vehicle, and method for automated driving and/or assisted driving
JP5962331B2 (ja) 速度推定装置及び速度推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210408

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R151 Written notification of patent or utility model registration

Ref document number: 7067574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151