JP7151387B2 - 自車挙動推定装置、自車挙動推定プログラム、記憶媒体および自車挙動推定装置の制御方法 - Google Patents

自車挙動推定装置、自車挙動推定プログラム、記憶媒体および自車挙動推定装置の制御方法 Download PDF

Info

Publication number
JP7151387B2
JP7151387B2 JP2018208879A JP2018208879A JP7151387B2 JP 7151387 B2 JP7151387 B2 JP 7151387B2 JP 2018208879 A JP2018208879 A JP 2018208879A JP 2018208879 A JP2018208879 A JP 2018208879A JP 7151387 B2 JP7151387 B2 JP 7151387B2
Authority
JP
Japan
Prior art keywords
vehicle
behavior
specific location
information
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018208879A
Other languages
English (en)
Other versions
JP2020077103A (ja
Inventor
健太朗 塩田
直己 二反田
和真 石垣
晋也 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018208879A priority Critical patent/JP7151387B2/ja
Priority to US16/672,867 priority patent/US11475713B2/en
Publication of JP2020077103A publication Critical patent/JP2020077103A/ja
Application granted granted Critical
Publication of JP7151387B2 publication Critical patent/JP7151387B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Description

本発明は、自車挙動を推定する自車挙動推定装置、自車挙動推定プログラム、記憶媒体および自車挙動推定装置の制御方法に関する。
特許文献1には、車両に搭載されたカメラにより撮像された画像を用いてランドマークなどの位置情報を記録し、それら情報をサーバなどにアップロードして疎な地図を生成し、車両の走行時には生成された疎な地図をダウンロードして自車両の位置を決定するシステムに関する技術が開示されている。
特表2018-510373号公報
上述したようなシステムにおいて、サーバにアップロードするためのデータ、つまりプローブデータを車両側にて生成する際、Structure From Motionの手法が用いられる。以下では、Structure From MotionのことをSFMと省略する。SFMなどのオプティカルフローを用いて自車挙動を高精度に推定する技術は、地図生成およびローカライズに欠かすことができない重要な技術である。オプティカルフローは、2時刻間の画像中の物体の動きをベクトルで表したものであり、連続的に撮影された画像から特徴点の移動を見出すために用いられる。
ただし、車両周辺環境によっては、オプティカルフローでのエゴモーションの推定が不安定になることがある。なお、エゴモーションとは、車両に搭載されたカメラの姿勢、ひいては車両自身の姿勢を表すパラメータである。例えば、高速道路などにおいて、同じ形状の防音壁が連続して設けられたような区間を車両が走行している場合、自車両の移動量と防音壁により形成される模様の繰り返し間隔とによってはエイリアシングが発生し、オプティカルフローでのエゴモーションの推定ひいては自車挙動の推定ができなくなる可能性がある。なお、エイリアシングとは、例えば実際には物体に動きがあるにもかかわらず、その物体が停止しているといった誤った結果が得られてしまうことを意味している。
本発明は上記事情に鑑みてなされたものであり、その目的は、画像でのエゴモーションの推定が不安定になる箇所でも精度良く自車挙動を推定することができる自車挙動推定装置、自車挙動推定プログラム、記憶媒体および自車挙動推定装置の制御方法を提供することにある。
請求項1に記載の自車挙動推定装置は、車両の周辺を撮像する撮像装置(3)により撮像された画像に基づいて車両の挙動である自車挙動を推定するものであり、情報取得部(16)および挙動推定部(13)を備える。情報取得部は、車両の周辺の状況が画像に基づいた自車挙動の推定が不安定になるような状況となる特定箇所を表す情報である特定箇所情報を予め取得する。挙動推定部は、撮像装置により撮像された画像および特定箇所情報に基づいて自車挙動を推定する。挙動推定部は、Structure From Motionの手法を利用して自車挙動を推定する構成である。特定箇所は、車両の進行方向に沿うように同じ模様が繰り返された外見を有する物体が存在する箇所であり、特定箇所情報には、模様の位置および模様の繰り返し間隔が含まれる。
このような構成によれば、例えば同じ形状の防音壁が連続して設けられた区間など、画像に基づいた自車挙動の推定が不安定になるような状況となる特定箇所を車両が走行している場合、挙動推定部は、特定箇所情報に基づいて、画像での自車挙動の推定を補うことができる。そのため、上記構成によれば、画像でのエゴモーションの推定が不安定になる箇所でも精度良く自車挙動を推定することができるという優れた効果が得られる。
第1実施形態に係る地図システムの構成を模式的に示す図 第1実施形態に係るSFM認識部による処理を説明するための図であり、所定の時刻t1に撮像された画像を模式的に示す図 第1実施形態に係るSFM認識部による処理を説明するための図であり、所定の時刻t2に撮像された画像を模式的に示す図 第1実施形態に係るエイリアシング発生のメカニズムを説明するための図であり、所定の時刻t11に撮像された画像を模式的に示す図 第1実施形態に係るエイリアシング発生のメカニズムを説明するための図であり、所定の時刻t12に撮像された画像を模式的に示す図 第2実施形態に係るエイリアシングによる誤推定の発生を抑制するための処理を説明するための図であり、所定の時刻t11に撮像された画像を模式的に示す図 図6の画像について車両の上方から見た平面図を模式的に示す図
以下、複数の実施形態について図面を参照して説明する。なお、各実施形態において実質的に同一の構成には同一の符号を付して説明を省略する。
(第1実施形態)
以下、第1実施形態について図1~図5を参照して説明する。
図1に示す地図システム1は、自律的ナビゲーションのための地図システムである。地図システム1は、GPSなどの自車両の位置を特定する従来の機能に対して、追加的に機能してより高精度に位置の特定をすることに効果を発揮する。地図システム1は、大きく分けて、地図活用および地図更新の2つの機能を備えている。
地図活用においては、サーバ2に格納された地図情報が車両にダウンロードされ、車両はダウンロードされた地図情報と、例えばカメラなどの画像センサ3により撮像された画像に含まれる標識などのランドマークの位置とに基づいて自車両の位置を特定する。以下では、サーバ2に格納された地図情報のことを統合地図とも呼ぶ。この場合、特定した自車両の現在位置に基づいて、車両制御部4が車両に搭載されたハードウェアを動作させるためのアクチュエータに対して対応する命令を出力することで運転支援が実現される。アクチュエータとは、例えばブレーキ、スロットル、ステアリング、ランプなど、車両をハードウェア的に制御するための装置である。
一方、地図更新においては、車両に搭載された画像センサ3、車速センサ5、図示しないミリ波センサなどの各種センサにより得られた情報がプローブデータとしてサーバ2にアップロードされ、サーバ2内の統合地図が逐次更新される。これにより、車両は、常に最新の地図情報に基づいて高精度に位置特定がされつつ、例えば運転支援や自動ステアリングが実現される。
地図システム1において、ヒューマンマシンインターフェース6は、各種の情報をユーザに通知したり、ユーザが所定の操作を車両に伝達したりするためのユーザインタフェースである。以下の説明および図1などでは、ヒューマンマシンインターフェースのことをHMIと省略する。HMI6には、例えばカーナビゲーション装置に付属するディスプレイ、インストルメントパネルに内蔵されたディスプレイ、ウィンドシールドに投影されるヘッドアップディスプレイ、マイク、スピーカなどが含まれる。さらには、車両と通信可能に接続されたスマートフォンなどのモバイル端末も地図システム1内のHMI6になり得る。
ユーザはHMI6に表示される情報を視覚的に得るほか、音声や警告音、振動によっても情報を得ることができる。また、ユーザは、ディスプレイのタッチ操作や音声により車両に対して所望の動作を要求することができる。例えば、ユーザが地図情報を活用して自動ステアリングなどの高度運転支援のサービスを受けようとするとき、ユーザはHMI6を介して該機能を有効化する。例えば、ディスプレイ上に示された「地図連携」ボタンをタップすると地図活用の機能が有効化され、地図情報のダウンロードが開始される。
別の例では、音声にて命令を与えることにより地図活用の機能が有効化される。なお、地図更新に係る地図情報のアップロードについては、車両とサーバ2との通信が確立されている間常時実行されていてもよいし、「地図連携」ボタンをタップして地図活用の機能が有効化されている間に実行されるようにされてもよいし、ユーザの意思を反映する別のUIによって有効化されてもよい。
本実施形態の地図システム1は、サーバ2、画像センサ3、車両制御部4、車速センサ5、HMI6、GPS受信部7、制御装置8などを備える。サーバ2は、画像センサ3などが搭載される車両から隔離した箇所に設けられている。サーバ2は、制御装置9を備えている。制御装置9は、CPU、ROM、RAMおよびI/Oなどを有するマイクロコンピュータを主体として構成されており、統合部10および更新部11を備える。これら各機能ブロックは、制御装置9のCPUが非遷移的実体的記憶媒体に格納されているコンピュータプログラムを実行することでコンピュータプログラムに対応する処理を実行することにより実現されている、つまりソフトウェアにより実現されている。統合部10および更新部11は、前述した地図更新に関する各種の処理を実行するためのものであり、それらの詳細については後述する。
GPS受信部7は、図示しないGPSアンテナを介して受信した信号により表されるGPS情報を表すデータDaを制御装置8などへと出力する。車速センサ5は、車両の速度である車速を検出するものであり、車両が有する車輪の速度を検出する車輪速センサとして構成されている。車速センサ5は、その検出値である検出速度を表す信号Saを制御装置8などへと出力する。
画像センサ3は、車両に搭載され、車両周辺の環境、具体的には車両の進行方向前方における所定範囲の環境を撮像する撮像装置である。なお、画像センサ3は、車両の進行方向前方を撮像するものに限らずともよく、例えば後方、側方を撮像するものでもよい。画像センサ3により撮像された車両周辺の環境の情報は、静止画または動画(以下、これらを総称して画像と称する)の形式で図示しないメモリに格納される。制御装置8は、そのメモリに格納されたデータDbを読み出し可能に構成されており、そのデータDbに基づいて各種処理を実行する。
制御装置8は、CPU、ROM、RAMおよびI/Oなどを有するマイクロコンピュータを主体として構成されている。制御装置8は、スケールファクタ補正部12、エゴモーション算出部13、ランドマーク検出部14、地図生成部15、ローカライズ部16、中止処理部17などの機能ブロックを備える。これら各機能ブロックは、制御装置8のCPUが非遷移的実体的記憶媒体である記憶装置22に格納されているコンピュータプログラムを読み込んで実行することでコンピュータプログラムに対応する処理を実行することにより実現されている、つまりソフトウェアにより実現されている。なお、記憶装置22は、例えばメモリであり、画像センサ3、制御装置8などとともに車両に搭載される。
制御装置8は、演算装置に相当するもので、画像センサ3により撮像された画像に基づいて車両の挙動である自車挙動を推定する自車挙動推定装置として機能するようになっている。したがって、制御装置8のマイクロコンピュータが実行するコンピュータプログラムには、画像センサ3により撮像された画像に基づいて車両の挙動である自車挙動を推定するための自車挙動推定プログラムが含まれている。
スケールファクタ補正部12は、車速センサ5から与えられる信号Saおよび画像センサ3により撮像された画像を表すデータDbに基づいて、車速センサ5のスケールファクタを学習する。なお、以下の説明および図1などでは、スケールファクタ補正部のことをSF補正部と省略する。車速センサ5のスケールファクタとは、車速センサ5の測定対象である車速に対する車速センサ5の検出値の比、つまり車速センサ5の入力変化に対する出力変化の比のことであり、車速センサ5の検出値から車速の真値を求めるための係数である。SF補正部12は、車速センサ5から与えられる信号Saと学習により補正されたスケールファクタとに基づいて自車両の車速を検出し、その検出値を表すデータDcをエゴモーション算出部13へと出力する。
エゴモーション算出部13は、画像センサ3により撮像された画像に基づいて車両の挙動である自車挙動を推定するものであり、挙動推定部に相当する。なお、エゴモーション算出部13により実行される各処理は、挙動推定手順に相当する。この場合、エゴモーション算出部13は、SFMの手法を利用して自車挙動を推定する構成となっている。エゴモーション算出部13は、SFMモジュールにより構成されるSFM認識部18および走行軌跡生成部19を備えている。
SFM認識部18は、データDbに基づいて、自車挙動、つまり車両自身の姿勢を表すパラメータであるエゴモーションの推定と、後述する特徴点の距離推定とを行う。なお、エゴモーションには、ヨー、ロール、ピッチおよび並進移動を示す情報が含まれる。上記構成では、画像センサ3は、車両の走行に伴い、移動しながら車両の周辺画像を撮像することになる。SFM認識部18は、画像センサ3が移動しながら撮像した2視点の画像、つまり1つの画像センサ3により異なるタイミングで撮像された撮像位置の異なる2つのフレーム分の画像において、コーナーやエッジなどの対応がとり易い特徴点を抽出する。
SFM認識部18は、2つのフレーム分の画像において抽出した特徴点を対応付け、それらの位置関係に基づいて特徴点のオプティカルフローを算出する。例えば、図2および図3に示すように、所定の時刻t1に撮像された画像における特徴点P1~P6と、その画像の1フレーム後の画像である所定の時刻t2に撮像された画像における特徴点P1~P6とが対応付けられ、それら特徴点P1~P6の動きをベクトルで表したオプティカルフローA1~A6が算出される。なお、図2では、時刻t1における各特徴点を黒塗りの丸印で表している。また、図3では、時刻t2における各特徴点を黒塗りの丸印で表すとともに、時刻t1における各特徴点の位置を白抜きの丸印で表している。
SFM認識部18は、このようにして算出される複数のオプティカルフローを手掛かりに、各特徴点の三次元位置と、画像センサ3の姿勢、つまりエゴモーションを推定する。なお、SFM認識部18は、このような手法により自車両の移動量を知ることができるが、そのスケールの精度に課題がある。そこで、SFM認識部18は、GPS情報を表すデータDaおよび車速の検出値を表すデータDcに基づいて自車両の移動速度を取得し、その移動速度に基づいて上記スケールの精度を向上させるようになっている。
SFM認識部18は、推定したエゴモーションを表すデータDdを、走行軌跡生成部19およびランドマーク検出部14へと出力する。走行軌跡生成部19は、SFM認識部18により推定されるエゴモーションを毎時積算し、自車両がどのように移動したのかを表す走行軌跡を生成する。走行軌跡生成部19は、生成した走行軌跡を表すデータDeを地図生成部15へと出力する。
上記構成のエゴモーション算出部13では、エイリアシングが発生すると、推定される自車挙動および各特徴点の距離が実際とは異なったものとなるおそれがある。ここで言うエイリアシングは、誤対応によるオプティカルフロー、つまり特徴点の対応付けに誤りがある状態で算出されたオプティカルフローが原因で発生するものである。すなわち、車両の進行方向に沿うように同じ模様が繰り返された外見を有する物体が存在する箇所、例えば防音壁やトンネルなどでは、同じ模様が繰り返された箇所、つまり繰り返しパターンに対して誤対応が継続して発生する場合がある。上述したような箇所は、車両の周辺の状況がエゴモーション算出部13による自車挙動の推定が不安定になるような状況となる特定箇所に相当する。
SFMでは全体で最適化が図られるため、このような誤対応の発生が少数であればエゴモーションの推定に大きな影響はないものの、誤対応の発生数が増加すると、エゴモーションの推定が破綻するおそれがある。以下、このようなエイリアシング発生のメカニズムについて、図4および図5を参照して説明する。なお、以下の説明では、繰り返しパターンの間隔をグリッドとも呼ぶこととする。
ここでは、図4および図5に示すように、同じ形状の防音壁が連続して設けられた区間を車両が走行している場合を例にエイリアシング発生のメカニズムを説明する。図4は、所定の時刻t11に撮像された画像を示しており、図5は、図4に示す画像の1フレーム後の画像である所定の時刻t12に撮像された画像を示している。この場合、図4および図5の2フレーム分の画像について、4つの特徴点P11~P15の対応付けが行われるものとする。なお、この場合における繰り返しパターンの間隔は、防音壁の壁エッジ同士の間隔となる。図4および図5では、一部の壁エッジについて、符号Eを付して表している。
ここで、1フレームで車両が2グリッド分だけ移動した場合であれば、矢印A11~A15で示すフローが正しいオプティカルフローとなる。しかし、誤対応により矢印A21~A25で示すフローが支配的になると、1フレームで車両が1グリッド分だけしか進んでいないと誤った推定がなされたり、または、特徴点P11~P15が実際よりも遠方の点であると誤った推定がなされたりするおそれがある。また、誤対応により矢印A31、A32で示すフローが支配的になると、1フレームで車両が1グリッド分だけ沈んだと誤った推定がなされるおそれがある。なお、SFM認識部18においてベクトルが最小となる対応付けが行われる場合、「グリッド幅≒車両の移動量」となる時点で誤対応が発生し始め、移動量が大きくなるほど影響が大きくなる。
そこで、本実施形態では、このようなエイリアシングによる誤推定の発生を抑制するため、次のような工夫が加えられている。すなわち、本実施形態において、ローカライズ部16は、特定箇所を表す情報である特定箇所情報を予め取得する情報取得部としての機能を有する。特定箇所は、前述したように、例えば同じ形状の防音壁が連続して設けられた区間など、車両の進行方向に沿うように同じ模様が繰り返された外見を有する物体が存在する箇所である。
特定箇所情報には、その時点において車両が特定箇所を通過しているか否かを表す情報、上記模様の位置(例えば防音壁の位置)および上記模様の繰り返し間隔、つまり繰り返しパターンの間隔(例えば壁エッジ同士の間隔)などが含まれている。ローカライズ部16は、特定箇所情報を表すデータDfを、エゴモーション算出部13へと出力する。SFM認識部18は、画像センサ3により撮像された画像を表すデータDbに加え、ローカライズ部16から送信される特定箇所情報を表すデータDfに基づいて自車挙動を推定する。
具体的には、SFM認識部18は、特定箇所情報に基づいて、車両が特定箇所を通過しているか否かを判断する、つまりエイリアシングが発生するか否かを判断する。SFM認識部18は、エイリアシングが発生すると判断すると、下記(1)式の条件を満たすように、画像センサ3の撮像周期、つまりSFM自体の作動周期を設定する。ただし、画像センサ3により撮像された画像の1フレーム間における車両の移動量をdxとし、模様の繰り返し間隔をwとする。
w/2>dx …(1)
つまり、SFM認識部18は、車両の移動量dxが模様の繰り返し間隔wの1/2より小さくなるようにSFMの周期を設定し、そのうえで画像センサ3により撮像された画像を表すデータDbに基づいて自車挙動を推定する。なお、SFM認識部18は、上記(1)式の条件を満たしていない場合にだけ上記した周期の設定を実施すればよく、既に上記(1)式の条件を満たしている場合には周期の設定を実施する必要はない。このようにSFMの周期が設定されることにより、エイリアシングによる誤推定の発生が抑制される。
一般的なエイリアシングの対策では、サンプリング周波数の1/2の周波数より高い周波数の入力信号をサンプリングするとエイリアシングが発生することから、このような条件とならないようにサンプリング周波数を設定するようになっている。上述した本実施形態におけるエイリアシングによる誤推定の発生への対策についても、このような一般的なエイリアシングの対策と同様の原理に基づいている。
ランドマーク検出部14は、認識部20および物標生成部21を備えている。認識部20は、データDbに基づいて、画像センサ3により撮像された画像上におけるランドマークの位置を検出する。なお、ランドマークの位置の検出手法としては、様々な手法を採用することができる。上記ランドマークには、例えば標識、看板、電柱や街灯などのポール、白線、信号機、前述した壁エッジなどが含まれる。
また、認識部20は、データDbに基づいて、自車両の走路を認識して道路パラメータおよび区画線を表す情報である区画線情報を取得する。道路パラメータには、車線の幅であるレーン幅、車線すなわち道路の曲率などの車線の形状を表す情報が含まれる。また、道路パラメータには、車線の幅方向中央位置から自車両の位置までの距離を表すオフセット、車線すなわち道路の接線方向と自車両の進行方向とのなす角度を表すヨー角などの車線の形状に対する自車両の走行状態を表す情報も含まれる。
この場合、上述した区画線情報などの走路情報も上記ランドマークに含まれる。認識部20は、このようなランドマークの検出結果を表すデータDgを物標生成部21へと出力する。物標生成部21は、認識部20から与えられるデータDgと、SFM認識部18から与えられるデータDdと、に基づいて、検出されたランドマークとその中のSFMの点を照合し、これにより、ランドマークの距離、横位置を含めた物理位置情報を求める。ランドマーク検出部14は、認識部20により取得された道路パラメータを表すデータDhを車両制御部4へと出力する。また、ランドマーク検出部14は、物標生成部21により生成された区画線情報などの走路情報も含まれたランドマークの位置に関する情報を表すデータDiを地図生成部15へと出力する。
地図生成部15は、GPS情報を表すデータDa、エゴモーション算出部13から与えられるデータDeおよびランドマーク検出部14から与えられるデータDiに基づいて地図情報を生成する。具体的には、地図生成部15は、GPS情報、生成されたランドマークおよび走行軌跡を紐付け、それにより断片的な地図データである地図情報を生成する。以下では、地図生成部15により生成される地図情報のことをプローブ地図とも呼ぶ。地図生成部15により生成されたプローブ地図を表すデータDjは、プローブデータとしてサーバ2にアップロードされるとともに、ローカライズ部16へと出力される。
プローブ地図は、SFMの精度に限界があることなどから、その精度は十分に高いとは言い難い。そこで、サーバ2の統合部10は、各車両の車載器から送信されるデータDjに基づいて、複数のプローブ地図を重ね合わせて統合し、地図の精度を向上させる。サーバ2の更新部11は、統合部10による統合が成功すると、統合地図を更新する。サーバ2は、統合地図を表すデータDkを各車両の車載器へと配信する。この場合、サーバ2は、配信先の車両の概略位置をGPS情報などに基づいて特定し、その概略位置の周辺(例えば概略位置を中心とした半径数kmの範囲)の統合地図を配信する。なお、車載器側に地図が存在する場合、その地図との差分配信も可能である。
ローカライズ部16は、自車両の現在位置を推定するローカライズを実行する。ローカライズ部16は、サーバ2から統合地図を表すデータDkをダウンロードし、そのダウンロードしたデータDkと、プローブ地図を表すデータDjおよび画像センサ3により撮像された画像を表すデータDbに基づいて、統合地図に対してローカライズを行う。なお、ローカライズ部16は、プローブ地図を表すデータDjを用いることなく、ローカライズを実行することもできる。
ローカライズ部16は、ローカライズが成功した場合、地図情報に基づく道路パラメータを算出する。ローカライズ部16は、地図情報に基づく道路パラメータを表すデータDlを車両制御部4へと出力する。車両制御部4は、ランドマーク検出部14から与えられるデータDhとローカライズ部16から与えられるデータDlとに基づいて、自車両の走行を制御するための各種の処理を実行する。すなわち、車両制御部4は、道路パラメータに基づいて自車両の走行を制御するための各種の処理を実行する。
上記構成において、地図生成部15は、車両が特定箇所に相当する箇所を通過したか否かを判断する通過判断部としての機能を有するとともに、車両が上記箇所を通過したと判断すると、その通過した箇所に関連する関連情報を車両から隔離したサーバ2に送信する情報送信部としての機能を有する。なお、地図生成部15により実行される後述する各処理は、通過判断手順および情報送信手順に相当する。
この場合、地図生成部15は、データDeが表す車両の走行軌跡およびデータDiが表すランドマーク情報が物理的にあり得ないものになっているか否かを判断する。なお、物理的にあり得ない走行軌跡としては、例えば車両の運動性能を超えた挙動を示すような軌跡が想定される。また、物理的にあり得ないランドマーク情報としては、例えば標識のサイズが存在しないほど大きくなっている、または小さくなっている、といったものが想定される。走行軌跡およびランドマーク情報の少なくとも一方が物理的にあり得ない状態になっている場合、車両が特定箇所に相当する箇所を通過している、つまりエイリアシングが発生している可能性が高いと考えられる。
そこで、地図生成部15は、走行軌跡およびランドマーク情報の少なくとも一方が物理的にあり得ない状態になっていると判断すると、その際に車両が通過した箇所に関連する関連情報をサーバ2に送信する。この場合、関連情報は、前述したデータDjに含める形でサーバ2に送信することができる。サーバ2は、複数の車両から送信されるデータDjが表す関連情報に基づいて、特定箇所情報を生成または更新する。
地図生成部15は、このような処理、つまり通過判断部および情報送信部としての処理を、常時実行するようになっている。したがって、地図生成部15は、ローカライズ部16が既に取得した特定箇所情報に対応した特定箇所を車両が通過する際にも、上述した各処理を実行する。このようにすれば、サーバ2において生成される特定箇所情報の精度を高めることができる。
なお、車載器側では、特定箇所に関して高精度な判定が難しいため、サーバ2が上記関連情報だけに基づいて特定箇所情報を生成すると、その精度が低くなるおそれがある。そこで、サーバ2は、車速、車線オフセット違いなどのデータを収集し、その中で不整合となる異常データを検出する。サーバ2は、異常データについて、車線、走行車線、そのとき推定された自車挙動などをチェックし、正常データで作成された統合地図と照合し、エイリアシングの発生を判定する。
サーバ2は、このようにしてエイリアシングの発生する箇所、つまり特定箇所を検出し、統合地図を表すデータDkに対し、特定箇所に関する情報である特定箇所情報を付与する。サーバ2は、前述したように、データDkを各車両の車載器へと配信する。情報取得部としての機能を有するローカライズ部16は、サーバ2から配信されたデータDkに基づいて特定箇所情報を取得し、その取得した特定箇所情報を表すデータDfをエゴモーション算出部13へと出力する。
ローカライズ部16は、推定した自車両の現在位置、その現在位置と認識しているランドマークとの位置関係、自車両の車速などに基づいて、その時点において車両が特定箇所を通過しているか否か、つまりエイリアシングが発生するか否か、を判定することができる。そのため、このような判定の結果を、エゴモーション算出部13に送信するデータDfに含めるようにしてもよい。この場合、サーバ2から送信されるデータDkには、車両が特定箇所を通過しているか否かを表す情報は含まれていなくともよい。なお、ローカライズ部16により実行される上記各処理は、情報取得手順に相当する。
本実施形態では、上述した通りエイリアシングによる誤推定の発生を抑制するための工夫が加えられているが、エイリアシングによる誤推定の発生が回避できないケースも考えられる。このようなケースでは、エゴモーション算出部13による自車挙動の推定ができなくなる。そうすると、エゴモーション算出部13により推定された自車挙動を用いて実行される処理に問題が生じるおそれがある。
そこで、中止処理部17は、このような異常、つまりエゴモーション算出部13による自車挙動の推定ができなくなる異常の発生を検出する。例えば、現在、車両が特定箇所に相当する箇所を通過しているにもかかわらず、その特定箇所に関する情報(例えば、模様の繰り返し間隔など)が不足しているときに上記異常が発生すると判断することができる。また、車速、模様の繰り返し間隔の値によっては、上記(1)式を満たすようにSFMの周期を変更することが困難となる場合も考えられるが、このような場合にも上記異常が発生すると判断することができる。なお、中止処理部17により実行される上記処理および後述する各処理は、中止処理手順に相当する。
中止処理部17は、上記異常の発生が検出されると、エゴモーション算出部13により推定された自車挙動を直接的または間接的に用いて行われる車両に関連する処理の実行を中止または変更する。その結果、各機能ブロックの処理が、次のように中止または変更される。すなわち、この場合、SFM認識部18がリセットされる。なお、ここで言う「リセット」とは、SFM認識部18が、その時点までにおいて取得した特徴点に関する情報を全て破棄して、一から特徴点に関する情報の取得をやり直す、ということを意味している。
また、この場合、走行軌跡生成部19は、SFM認識部18から正しいデータDdが送信されないことから、データDd以外の情報を活用し、例えば車両上の車速、ヨーレート、GPS情報などに基づいて補間することにより、比較的精度の低い軌跡推定を実施する。また、この場合、物標生成部21は、SFM認識部18の非動作中、あるいは、SFM認識部18のリセット中には、距離を正しく推定することができないため、後処理において使用されることがないように物標を全て無効状態で出力する。
または、この場合、物標生成部21は、SFM、オプティカルフローを用いない、簡易距離推定ロジックに切り替えて処理を実行する。簡易距離推定ロジックとしては、例えばピンホール原理により距離を推定する手法、ランドマークに対して仮定を置いて距離を推定する手法など、様々な手法を採用することができる。ただし、物標生成部21は、簡易距離推定ロジックによって推定できないもの(例えばポールなど)については、無効状態で出力する。
また、この場合、地図生成部15は、出力を無効値に設定するなどして、プローブデータをアップロードさせないようにするか、または、無効フラグだけをアップロードする。これに伴い、サーバ2の統合部10は、無効フラグが付与されたプローブデータは、統合対象から除外する。また、この場合、ローカライズ部16は、前述した簡易距離推定ロジックによって走行軌跡およびランドマーク情報が求められていることから、それらを利用することで可能となる範囲でローカライズの処理を実行する。
ただし、この場合、ローカライズの精度が低下している可能性が高い。そのため、ローカライズ部16は、車両制御部4へ出力するデータDlに対し、ローカライズの精度が低下している旨を表す精度低下情報を付与する。これに伴い、車両制御部4は、精度低下情報が付与されたデータDlが送信された場合には、精度低下を前提として、各種の制御を実行する。例えば、この場合、車両制御部4は、制御量を弱めて制御を実行したり、高い精度が要求される制御についての実行を中止したりする。
以上説明したように、本実施形態の制御装置8は、車両の周辺を撮像する画像センサ3により撮像された画像に基づいて自車挙動を推定する自車挙動推定装置として機能する。そして、制御装置8が備えるエゴモーション算出部13は、画像センサ3により撮像された画像に加え、ローカライズ部16が予め取得した特定箇所情報に基づいて自車挙動を推定する。このような構成によれば、画像に基づいた自車挙動の推定が不安定になるような状況となる特定箇所を車両が走行している場合、エゴモーション算出部13は、特定箇所情報に基づいて、画像での自車挙動の推定を補うことができる。そのため、上記構成によれば、画像でのエゴモーションの推定が不安定になる箇所でも精度良く自車挙動を推定することができるという優れた効果が得られる。
この場合、特定箇所としては、例えば同じ形状の防音壁が連続して設けられた区間など、車両の進行方向に沿うように同じ模様が繰り返された外見を有する物体が存在する箇所が想定される。そして、エゴモーション算出部13は、SFMの手法を利用して自車挙動を推定する構成となっている。そのため、上記したような区間を車両が走行する際、エイリアシングが発生し、エゴモーション算出部13のSFM認識部18による自車挙動の推定に誤りが生じる、つまりエイリアシングによる誤推定が発生するおそれがある。
そこで、本実施形態では、特定箇所情報には、模様の位置および模様の繰り返し間隔が含まれている。そして、SFM認識部18は、画像センサ3により撮像された画像の1フレーム間における車両の移動量が模様の繰り返し間隔の1/2より小さくなるようにSFMの周期を設定し、そのうえで画像センサ3により撮像された画像に基づいて自車挙動を推定する。このようにすれば、自車挙動を推定するための処理内容に変更を加えることなく、SFMの周期を変更するための処理を実行するだけで、エイリアシングによる誤推定の発生を抑制することができる。
制御装置8は、エゴモーション算出部13による自車挙動の推定ができなくなる異常の発生が検出されるとエゴモーション算出部13により推定された自車挙動を直接的または間接的に用いて行われる車両に関連する所定の処理の実行を中止または変更する中止処理部17を備える。このような構成によれば、エイリアシングによる誤推定の発生が回避できない場合であっても、誤って推定された自車挙動を用いて上記処理がそのまま実行されることがなくなる。したがって、上記構成によれば、例えば車両制御部4による制御の不具合、地図生成部15により生成されるプローブ地図、ひいてはサーバ2において生成される統合地図の精度低下、ローカライズ部16によるローカライズの精度低下など、自車挙動を用いて行われる各種処理における不具合が生じることを防止することができる。
上記構成において、地図生成部15は、車両が特定箇所に相当する箇所を通過したか否かを判断し、車両が上記箇所を通過したと判断すると、その通過した箇所に関連する関連情報をサーバ2に送信する機能を有する。サーバ2は、複数の車両から送信される関連情報に基づいて、特定箇所情報を生成する。このような構成によれば、サーバ2において生成される特定箇所情報の精度を高めることができる。
(第2実施形態)
以下、第2実施形態について図6および図7を参照して説明する。
本実施形態では、エゴモーション算出部13により実行される処理の内容、より具体的には、SFM認識部18により実行されるエイリアシングによる誤推定の発生を抑制するための処理の内容が、第1実施形態とは異なっている。本実施形態のSFM認識部18は、エイリアシングが発生すると判断すると、模様の位置および模様の繰り返し間隔に基づいて、画像センサ3により撮像された画像上における模様の位置の変化を予測し、その予測結果を利用して自車挙動を推定するようになっている。
以下、本実施形態におけるエイリアシングによる誤推定の発生を抑制するための処理の具体的な内容について図6および図7を参照して説明する。なお、ここでは、図4および図5に示したように、同じ形状の防音壁が連続して設けられた区間を車両が走行しているシーンを想定するとともに、特徴点P12の対応付けを例にして、誤推定の発生を抑制するための処理内容を説明する。
なお、図6は、図4と同様に所定の時刻t11に撮像された画像を示している。また、図6では、その1フレーム後の画像上における特徴点P12の位置を白抜きの丸印で示しし、自車両の中心位置を表す点線に符号Cを付している。さらに、図7では、時刻t11に撮像された画像上における車両の位置をM1とし、その1フレーム後の画像上における車両の位置をM2とし、白線をWLとし、道路端をREとしている。
繰り返しパターン幅θ3は、画像上の座標である画像座標から算出することができる。また、繰り返しパターン間隔wは、壁エッジ同士の間隔であり、模様の繰り返し間隔に相当する。つまり、繰り返しパターン間隔wは、特定箇所情報に含まれているため、予め取得することができる。さらに、車両の中心から道路端REまでの横位置yは、地図情報およびローカライズ、または道路端REの検出結果から取得することができる。
時刻t11における特徴点P12までの車両の進行方向に沿う距離xは、車両が道路端REおよび白線WLと平行して走行していると仮定すると、上述したように既知の値である繰り返しパターン幅θ3、横位置yおよび繰り返しパターン間隔wを用いて算出することができる。また、時刻t11における車両から見た特徴点P12の方位角θ1は、画像座標から算出することができる。さらに、画像の1フレーム間における車両の移動量dxは、車速の検出値を用いて算出することができる。
1フレーム後における特徴点P12の方位角θ2は、上述したように既知の値である方位角θ1、移動量dx、距離xおよび横位置yを用いて算出することができる。このように、繰り返しパターンの位置および間隔が明らかであれば、1フレーム後の画像上における特徴点の位置を予測することが可能であり、その予測結果を用いることにより誤対応を防ぐことができる。そして、上述した繰り返しパターンの位置および間隔は、ローカライズ部16により予め取得される特定箇所情報に含まれている。
SFM認識部18は、上述した手法により予測した1フレーム後の画像上における特徴点の位置に基づいて、2フレーム分の画像に基づいて算出した各オプティカルフローの正否を判断することができる。このようにすれば、SFM認識部18は、その成否の判断の結果、正しくないと判断したオプティカルフローを除外して、正しいと判断したオプティカルフローだけを用いて自車挙動の推定を行うことができる。または、SFM認識部18は、正しくないと判断したオプティカルフローについて正しいフローとなるように補正をしたうえで、自車挙動の推定を行うことができる。これにより、エイリアシングによる誤推定の発生が抑制される。
以上説明したように、本実施形態によっても、エゴモーション算出部13は、特定箇所情報に基づいて、画像での自車挙動の推定を補うことができる。そのため、本実施形態によっても、第1実施形態と同様、画像でのエゴモーションの推定が不安定になる箇所でも精度良く自車挙動を推定することができるという優れた効果が得られる。さらに、本実施形態によれば、次のような効果も得られる。
すなわち、本実施形態では、第1実施形態のようにSFMの周期を変更する必要がないため、車速および模様の繰り返し間隔の値に関係なく、エイリアシングによる誤推定の発生を抑制することができる。したがって、本実施形態によれば、第1実施形態に比べ、エゴモーション算出部13による自車挙動の推定ができなくなる異常の発生頻度を低く抑えることができる。また、第1実施形態の手法は、SFMの周期を変更することでエイリアシングによる誤推定の発生を抑制する手法であったため、1フレームで車両が沈んだと誤った推定がなされるようなケースには対応することができなかった。しかし、本実施形態の手法によれば、このようなケースであっても、誤推定の発生を抑制することができる。
(その他の実施形態)
なお、本発明は上記し且つ図面に記載した各実施形態に限定されるものではなく、その要旨を逸脱しない範囲で任意に変形、組み合わせ、あるいは拡張することができる。
上記各実施形態で示した数値などは例示であり、それに限定されるものではない。
地図システム1において、それぞれの機能ブロックは分散されていてもよい。例えば、車両側、つまり車載器側の制御装置8が備える各機能ブロックの一部がサーバ2側の制御装置9に設けられ、各制御装置が通信を介して各種データの送受信を行うことにより、自車挙動の推定などを実行する構成としてもよい。
第1実施形態において、SFM認識部18は、上記した(1)式の条件を満たすようにSFMの周期を変更するようになっていたが、これに代えてまたは加えて、(1)式の条件を満たすように車速を変化させるようにしてもよい。このようにした場合でも、SFMの周期を変更した場合と同様の作用および効果が得られる。
本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
2…サーバ、3…画像センサ、8…制御装置、13…エゴモーション算出部、15…地図生成部、16…ローカライズ部、17…中止処理部、22…記憶装置。

Claims (9)

  1. 車両の周辺を撮像する撮像装置(3)により撮像された画像に基づいて前記車両の挙動である自車挙動を推定する自車挙動推定装置であって、
    前記車両の周辺の状況が画像に基づいた前記自車挙動の推定が不安定になるような状況となる特定箇所を表す情報である特定箇所情報を予め取得する情報取得部(16)と、
    前記撮像装置により撮像された画像および前記特定箇所情報に基づいて前記自車挙動を推定する挙動推定部(13)と、
    を備え
    前記挙動推定部は、Structure From Motionの手法を利用して前記自車挙動を推定する構成であり、
    前記特定箇所は、前記車両の進行方向に沿うように同じ模様が繰り返された外見を有する物体が存在する箇所であり、
    前記特定箇所情報には、前記模様の位置および前記模様の繰り返し間隔が含まれる自車挙動推定装置。
  2. 前記挙動推定部は、前記撮像された画像の1フレーム間における前記車両の移動量が前記模様の繰り返し間隔の1/2より小さくなるように前記Structure From Motionの周期を設定し、前記自車挙動を推定する請求項に記載の自車挙動推定装置。
  3. 前記挙動推定部は、前記模様の位置および前記模様の繰り返し間隔に基づいて、前記撮像された画像上における前記模様の位置の変化を予測し、その予測結果を利用して前記自車挙動を推定する請求項またはに記載の自車挙動推定装置。
  4. さらに、前記挙動推定部による前記自車挙動の推定ができなくなる異常の発生が検出されると、前記挙動推定部により推定された前記自車挙動を直接的または間接的に用いて行われる前記車両に関連する所定の処理の実行を中止または変更する中止処理部(17)を備える請求項1からのいずれか一項に記載の自車挙動推定装置。
  5. さらに、
    前記車両が前記特定箇所に相当する箇所を通過したか否かを判断する通過判断部(15)と、
    前記通過判断部により前記車両が前記箇所を通過したと判断されると、その通過した前記箇所に関連する関連情報を前記車両から隔離したサーバ(2)に送信する情報送信部(15)と、
    を備え、
    前記サーバは、複数の車両の前記情報送信部から送信される前記関連情報に基づいて前記特定箇所情報を生成または更新し、
    前記情報取得部は、前記サーバから前記特定箇所情報を取得するようになっている請求項1からのいずれか一項に記載の自車挙動推定装置。
  6. 車両の周辺を撮像する撮像装置(3)により撮像された画像に基づいて前記車両の挙動である自車挙動を推定する自車挙動推定装置に、
    前記車両の周辺の状況が画像に基づいた前記自車挙動の推定が不安定になるような状況となる特定箇所を表す情報である特定箇所情報を予め取得する情報取得手順と、
    前記撮像装置により撮像された画像および前記特定箇所情報に基づいて前記自車挙動を推定する挙動推定手順と、
    を実行させる自車挙動推定プログラムであって、
    前記挙動推定手順は、Structure From Motionの手法を利用して前記自車挙動を推定する手順であり、
    前記特定箇所は、前記車両の進行方向に沿うように同じ模様が繰り返された外見を有する物体が存在する箇所であり、
    前記特定箇所情報には、前記模様の位置および前記模様の繰り返し間隔が含まれる自車挙動推定プログラム。
  7. 請求項に記載の自車挙動推定プログラムを記憶するコンピュータ読み取り可能な非一時的な記憶媒体。
  8. 車両の周辺を撮像する撮像装置(3)を備える車両に搭載され、前記撮像装置により撮像された画像に基づいて前記車両の挙動である自車挙動を推定する自車挙動推定装置であって、
    プログラムを格納した記憶装置(22)と、
    前記記憶装置から前記プログラムを読み込んで、前記車両の周辺の状況が画像に基づいた前記自車挙動の推定が不安定になるような状況となる特定箇所を表す情報である特定箇所情報を予め取得し、前記撮像装置により撮像された画像および前記特定箇所情報に基づいて前記自車挙動を推定する演算装置(8)と、
    を備え
    前記演算装置は、Structure From Motionの手法を利用して前記自車挙動を推定する構成であり、
    前記特定箇所は、前記車両の進行方向に沿うように同じ模様が繰り返された外見を有する物体が存在する箇所であり、
    前記特定箇所情報には、前記模様の位置および前記模様の繰り返し間隔が含まれる自車挙動推定装置。
  9. 車両の周辺を撮像する撮像装置(3)およびプログラムを格納した記憶装置(22)を備える車両に搭載され、前記撮像装置により撮像された画像に基づいて前記車両の挙動である自車挙動を推定する自車挙動推定装置によって実行される制御方法であって、
    前記記憶装置から前記プログラムを読み込み、
    前記車両の周辺の状況が画像に基づいた前記自車挙動の推定が不安定になるような状況となる特定箇所を表す情報である特定箇所情報を予め取得し、
    前記撮像装置により撮像された画像および前記特定箇所情報に基づいて、且つStructure From Motionの手法を利用して前記自車挙動を推定する、
    自車挙動推定装置の制御方法であって、
    前記特定箇所は、前記車両の進行方向に沿うように同じ模様が繰り返された外見を有する物体が存在する箇所であり、
    前記特定箇所情報には、前記模様の位置および前記模様の繰り返し間隔が含まれる自車挙動推定装置の制御方法。
JP2018208879A 2018-11-06 2018-11-06 自車挙動推定装置、自車挙動推定プログラム、記憶媒体および自車挙動推定装置の制御方法 Active JP7151387B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018208879A JP7151387B2 (ja) 2018-11-06 2018-11-06 自車挙動推定装置、自車挙動推定プログラム、記憶媒体および自車挙動推定装置の制御方法
US16/672,867 US11475713B2 (en) 2018-11-06 2019-11-04 Apparatus and method for estimating own vehicle behavior

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018208879A JP7151387B2 (ja) 2018-11-06 2018-11-06 自車挙動推定装置、自車挙動推定プログラム、記憶媒体および自車挙動推定装置の制御方法

Publications (2)

Publication Number Publication Date
JP2020077103A JP2020077103A (ja) 2020-05-21
JP7151387B2 true JP7151387B2 (ja) 2022-10-12

Family

ID=70459945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018208879A Active JP7151387B2 (ja) 2018-11-06 2018-11-06 自車挙動推定装置、自車挙動推定プログラム、記憶媒体および自車挙動推定装置の制御方法

Country Status (2)

Country Link
US (1) US11475713B2 (ja)
JP (1) JP7151387B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7321221B2 (ja) * 2021-09-06 2023-08-04 ソフトバンク株式会社 情報処理装置、プログラム、判定方法、及びシステム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285245A (ja) 1999-03-31 2000-10-13 Toshiba Corp 移動体の衝突防止装置、衝突防止方法、および記録媒体
JP2001351200A (ja) 2000-06-09 2001-12-21 Nissan Motor Co Ltd 車載用物体検知装置
JP2012026992A (ja) 2010-07-28 2012-02-09 Honda Motor Co Ltd 車両ピッチ角の推定装置
JP2015108604A (ja) 2013-12-06 2015-06-11 日立オートモティブシステムズ株式会社 車両位置推定システム,装置,方法、及び、カメラ装置
JP2016183890A (ja) 2015-03-26 2016-10-20 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
WO2017029734A1 (ja) 2015-08-19 2017-02-23 三菱電機株式会社 車線認識装置および車線認識方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102623680B1 (ko) 2015-02-10 2024-01-12 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
JP6344275B2 (ja) * 2015-03-18 2018-06-20 トヨタ自動車株式会社 車両制御装置
US11067996B2 (en) * 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
US11067995B2 (en) * 2017-03-20 2021-07-20 Mobileye Vision Technologies Ltd. Navigation by augmented path prediction
US11254329B2 (en) * 2017-04-24 2022-02-22 Mobileye Vision Technologies Ltd. Systems and methods for compression of lane data
US11145146B2 (en) * 2018-01-31 2021-10-12 Mentor Graphics (Deutschland) Gmbh Self-diagnosis of faults in an autonomous driving system
US11295161B2 (en) * 2019-05-22 2022-04-05 Zoox, Inc. Localization using semantically segmented images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285245A (ja) 1999-03-31 2000-10-13 Toshiba Corp 移動体の衝突防止装置、衝突防止方法、および記録媒体
JP2001351200A (ja) 2000-06-09 2001-12-21 Nissan Motor Co Ltd 車載用物体検知装置
JP2012026992A (ja) 2010-07-28 2012-02-09 Honda Motor Co Ltd 車両ピッチ角の推定装置
JP2015108604A (ja) 2013-12-06 2015-06-11 日立オートモティブシステムズ株式会社 車両位置推定システム,装置,方法、及び、カメラ装置
JP2016183890A (ja) 2015-03-26 2016-10-20 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
WO2017029734A1 (ja) 2015-08-19 2017-02-23 三菱電機株式会社 車線認識装置および車線認識方法

Also Published As

Publication number Publication date
JP2020077103A (ja) 2020-05-21
US20200143152A1 (en) 2020-05-07
US11475713B2 (en) 2022-10-18

Similar Documents

Publication Publication Date Title
CN107451521B (zh) 车辆车道图估算
JP6356585B2 (ja) 車両の走行制御装置
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
CN111026081B (zh) 一种误差计算方法、装置、设备及存储介质
JP2020193954A (ja) 位置補正サーバ、位置管理装置、移動体の位置管理システム及び方法、位置情報の補正方法、コンピュータプログラム、車載装置並びに車両
JP2021117048A (ja) 変化点検出装置及び地図情報配信システム
CN111107310A (zh) 照相机参数估计装置、照相机参数估计方法
JPWO2019065564A1 (ja) 自動運転制御装置及び方法
CN107430821B (zh) 图像处理装置
JP7215460B2 (ja) 地図システム、地図生成プログラム、記憶媒体、車両用装置およびサーバ
CN114694111A (zh) 车辆定位
JP7151387B2 (ja) 自車挙動推定装置、自車挙動推定プログラム、記憶媒体および自車挙動推定装置の制御方法
US20220196424A1 (en) Vehicle control method and vehicle control device
CN111959482B (zh) 自主驾驶装置及方法
US20200158850A1 (en) Apparatus and method for learning scale factor of vehicle speed sensor
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
CN116892949A (zh) 地上物检测装置、地上物检测方法以及地上物检测用计算机程序
US11912290B2 (en) Self-position estimation accuracy verification method and self-position estimation system
US20220082407A1 (en) Map system, map generating program, storage medium, on-vehicle apparatus, and server
JP7259032B2 (ja) 車両制御装置
JP2019007790A (ja) 車両位置判定装置
JP2007153098A (ja) 周辺車両位置検出装置および周辺車両の位置予測方法
JP2018124641A (ja) 運転支援装置
US20220254140A1 (en) Method and System for Identifying Object
JP6057660B2 (ja) 車線監視システム及び車線監視方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220912

R151 Written notification of patent or utility model registration

Ref document number: 7151387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151