JP6773223B2 - 走行制御方法及び走行制御装置 - Google Patents

走行制御方法及び走行制御装置 Download PDF

Info

Publication number
JP6773223B2
JP6773223B2 JP2019524754A JP2019524754A JP6773223B2 JP 6773223 B2 JP6773223 B2 JP 6773223B2 JP 2019524754 A JP2019524754 A JP 2019524754A JP 2019524754 A JP2019524754 A JP 2019524754A JP 6773223 B2 JP6773223 B2 JP 6773223B2
Authority
JP
Japan
Prior art keywords
vehicle
traveling
locus
control method
checkpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019524754A
Other languages
English (en)
Other versions
JPWO2018235171A1 (ja
Inventor
泰仁 佐野
泰仁 佐野
博幸 ▲高▼野
博幸 ▲高▼野
祐一 武田
祐一 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of JPWO2018235171A1 publication Critical patent/JPWO2018235171A1/ja
Application granted granted Critical
Publication of JP6773223B2 publication Critical patent/JP6773223B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18145Cornering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping

Description

本発明は、走行制御方法及び走行制御装置に関する。
従来から、互いに異なる時刻にカメラで撮影された物体の画像上の位置の差とカメラの移動量とに基づいて物体の3次元位置を計測する3次元位置計測装置が知られている(特許文献1参照)。特許文献1では、処理対象の画像から抽出された抽出特徴点のうち、3次元位置が確定した抽出特徴点を除く抽出特徴点を、次の処理対象の画像から抽出される特徴点との照合に使用することにより、処理時間の増加を抑制している。
特開2014−106092号公報
このように、カメラを用いて周囲の物体(特徴点)の3次元位置を計測することにより、物体(特徴点)の3次元位置から成る地図を作成できると同時に、当該地図上の車両が通過した地点を特定することもできる。そして、車両が走行した地点を再び通過するような走行計画を立て、当該走行計画に基づいて車両の走行制御を行うことが可能となる。
車両の走行制御を行う際に、カメラを用いて地点を再び通過したか否かを精度良く確認することができる。しかし、カメラを用いたビジュアルオドメトリで検出される車両の移動量の検出精度は、車両から特徴点までの距離が長くなる程低下してしまう。このため、地図上の移動量と現実の移動量との間に大きな誤差が発生してしまう。よって、ビジュアルオドメトリで検出された車両の移動量を用いて車両の走行計画を立て、当該走行計画に沿って車両の走行制御を行った場合、現実の環境に沿って走行できない恐れがある。
本発明は、このような従来の課題に鑑みてなされたものであり、その目的は、現実の環境に沿って正確に走行することである。
本発明の一態様に係わる走行制御装置の走行制御方法は、車両に搭載されたカメラで車両の周囲を撮影して得られた画像に基づいて車両が走行した地点を学習し、車両から得られる車両信号に基づいて車両の走行軌跡を学習する。そして、カメラで撮影して得られた画像に基づいて地点を車両が通過したか否かを判断し、地点の何れかの地点を通過した場合に、何れかの地点の次の地点までの目標軌跡として、車両信号に基づいて学習した走行軌跡を用いて車両の走行制御を行い、カメラで撮影して得られた画像に基づいて、次の地点を車両が通過したか否かを判断する。
本発明の一態様によれば、現実の環境に沿って正確に走行できるようになる。
図1は、実施形態に係わる走行制御装置の全体構成を示す機能ブロック図である。 図2は、学習部23の動作の一例を示すフローチャートである。 図3は、走行制御部31の動作の一例を示すフローチャートである。 図4Aは、カメラ(12a、12b)の取り付け角度(ヨー角)が正しい場合の直進状態の車両の姿勢を示す図である。 図4Bは、カメラ(12a、12b)の取り付け角度(ヨー角)が傾いている場合の直進状態の車両の姿勢を示す図である。 図4Cは、カメラ(12a、12b)の車両の前後方向の取り付け位置が正しい場合の車両の旋回軌跡を示す図である。 図4Dは、カメラ(12a、12b)の車両の前後方向の取り付け位置がずれている場合の車両の旋回軌跡を示す図である。 図5は、オートキャリブレーションの手順の一例を示すフローチャートである。 図6Aは、ビジュアルオドメトリで学習した地図上における、特徴点(FP1〜FP4)に対するチェックポイント(CK1〜CK4)の相対位置、各特徴点(FP1〜FP4)の間の相対位置、チェックポイント(CK1〜CK4)からの目標軌跡(車両オドメトリ:TJ1〜TJ4)を示す図である。 図6Bは、実際の車両の動きを示す図であり、特徴点(FP1〜FP4)に対するチェックポイント(CK1〜CK4)の相対位置、各特徴点(FP1〜FP4)の間の相対位置、チェックポイント(CK1〜CK4)からの目標軌跡(車両オドメトリ:TJ1〜TJ4)を示す。
次に、図面を参照して、実施形態を詳細に説明する。
<走行制御装置>
図1を参照して、実施形態に係わる走行制御装置の全体構成を説明する。走行制御装置は、カメラ(12a、12b)と、車両センサ13と、カメラ(12a、12b)及び車両センサ13から得られたデータを記録する記録装置15と、車両の走行制御を実行する車両アクチュエータ14と、コントローラ11とを備える。
カメラ(12a、12b)は、車両に搭載されたステレオカメラであって、車両の周囲を撮像して画像データを生成する。カメラ(12a、12b)は、車両の周囲の物体を複数の異なる方向から同時に撮影することにより、視差情報に基づき物体の奥行き情報を取得することができる。つまり、カメラ(12a、12b)を用いて車両の周囲の物体の3次元位置を計測することが可能となる。勿論、単眼カメラで撮像した1枚の画像から距離情報を取得しても構わない。
車両センサ13は、車両に搭載され、車両から得られる様々な情報(車両信号)を検出する。車両センサ13には、例えば、車両の走行速度(車速)を検出する車速センサ、車両が備える各タイヤの回転速度を検出する車輪速センサ、車両の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、車両に生じる角速度を検出するジャイロセンサ、ヨーレートを検出するヨーレートセンサが含まれる。
車両アクチュエータ14は、車両の走行に関わるアクセル、ブレーキ、ステアリングの操作を実行する駆動部である。車両アクチュエータ14には、例えば、アクセルペダルを操作するアクセルペダルアクチュエータ、制動力を制御するブレーキアクチュエータ、舵角を制御するステアリングアクチュエータが含まれる。
コントローラ11は、カメラ(12a、12b)及び車両センサ13により得られるデータに基づいて車両が通過した地点及び走行軌跡を学習し、学習結果に基づいて車両アクチュエータ14を制御することにより車両の走行制御を行う。尚、本実施形態において実行する走行制御は、学習した走行軌跡に基づいて走行するように制御されればよく、アクチュエータ14の内、アクセルペダルアクチュエータ、ブレーキアクチュエータ、ステアリングアクチュエータの少なくとも何れかが制御されていればよい。また走行制御においては、乗員の介入なしに車両を走行させる自動運転、ドライバーの介入に基づいて車両を走行させる手動運転に用いることができる。手動運転に用いる場合は、走行軌跡に基づいて走行できるように、乗員の介入をアシストする。
コントローラ11は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータを用いて実現可能である。コントローラ11には、走行制御装置として機能させるためのコンピュータプログラム(走行制御プログラム)がインストールされ、メモリに記憶されている。コンピュータプログラムを実行することにより、コントローラ11は、走行制御装置が備える複数の情報処理回路(21、22、23、31)として機能する。なお、実施形態では、ソフトウェアによって走行制御装置が備える複数の情報処理回路(21、22、23、31)を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路(21、22、23、31)を構成することも可能である。また、複数の情報処理回路(21、22、23、31)を個別のハードウェアにより構成してもよい。更に、情報処理回路(21、22、23、31)は、車両に関わる他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。
コントローラ11は、複数の情報処理回路として、画像取得部21と、車両信号取得部22と、学習部23と、走行制御部31とを備える。学習部23は、チェックポイント学習部29と、車両オドメトリ学習部30とを備える。走行制御部31は、通過確認部24と、目標軌跡設定部25と、車両制御部26とを備える。
記録装置15は、学習部23による学習結果を保存する軌跡画像記録部27及び軌跡記録部28を備える。軌跡画像記録部27には、チェックポイント学習部29による学習結果が記録され、軌跡記録部28には、車両オドメトリ学習部30による学習結果が記録される。
画像取得部21は、カメラ(12a、12b)の撮影により得られた画像データを取得する。詳細には、画像取得部21は、画像データと共に、その撮影タイミングを示すタイムスタンプも同時に取得する。車両信号取得部22は、車両センサ13からの検出結果を、車両から得られる車両信号として取得する。詳細には、車両信号取得部22は、車両信号と共に、その検出タイミングを示すタイムスタップも同時に取得する。撮像タイミング及び検出タイミングの各々を示すタイムスタップを、画像データ及び車両信号と共に受信することにより、画像データ及び車両信号を時間軸により関連付けることが可能となる。
学習部23(学習回路)は、車両が走行した地点(チェックポイント)と、走行軌跡を、同時に並行して学習することができる。
チェックポイント学習部29は、カメラ(12a、12b)の画像データに基づいて、地図、及び地図上における車両の位置及び車両の走行軌跡を算出する。算出方法は特に問わず、既存の方法を用いることができる。例えば、先ず、カメラ(12a、12b)の画像の中から特徴点をそれぞれ抽出し、特徴点のステレオマッチング処理及び視差情報に基づき、特徴点の3次元位置を特定する。そして、車両が走行しながら繰り返し撮像を行い、フレーム(画像)間で特徴点のマッチング処理を行うことにより、車両の走行軌跡を算出することができる。これらのマッチング処理により、チェックポイント学習部29は、複数のフレームから抽出された複数の特徴点の3次元位置を1つの地図(環境マップを含む)上に表すことができる。また同時に、地図上における車両の位置及び車両の走行軌跡を特定することもできる。なお、カメラ(12a、12b)の画像に基づいて算出される車両の走行軌跡を「ビジュアルオドメトリ(VO)」と呼ぶ。
更に、チェックポイント学習部29は、カメラ(12a、12b)の画像データに基づいて、車両が走行した地点(チェックポイント)を学習する。具体的には、チェックポイントを、当該地点を車両が通過したときに撮影した画像に基づいて学習する。例えば、チェックポイント学習部29は、当該画像から抽出された特徴点の画像上の位置、又は特徴点の3次元位置に基づいて、チェックポイントを学習すればよい。
地図、チェックポイントに関わる画像データ、及び特徴点の位置情報を含むチェックポイント学習部29の学習結果は、軌跡画像記録部27に記録される。
車両オドメトリ学習部30は、車両センサ13により検出された車両信号に基づいて、車両の走行軌跡を算出し、学習する。走行軌跡の算出方法は、特に問わず、既存の方法を用いることができる。例えば、左右のタイヤの回転角度の差からヨーレートを算出し、ヨーレートを積分することにより車両のヨー角(車両の姿勢、進行方向を含む)を算出すればよい。勿論、ヨーレートセンサを用いても構わない。また、車両が備えるタイヤの回転量から車両の移動量を算出することができる。車両信号に基づいて算出される車両の走行軌跡を「車両オドメトリ」と呼ぶ。車両の走行軌跡を含む学習結果は、軌跡記録部28に記録される。尚、車両オドメトリ学習部30は、チェックポイントの間毎に分割して走行軌跡を学習してもよく、分割せず車両軌跡を学習するようにしてもよい。分割する際は、所定時間毎にでもよく、シーン毎(例えば、直進、カーブ、高速道、一般道、交差点)でもよく、分割する方法は問わない。
なお、チェックポイント学習部29及び車両オドメトリ学習部30は、車両の走行中に並行して、チェックポイント及び走行軌跡(車両オドメトリ)を学習することができる。チェックポイント及び走行軌跡(車両オドメトリ)を同時に学習してもよいし、いずれか一方を他方よりも先に学習しても構わない。
このようにして、学習部23は、チェックポイントと、走行軌跡(車両オドメトリ)を、同時に並行して学習することができる。
走行制御部31(走行制御回路)は、学習部23が学習したチェックポイント、及びチェックポイント間の走行軌跡に基づいて、車両の走行制御を行う。具体的には、チェックポイントを再び通過した否かを確認し、チェックポイントの間の目標軌跡として、車両信号に基づいて学習した走行軌跡(車両オドメトリ)を用いて、車両の走行制御を行う。
走行制御部31は、ユーザからの指示の基に、学習部29により作成された地図上において車両の走行計画を立てる。走行計画には、出発地(現在地を含む)、目的地、及び出発地から目的地までの走行経路上で通過するチェックポイントが含まれる。走行制御部31は、走行計画に従って車両の走行制御を行う。
通過確認部24は、チェックポイントを車両が通過したか否かを判断する。具体的には、先ず、チェックポイントを通過した時の画像(記録画像)及び記録画像中の特徴点の位置情報を、軌跡画像記録部27から読み出す。そして、走行制御の時に撮影された画像(対象画像)中の特徴点と、記録画像中の特徴点との対応付けを行う。対応付けに成功した特徴点が所定の条件を満たした場合、チェックポイントにおけるカメラの位置及び姿勢を、走行制御時に再現できた判断できる。即ち、対象画像は、記録画像を取得した時と同じカメラの位置及び姿勢において取得された、と判断できる。よって、この場合、通過確認部24は、チェックポイントを車両が通過したと判断する。
画像に基づくチェックポイントの学習は、車両の周囲環境から抽出された特徴点に結びつけられた形で車両の位置を学習することである。このため、学習結果である地図上のチェックポイントと現実のチェックポイントとの誤差は極めて小さい。よって、走行制御の時のチェックポイントの通過を高い再現性によって確認することができる。
なお、対応付けに成功した特徴点が所定の条件を満たしたか否かは、例えば、以下の方法を用いて判断することができる。先ず、記録画像中から抽出された特徴点の数をFsとする。対象画像中から抽出された特徴点のうち、記録画像中から抽出された特徴点と対応付けに成功した特徴点の数をFnとする。例えば、記録画像と対象画像との間で、車両に対する特徴点の相対位置のずれが所定値未満である場合、その特徴点は対応付けに成功したと判断する。画像通過確信度(Z)を、Z=Fn/Fsと定義する。画像通過確信度は、チェックポイントを車両が通過した可能性を示す。通過確認部24は、画像通過確信度が0.8未満である場合、画像通過確信度が低いため、対応付けに成功した特徴点が所定の条件を満たしていない、つまり、チェックポイントを車両が通過していない、と判断する。通過確認部24は、画像通過確信度が0.8以上である場合、対応付けに成功した特徴点が所定の条件を満たしている、つまり、チェックポイントを車両が通過したと判断する。
なお、通過確認部24は、車両信号に基づく走行軌跡(車両オドメトリ)からチェックポイントにおける車両の姿勢の再現性を追加的に確認してもよい。チェックポイントを通過した時の走行軌跡(車両オドメトリ)を軌跡記録部28から読み出し、チェックポイントを通過した時の車両の進行方向(学習進行方向)を特定する。そして、走行制御の時に画像に基づいて検出された車両の進行方向と、学習進行方向との対応付けを行う。通過確認部24は、対応付けに成功した特徴点が所定の条件を満たし、且つ進行方向の対応付けに成功した場合、チェックポイントを車両が通過したと判断しても構わない。例えば、走行制御の時の進行方向と、学習進行方向との角度差が、5°以下であれば、進行方向の対応付けに成功したと判断すればよい。
更に、通過確認部24は、特徴点の対応付けにより算出されるカメラのオフセット量、つまり、チェックポイントからのずれ量が所定値(2m)以上である場合、画像通過確信度がゼロ(Z=0)であり、チェックポイントを車両が通過していないと判断してもよい。或いは、通過確認部24は、目標軌跡設定部25により設定された目標軌跡から車両の位置までの距離を算出し、当該距離が所定値(2m)以上である場合、チェックポイントを車両が通過していないと判断しても構わない。
目標軌跡設定部25は、チェックポイントの間の目標軌跡として、車両信号を用いて学習した走行軌跡(車両オドメトリ)を設定する。具体的には、通過確認部24により第1のチェックポイントの通過が確認された場合に、第1のチェックポイントから第2のチェックポイントまでの走行軌跡を軌跡記録部28から読み出し、第2のチェックポイント(次のチェックポイント)までの目標軌跡として、読み出した走行軌跡を設定する。第2のチェックポイントは、走行計画において、第1のチェックポイントの後に通過する予定のチェックポイントである。
目標軌跡設定部25は、通過確認部24によって第1のチェックポイントの通過が確認された時の車両の位置及び進行方向に基づいて、目標軌跡に対するオフセット量を算出する。第1のチェックポイントの通過が確認された時の、第1のチェックポイントからの車両の位置のずれ量、及び目標軌跡に対する車両の進行方向のずれ量を、目標軌跡にするオフセット量として算出する。目標軌跡設定部25は、当該オフセット量に基づいて目標軌跡を補正する。具体的には、車両の位置及び進行方向のずれ量の各々が修正されるように、目標軌跡を補正する。目標軌跡が補正されなければ、第1のチェックポイントの通過確認時の車両の位置及び進行方向のずれ量は、第2のチェックポイントにおいても引き継がれてしまう。オフセット量に基づいて目標軌跡を補正することにより、補正後の目標軌跡に沿って車両を走行させることができる。これにより、次のチェックポイント(第2のチェックポイント)に向かって車両を走行させることができるので、次のチェックポイント(第2のチェックポイント)の通過可能性を高めることができる。
車両制御部26は、目標軌跡設定部25により設定され又は補正された地点間の走行軌跡と同じ軌道を走行するように、車両アクチュエータ14を制御する。具体的な制御方法は問わず、既存の方法を用いればよい。例えば、走行制御時の車両信号から演算される走行軌跡フィードバック制御(例えば、PID制御)を用いて、車両アクチュエータ14を制御することができる。
<走行制御方法>
次に、図2及び図3を参照して、走行制御装置の動作例を説明する。先ず、図2を参照して、学習部23の動作例を説明する。
ステップS01において、画像取得部21は、カメラ(12a、12b)を用いて車両の周囲を撮影して画像を取得する。画像取得部21は、カメラ(12a、12b)の撮影タイミングを同期させ、且つ、所定のフレームレート(1〜5FPS)で繰り返し撮影する。
ステップS03に進み、チェックポイント学習部29は、カメラ(12a、12b)の画像の中から特徴点をそれぞれ抽出する。
ステップS05に進み、チェックポイント学習部29は、特徴点のステレオマッチング処理及び画像の視差情報に基づき、特徴点の3次元位置を特定する。そして、特徴点に対する車両の相対位置を、車両が走行した地点(チェックポイント)として学習する。チェックポイント学習部29は、チェックポイントに関わる画像データ、及び特徴点の位置情報を含む学習結果を、軌跡画像記録部27に記録する。本動作例において、フレーム(画像)間で特徴点のマッチング処理を行わなくてもよい。つまり、複数のフレームから抽出された複数の特徴点の3次元位置を示す地図は作成しなくてもよい。
ステップS07に進み、車両オドメトリ学習部30は、車両センサ13により検出された車両信号に基づいて、車両の走行軌跡を算出し、学習する。車両オドメトリ学習部30は、車両の走行軌跡を含む学習結果を、軌跡記録部28に記録する。なお、本動作例のみならず、ステップS01〜S05とステップS07とを同時に並行して実行してもよいし、ステップS07をステップS01〜S05よりも前に実施しても構わない。
次に、図3を参照して、走行制御部31の動作例を説明する。ステップS11において、通過確認部24は、チェックポイントを通過した時の画像(記録画像)及び記録画像中の特徴点の位置情報を、軌跡画像記録部27から読み出す。
ステップS13に進み、画像取得部21は、カメラ(12a、12b)を用いて車両の周囲を撮影して画像を取得する。画像取得部21は、カメラ(12a、12b)の撮影タイミングを同期させ、且つ、所定のフレームレート(1〜5FPS)で繰り返し撮影する。
ステップS15に進み、通過確認部24は、ステップS13で取得した画像(対象画像)の中から特徴点をそれぞれ抽出する。ステップS17に進み、通過確認部24は、ステップS15において抽出された特徴点と、読み出した記録画像中の特徴点との対応付けを行う。
ステップS19に進み、通過確認部24は、車両オドメトリから車両の進行方向を算出する。ステップS21に進み、通過確認部24は、特徴点の対応付けの結果を画像通過確信度(Z)として算出する。ステップS23に進み、通過確認部24は、画像通過確信度(Z)が0.8以上であるか否かを判断する。更に、通過確認部24は、チェックポイントを通過した時の車両の進行方向(学習進行方向)と、ステップS19で算出した走行制御の時の進行方向とを対比する。通過確認部24は、走行制御の時の進行方向と、学習進行方向との角度差が、5°以下であるか否かを判断する。
画像通過確信度(Z)が0.8以上であり、且つ角度差が5°以下である場合(S23でYES)、チェックポイントを車両が通過したと判断して、ステップS25へ進む。一方、画像通過確信度(Z)が0.8未満であるか、或いは、角度差が5°より大きい場合(S23でNO)、チェックポイントを車両が通過していないと判断して、ステップS13へ戻る。
ステップS25において、目標軌跡設定部25は、チェックポイントの通過が確認された時(ステップS23でYES)の車両の位置を基準にして、次のチェックポイントまでの目標軌跡として、ステップS07において学習した走行軌跡(車両オドメトリ)を設定する。
ステップS27に進み、目標軌跡設定部25は、チェックポイントの通過が確認された時の車両の位置を基準にして、目標軌跡に対するオフセット量を算出する。具体的には、チェックポイントからの車両の位置のずれ量、及び目標軌跡に対する車両の進行方向のずれ量を、算出する。ステップS29に進み、目標軌跡設定部25は、車両の位置及び進行方向のずれ量の各々が修正されるように、オフセット量に基づいてステップS25で設定した目標軌跡を補正する。
ステップS31に進み、通過確認部24は、次のチェックポイントを設定する。具体的には、次のチェックポイントを通過した時の画像(記録画像)及び記録画像中の特徴点の位置情報を、軌跡画像記録部27から読み出す。
ステップS33に進み、車両制御部26は、ステップS29において補正された走行軌跡と同じ軌道を走行するように、車両アクチュエータ14を制御する。ステップS35に進み、走行制御部31は、走行計画における目的地に到達したか否かは判断し、目的地に到達するまで、繰り返し、ステップS11〜33を実行する。
<キャリブレーション>
次に、カメラ(12a、12b)の取り付け位置及び取り付け角度のキャリブレーションについて説明する。カメラ(12a、12b)の取り付け位置又は取り付け角度には固体誤差が生じる。また、カメラ(12a、12b)の取り付け位置及び角度は、走行距離又は走行時間と共に変化する可能性がある。車両の走行制御を行う時(オンライン時)のカメラ(12a、12b)の取り付け位置又は取り付け角度が、チェックポイント及び走行軌跡を学習する時(オフライン時)の取り付け位置又は取り付け角度から変化する可能性がある。
カメラ(12a、12b)の取り付け位置又は取り付け角度がずれている場合、カメラ(12a、12b)の移動量が正しく求められても、車両の移動量が正しく求められない。例えば、車両の速度が同じであっても、カメラ(12a、12b)の取り付け角度(ピッチ角)が異なれば、画像上において特徴点の移動速度が変化する。これにより、車両の移動量に誤差が生じてしまう。この他に、図4Aに示すように、カメラ(12a、12b)の取り付け角度(ヨー角)が正しい場合、直進状態の車両の姿勢を正しく求めることができる。しかし、図4Bに示すように取り付け角度が傾いている場合、車両の移動を正しく求めることができない。また、図4C及び図4Dに示すように、カメラ(12a、12b)の取り付け位置が車両の前後方向にずれている場合、車両が旋回する時に、カメラ(12a、12b)の移動軌跡を正しく求めることはできるが、車両の走行軌跡を正しく求めることができない。
そこで、走行中において、カメラ(12a、12b)の取り付け位置又は取り付け角度の校正(オートキャリブレーション)を行うことが望ましい。図5を参照して、オートキャリブレーションの手順の一例を説明する。
先ず、ステップS51において、画像取得部21は、カメラ(12a、12b)を用いて車両の周囲を撮影して画像を取得する。ステップS53に進み、チェックポイント学習部29は、特徴点のステレオマッチング処理及び視差情報に基づき、特徴点の3次元位置を特定する。そして、フレーム(画像)間で特徴点のマッチング処理を行うことにより、車両の走行軌跡(ビジュアルオドメトリ)を算出する。ビジュアルオドメトリからカメラ(12a、12b)の移動量を算出する。
ステップS55に進み、車輪速センサは、各タイヤの回転速度を検出し、車両オドメトリ学習部30は、回転速度を時間で積分することにより、各タイヤの回転量を検出する。ステップS57に進み、車両オドメトリ学習部30は、ジャイロセンサを用いて車両の回転量(ヨー角)を検出する。ステップS59に進み、車両オドメトリ学習部30は、各タイヤの回転量及び車両の回転量(ヨー角)に基づいて、車両の走行軌跡(車両オドメトリ)を算出する。
ステップS61に進み、コントローラ11は、キャリブレーションが可能な場所を車両が走行しているか否かを判断する。具体的には、ビジュアルオドメトリを求める為に必要な数の特徴点を得られる場所であることを確認する。画像上における輝度変化が少ない場所や光量の少ない場所を走行している場合、コントローラ11は、キャリブレーションが可能な場所ではないと判断して、キャリブレーションの処理を中断する。
なお、ビジュアルオドメトリでは、フレーム間での特徴点のマッチング処理によって複数の特徴点を追跡しながらカメラ(12a、12b)の進行方向を推定する。このため、遠方が見通せない場所、点滅する点を特徴点とする場所、スラロームなどの直線状に走行できない場所であっても、複数の特徴点を用いて進行方向の計測を継続することができる。
キャリブレーションが可能な場所であると判断された場合には、ステップS63に進み、コントローラ11は、ステップS53で算出した車両の走行軌跡(第1の移動値:ビジュアルオドメトリ)と、ステップS59で算出した車両の走行軌跡(第2の移動値:車両オドメトリ)とを比較して、比較結果として走行軌跡の差違を算出する。ステップS65に進み、走行軌跡の差違に基づいて、カメラ(12a、12b)からの出力値を補正する。カメラ(12a、12b)からの出力値には、カメラ(12a、12b)から出力された画像上の特徴点の位置が含まれる。具体的には、コントローラ11は、ビジュアルオドメトリと車両オドメトリの比較結果に基づいて、カメラ(12a、12b)の取り付け位置及び取り付け角度(ヨー角、ピッチ角)のずれを算出する。そして、当該ずれが修正されるように、画像上の特徴点の位置を補正する。これにより、走行中にカメラ(12a、12b)のキャリブレーションを実行することができ、カメラ(12a、12b)の取り付け位置及び取り付け角度を正確に特定できる。
なお、カメラ(12a、12b)からの出力値として、車両の進行方向の出力値及び進行方向に垂直な方向の出力値を補正してもよい。これにより、車両の進行方向に平行な方向に誤差が発生した時に、垂直方向に出力値の補正を正確に実施することが可能となる。
また、カメラ(12a、12b)からの出力値の補正は、車両の直進時に実行してもよい。つまり、図5のステップS61において、車両が直進状態であることを確認した上で、処理を進めてもよい。具体的には、「車両は、直進している時は、正面を向いている」ことを利用して、カメラ(12a、12b)の取り付け角度(ヨー角)のキャリブレーションを行う。車両が直進状態である場合、画像上において特徴点は一定した動きを取り、特徴点を見失うことなく安定して検出することができる。このため、ビジュアルオドメトリを用いることにより、車両が直進状態か否かを高精度に判断することができる。スラローム走行時においても、局所的に直進状態となる区間を抽出して、キャリブレーションを実行することができる。これにより、システムの稼働時間を増やすことができる。
以上説明したように、実施形態によれば、以下の作用効果が得られる。
実施形態に関わる走行制御装置は、車両の周囲の物体の3次元位置からなる地図を作成すると同時に、地図上の車両が通過した地点(チェックポイント)、及び走行軌跡(車両オドメトリ)を学習し、学習したチェックポイントを再び通過し、学習した走行軌跡(車両オドメトリ)に沿って走行するように車両の走行制御を行う。
実施形態では、車両から得られる車両信号に基づいて車両の走行軌跡(車両オドメトリ)を学習する。車両オドメトリで学習した局所的な移動量の精度は、ビジュアルオドメトリで学習した局所的な移動量の精度に比べて高い。特に、特徴点までの距離が長い画像に基づいて学習した局所的な移動量の精度は著しく低下する。そこで、カメラ(12a、12b)を用いてチェックポイントを学習し、走行軌跡を車両オドメトリで学習する。これにより、学習した地点間の走行軌跡(車両オドメトリ)と現実の走行軌跡との誤差を抑制し、現実の環境に沿った正確な走行制御を実行できるようになる。
また、実施形態に関わる走行制御装置は、車両の周囲の物体の3次元位置からなる地図を作成すると同時に、地図上の車両が通過した地点(チェックポイント)、及び通過したチェックポイント間の走行軌跡(車両オドメトリ)を学習し、学習したチェックポイントを再び通過し、学習した走行軌跡(車両オドメトリ)に沿って走行するように車両の走行制御を行う。
これにより、走行制御を行う時に、チェックポイント間の目標軌跡として、高精度の車両オドメトリで学習した走行軌跡を用いることができる。このため、現実の走行軌跡から大きく逸脱することがないので、大きな修正操舵が発生せず、高い再現性で走行軌跡に沿って車両を走行させることができる。
画像に基づく地点(チェックポイント)の学習は、周囲環境から抽出された特徴点に結びつけられた形で車両の位置を学習することである。このため、学習結果である地図上の地点と現実の地点との誤差は極めて小さい。よって、チェックポイント間の走行軌跡の誤差は、チェックポイントの通過確認によって修正することができる。しかし、ビジュアルオドメトリで学習した車両の移動量の精度は、特徴点までの距離が長いほど、低下する。よって、ビジュアルオドメトリで走行軌跡を学習した場合、走行軌跡に含まれる誤差が大きくなる。このため、地点(チェックポイント)において大きな位置ずれが発見され、その後、大きな修正操舵が発生してしまう。
図6A及び図6Bに示すように、各特徴点(FP1〜FP4)までの距離が短い車両の位置をチェックポイント(CK1〜CK4)に設定することにより、チェックポイント(CK1〜CK4)の通過を精度よく判断できる。一方、チェックポイント(CK1〜CK4)の間の目標軌跡(TJ1〜TJ4)は、高精度の車両オドメトリで学習した走行軌跡を用いる。
本実施形態によれば、チェックポイントの間の目標軌跡として、高精度の車両オドメトリで学習した走行軌跡を用いることができる。よって、大きな修正操舵が発生せず、高い再現性で走行軌跡に沿って車両を走行させることができる。よって、現実の環境に沿った正確な走行制御を実行できるようになる。
図6Aに示すように、ビジュアルオドメトリで学習した地図上において、特徴点(FP1〜FP4)に対するチェックポイント(CK1〜CK4)の相対位置は、ビジュアルオドメトリによって正確に求めることができる。しかし、特徴点(FP1〜FP4)の間の相対位置は、正確ではない。よって、図6Aに示すように、ビジュアルオドメトリで学習した地図では、チェックポイント(CK1〜CK4)間の目標軌跡(TJ1〜TJ4)は、互いに非連続となる。しかし、実際には、図6Bに示すように、チェックポイント(CK1〜CK4)間の目標軌跡(TJ1〜TJ4)は、連続した軌道となり、一度走行した軌道を高い精度で再現することができる。すなわち、学習したチェックポイント(CK1〜CK4)を再び通過し、学習した走行軌跡(TJ1〜TJ4)に沿って走行するように車両の走行制御を行うことができる。逆に、図6Aに示す地図上において連続した1つの軌道となるように、チェックポイント(CK1〜CK4)間の目標軌跡(図示せず)を設定した場合、実際の走行軌跡から大きく逸脱してしまい、チェックポイント(CK1〜CK4)において大きな位置ずれが発見され、その後、大きな修正操舵が発生してしまう。
チェックポイントを学習する時に、車両から得られる車両信号に基づいて、チェックポイントの間の車両の走行軌跡を学習することもできる。つまり、チェックポイント毎に分割して走行軌跡を学習してもよい。或いは、所定時間毎、又は走行シーン毎(例えば、直進、カーブ、高速道、一般道、交差点)に分割して学習してもよい。局所的に精度の高い走行軌跡を学習することができる。
コントローラ11は、チェックポイントを通過したと判断した時に、チェックポイントから次のチェックポイントまでの走行軌跡(車両オドメトリ)を目標軌跡に設定し、チェックポイントを通過したと判断した時の車両の位置及び進行方向を用いて目標軌跡を補正する。コントローラ11は、チェックポイントを通過していないと判断する場合には、設定した目標軌跡の補正を禁止する。これにより、基準位置ではない車両の位置から目標軌跡を補正することを抑制することができる。
コントローラ11は、目標軌跡から車両の位置までの距離を算出し、距離が所定値以上である場合には、チェックポイントを通過していないと判断する。目標軌跡から車両の位置までの距離が所定値以上である場合には、画像通過確信度(Z)が低い可能性が高い。つまり、チェックポイントを通過していない可能性が高い。そこで、目標軌跡から車両の位置までの距離が所定位置以上である場合にはチェックポイントを通過していないと判断する。これにより、目標軌跡の補正が禁止されるため、誤った情報(基準位置ではない車両位置)から目標軌跡を補正することを抑制することができる。
以上、実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。
12a、12b カメラ
23 学習部(学習回路)
31 走行制御部(走行制御回路)
CK1〜CK4 チェックポイント(地点)
FP1〜FP4 特徴点
TJ1〜TJ4 目標軌跡

Claims (8)

  1. 車両に搭載されたカメラで前記車両の周囲を撮影して得られた画像に基づいて前記車両が走行した地点を学習し、学習した前記地点を再び通過するように前記車両の走行制御を行う走行制御方法であって、
    前記地点を学習する時に、前記車両から得られる車両信号に基づいて、前記車両の走行軌跡を学習し、
    前記走行制御を行う時に、前記カメラで撮影して得られた画像に基づいて、前記地点を前記車両が通過したか否かを判断し、
    前記地点の何れかの地点を通過した場合に、前記何れかの地点の次の地点までの目標軌跡として、前記車両信号に基づいて学習した前記走行軌跡を用いて、前記車両の走行制御を行い、
    前記カメラで撮影して得られた画像に基づいて、前記次の地点を車両が通過したか否かを判断する
    走行制御方法。
  2. 請求項1記載の走行制御方法であって、
    前記地点を学習する時に、前記車両から得られる車両信号に基づいて、前記地点の間の前記車両の走行軌跡を学習する
    走行制御方法。
  3. 請求項1もしくは2に記載の走行制御方法であって、
    前記何れかの地点を通過したと判断した時に、前記何れかの地点から前記次の地点までの前記走行軌跡を前記目標軌跡に設定し、
    前記何れかの地点を通過したと判断した時の前記車両の位置及び進行方向を用いて前記目標軌跡を補正し、
    前記何れかの地点を通過していないと判断する場合には、設定した前記目標軌跡の補正を禁止する
    走行制御方法。
  4. 請求項3に記載の走行制御方法であって、
    前記目標軌跡から前記車両の位置までの距離を算出し、
    前記距離が所定値以上である場合には、前記何れかの地点を通過していないと判断する
    走行制御方法。
  5. 請求項1〜4のいずれか一項に記載の走行制御方法であって、
    前記車両の周囲の画像に基づいて前記車両の第1の移動値を検出し、
    前記車両から出力される車両信号に基づいて前記車両の第2の移動値を検出し、
    前記第1の移動値と前記第2の移動値とを比較し、
    比較結果に基づいて、前記カメラからの出力値を補正する
    走行制御方法。
  6. 請求項5に記載の走行制御方法であって、
    前記カメラからの出力値として、前記車両の進行方向の出力値及び前記進行方向に垂直な方向の出力値を補正する
    走行制御方法。
  7. 請求項5又は6に記載の走行制御方法であって、
    前記出力値の補正は、前記車両の直進時に実行する
    走行制御方法。
  8. 車両に搭載されたカメラで前記車両の周囲を撮影して得られた画像に基づいて前記車両が走行した地点を学習する学習回路と、学習した前記地点を再び通過するように前記車両の走行制御を行う走行制御回路と、を備える走行制御装置であって、
    前記学習回路は、前記車両から得られる車両信号に基づいて、前記車両の走行軌跡を学習し、
    前記走行制御回路は、
    前記カメラで撮影して得られた画像に基づいて、前記地点を前記車両が通過したか否かを判断し、
    前記地点の何れかの地点を通過した場合に、前記何れかの地点の次の地点までの目標軌跡として、前記車両信号に基づいて学習した前記走行軌跡を用いて、前記走行制御を行い、
    前記カメラで撮影して得られた画像に基づいて、前記次の地点を車両が通過したか否かを判断する
    走行制御装置。
JP2019524754A 2017-06-20 2017-06-20 走行制御方法及び走行制御装置 Active JP6773223B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/022744 WO2018235171A1 (ja) 2017-06-20 2017-06-20 走行制御方法及び走行制御装置

Publications (2)

Publication Number Publication Date
JPWO2018235171A1 JPWO2018235171A1 (ja) 2020-04-23
JP6773223B2 true JP6773223B2 (ja) 2020-10-21

Family

ID=64736921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019524754A Active JP6773223B2 (ja) 2017-06-20 2017-06-20 走行制御方法及び走行制御装置

Country Status (10)

Country Link
US (1) US11136034B2 (ja)
EP (1) EP3644293B1 (ja)
JP (1) JP6773223B2 (ja)
KR (1) KR20200007879A (ja)
CN (1) CN110741421B (ja)
BR (1) BR112019027273A2 (ja)
CA (1) CA3067952A1 (ja)
MX (1) MX2019014872A (ja)
RU (1) RU2733198C1 (ja)
WO (1) WO2018235171A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111886170B (zh) * 2018-03-28 2023-09-15 日立安斯泰莫株式会社 车辆控制装置
JP7351172B2 (ja) * 2019-09-30 2023-09-27 株式会社アイシン 駐車支援装置
CN111959505B (zh) * 2020-06-29 2022-10-11 阿波罗智能技术(北京)有限公司 车辆巡航控制方法、装置、电子设备和存储介质
JP2022182335A (ja) * 2021-05-28 2022-12-08 株式会社Subaru 車両の車外撮像装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243457A (ja) * 2000-03-01 2001-09-07 Nissan Motor Co Ltd 車両用前方画像撮像装置
JP2008174000A (ja) * 2007-01-16 2008-07-31 Toyota Industries Corp 駐車支援装置、駐車支援装置部品、駐車支援方法及び駐車支援プログラム
JP4437556B2 (ja) * 2007-03-30 2010-03-24 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
DE102010023162A1 (de) 2010-06-09 2011-12-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken in eine Parklücke, Fahrerassistenzeinrichtung und Kraftfahrzeug
JP5782708B2 (ja) * 2010-12-03 2015-09-24 日産自動車株式会社 走行支援装置
JP5926645B2 (ja) * 2012-08-03 2016-05-25 クラリオン株式会社 カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法
US9056395B1 (en) * 2012-09-05 2015-06-16 Google Inc. Construction zone sign detection using light detection and ranging
JP5991166B2 (ja) * 2012-11-27 2016-09-14 富士通株式会社 3次元位置計測装置、3次元位置計測方法および3次元位置計測プログラム
US9127955B2 (en) * 2013-01-31 2015-09-08 GM Global Technology Operations LLC Adaptive user guidance for navigation and location-based services
DE102013209940A1 (de) * 2013-05-28 2014-12-04 Conti Temic Microelectronic Gmbh Kamerasystem für Fahrzeuge
JP5900448B2 (ja) * 2013-09-30 2016-04-06 トヨタ自動車株式会社 運転支援装置
JP6191570B2 (ja) * 2014-09-25 2017-09-06 トヨタ自動車株式会社 車両の制御装置
US10043091B2 (en) * 2014-12-05 2018-08-07 Magna Electronics Inc. Vehicle vision system with retroreflector pattern recognition
KR102029562B1 (ko) * 2015-01-05 2019-10-07 닛산 지도우샤 가부시키가이샤 목표 경로 생성 장치 및 주행 제어 장치
EP3845426A1 (en) * 2015-02-10 2021-07-07 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
US9836056B2 (en) * 2015-06-05 2017-12-05 Bao Tran Smart vehicle
US9711050B2 (en) * 2015-06-05 2017-07-18 Bao Tran Smart vehicle
JP6815724B2 (ja) * 2015-11-04 2021-01-20 トヨタ自動車株式会社 自動運転システム
WO2017120336A2 (en) * 2016-01-05 2017-07-13 Mobileye Vision Technologies Ltd. Trained navigational system with imposed constraints
US20170253237A1 (en) * 2016-03-02 2017-09-07 Magna Electronics Inc. Vehicle vision system with automatic parking function
US20170329331A1 (en) * 2016-05-16 2017-11-16 Magna Electronics Inc. Control system for semi-autonomous control of vehicle along learned route
US10139823B2 (en) * 2016-09-13 2018-11-27 Toyota Motor Engineering & Manufacturing North America, Inc. Method and device for producing vehicle operational data based on deep learning techniques
JP6548691B2 (ja) * 2016-10-06 2019-07-24 株式会社アドバンスド・データ・コントロールズ 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
WO2018086761A1 (en) * 2016-11-10 2018-05-17 Rowanalytics Ltd Control apparatus and method for processing data inputs in computing devices therefore
CN111542860A (zh) * 2016-12-30 2020-08-14 迪普迈普有限公司 用于自主车辆的高清地图的标志和车道创建
WO2018187608A1 (en) * 2017-04-07 2018-10-11 Hrl Laboratories, Llc Method for understanding machine-learning decisions based on camera data
KR102565533B1 (ko) * 2017-06-14 2023-08-10 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 항법 정보의 융합 프레임워크 및 배치 정렬
US11367354B2 (en) * 2017-06-22 2022-06-21 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Traffic prediction based on map images for autonomous driving
US20190164007A1 (en) * 2017-11-30 2019-05-30 TuSimple Human driving behavior modeling system using machine learning
KR102619558B1 (ko) * 2018-11-16 2024-01-02 현대모비스 주식회사 자율주행차의 제어시스템 및 그 제어방법

Also Published As

Publication number Publication date
CN110741421B (zh) 2021-01-05
KR20200007879A (ko) 2020-01-22
EP3644293A4 (en) 2020-07-01
US11136034B2 (en) 2021-10-05
WO2018235171A1 (ja) 2018-12-27
RU2733198C1 (ru) 2020-09-29
EP3644293A1 (en) 2020-04-29
CA3067952A1 (en) 2018-12-27
US20200377100A1 (en) 2020-12-03
MX2019014872A (es) 2020-02-07
JPWO2018235171A1 (ja) 2020-04-23
CN110741421A (zh) 2020-01-31
EP3644293B1 (en) 2021-08-04
BR112019027273A2 (pt) 2020-07-14

Similar Documents

Publication Publication Date Title
JP6773223B2 (ja) 走行制御方法及び走行制御装置
JP4938351B2 (ja) 車両用測位情報更新装置
CN105774801B (zh) 用于引导车道上的车辆的方法和设备
US10789491B2 (en) Traffic light recognition device and traffic light recognition method
US20100157058A1 (en) Method and Device for Compensating a Roll Angle
JP2002259995A (ja) 位置検出装置
JP7096053B2 (ja) 車両の車両カメラを較正するための方法および装置
JP2014034251A (ja) 車両走行制御装置及びその方法
JP4670528B2 (ja) 撮像装置のずれ検出方法、撮像装置のずれ補正方法及び撮像装置
CN106886217B (zh) 自主导航控制方法和装置
US11415996B2 (en) Positioning system for a mobile unit, vehicle and method for operating a positioning system
US11814056B2 (en) Travel amount estimation apparatus
JP2020067698A (ja) 区画線検出装置及び区画線検出方法
JP6943127B2 (ja) 位置補正方法、車両制御方法及び位置補正装置
KR101894052B1 (ko) 차량용 사고영상 기록장치의 차량 속도 측정 장치 및 방법
JP2019007739A (ja) 自己位置推定方法及び自己位置推定装置
JP6674560B2 (ja) 外界認識システム
JP2018098715A (ja) 車載カメラの姿勢変化検出装置及び方法
JP7234840B2 (ja) 位置推定装置
JPH0789443A (ja) 車両用自動操縦装置
JPH1139464A (ja) 車両用画像処理装置
JP2019132762A (ja) 自車位置推定装置
JP5193148B2 (ja) 車両用撮像装置
JPH11281352A (ja) 道路形状検出装置
JP2001171544A (ja) 車載カメラの光軸ずれ検出装置

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20191211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200914

R151 Written notification of patent or utility model registration

Ref document number: 6773223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151