JP2022126341A - 車両制御装置、車両制御方法、およびプログラム - Google Patents

車両制御装置、車両制御方法、およびプログラム Download PDF

Info

Publication number
JP2022126341A
JP2022126341A JP2021024365A JP2021024365A JP2022126341A JP 2022126341 A JP2022126341 A JP 2022126341A JP 2021024365 A JP2021024365 A JP 2021024365A JP 2021024365 A JP2021024365 A JP 2021024365A JP 2022126341 A JP2022126341 A JP 2022126341A
Authority
JP
Japan
Prior art keywords
vehicle
target
lane
azimuth
reference line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021024365A
Other languages
English (en)
Inventor
アディティヤ マハジャン
Aditya Mahajan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021024365A priority Critical patent/JP2022126341A/ja
Priority to CN202210139713.0A priority patent/CN114954511A/zh
Priority to US17/672,737 priority patent/US11932283B2/en
Publication of JP2022126341A publication Critical patent/JP2022126341A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Figure 2022126341000001
【課題】車両の方位を適切に認識すること。
【解決手段】車両の外部空間を撮像した画像を取得する画像取得部と、前記画像に映されている、道路構造体及び移動体を含む複数の種類の物標を画像処理によって検出する物標検出部と、前記複数の種類の物標から一つの種類の物標を選択し、前記選択した種類の物標の方位に沿った参照線を設定する参照線設定部と、前記参照線と前記車両の進行方位線とのなす角度を、前記車両が走行中又は走行予定の車線に対する前記車両の方位として推定する車両方位推定部と、を備える、車両制御装置。
【選択図】図1

Description

本発明は、車両制御装置、車両制御方法、およびプログラムに関する。
自車両に対する他車両の相対情報を検出する技術が知られている。例えば、特許文献1には、他車両から送信される無線信号に基づいて当該他車両の相対位置を検出する技術が開示されている。
特開2017-161430号公報
しかしながら、他車両の相対位置などの相対情報のみを用いた場合、例えば、車両の車線変更時に車両の方位を適切に認識することができない場合があった。
本発明は、このような事情を考慮してなされたものであり、車両の方位を適切に認識することができる車両制御装置、車両制御方法、およびプログラムを提供することを目的の一つとする。
この発明に係る車両制御装置は、以下の構成を採用した。
(1):この発明の一態様に係る車両制御装置は、車両の外部空間を撮像した画像を取得する画像取得部と、前記画像に映されている、道路構造体及び移動体を含む複数の種類の物標を画像処理によって検出する物標検出部と、前記複数の種類の物標から一つの種類の物標を選択し、前記選択した種類の物標の方位に沿った参照線を設定する参照線設定部と、前記参照線と前記車両の進行方位線とのなす角度を、前記車両が走行中又は走行予定の車線に対する前記車両の方位として推定する車両方位推定部と、を備えるものである。
(2):上記(1)の態様において、前記物標の方位のうち、前記道路構造体の方位とは前記道路構造体の延在方向であり、前記移動体の方位とは前記移動体の進行方向であるものである。
(3):上記(1)又は(2)の態様において、前記参照線設定部は、所定の優先順位に基づいて、前記検出された複数種類の物標から一つの種類の物標を選択するものである。
(4):上記(3)の態様において、前記所定の優先順位は、前記車両が走行中又は走行予定の車線の境界線が最も高く、前記車線の隣接車線の境界線が二番目に高く、前記車両の周辺にある他車両が三番目に高いものである。
(5):上記(1)から(4)のいずれかの態様において、前記車両方位推定部によって推定された前記車両の方位に基づいて目標軌道を生成し、生成した前記目標軌道に沿って走行するように、前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御する運転制御部を更に備えるものである。
(6):上記(1)から(5)のいずれかの態様において、前記車両方位推定部によって推定された前記車両の方位に基づいて目標軌道を生成し、生成した前記目標軌道に沿って前記車両の乗員が運転を行うように操舵指示と加減速指示とのうちの少なくとも一方を与える運転指示部を更に備えるものである。
(7):この発明の他の態様に係る車両制御方法は、車両に搭載されたコンピュータが、車両の外部空間を撮像した画像を取得し、前記画像に映されている、道路構造体及び移動体を含む複数の種類の物標を画像処理によって検出し、前記複数の種類の物標から一つの種類の物標を選択し、前記選択した種類の物標の方位に沿った参照線を設定し、前記参照線と前記車両の進行方位線とのなす角度を、前記車両が走行中又は走行予定の車線に対する前記車両の方位として推定するものである。
(8):この発明の他の態様に係るプログラムは、車両に搭載されたコンピュータに、車両の外部空間を撮像した画像を取得させ、前記画像に映されている、道路構造体及び移動体を含む複数の種類の物標を画像処理によって検出させ、前記複数の種類の物標から一つの種類の物標を選択させ、前記選択した種類の物標の方位に沿った参照線を設定させ、前記参照線と前記車両の進行方位線とのなす角度を、前記車両が走行中又は走行予定の車線に対する前記車両の方位として推定させるものである。
(1)~(8)によれば、車両の方位を適切に認識することができる。
(5)によれば、認識した車両の方位に基づいて、車両を適切に制御することができる。
実施形態に係る車両制御装置を利用した車両システム1の構成図である。 第1制御部120および第2制御部160の機能構成図である。 比較例に係る車両の走行制御の一例を示す図である。 参照線設定部130Aが物標を選択する優先順位の一例を示す図である。 参照線RLの設定と自車両Mの方位の推定が行われる第1の場面例を示す図である。 参照線RLの設定と自車両Mの方位の推定が行われる第2の場面例を示す図である。 参照線RLの設定と自車両Mの方位の推定が行われる第3の場面例を示す図である。 参照線RLの設定と自車両Mの方位の推定が行われる第4の場面例を示す図である。 カメラ10、物体認識装置16、及び自動運転制御装置100の協働によって実行される処理の流れの一例を示すフローチャートである。
以下、図面を参照し、本発明の車両制御装置、車両制御方法、およびプログラムの実施形態について説明する。
[全体構成]
図1は、実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
LIDAR14は、自車両Mの周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、自車両Mの任意の箇所に取り付けられる。
物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検出結果をそのまま自動運転制御装置100に出力してよい。車両システム1から物体認識装置16が省略されてもよい。本実施形態において、物体認識装置16は、画像取得部16Aと、物標検出部16Bとを備える。画像取得部16Aは、カメラ10によって撮像された車両の外部空間の画像を取得する。物標検出部16Bは、当該画像に映されている、道路構造体及び移動体を含む複数の種類の物標を画像処理によって検出する。
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステアリングホイール、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。物体認識装置16と自動運転制御装置100とを合わせたものが「車両制御装置」の一例であり、行動計画生成部140と第2制御部160を合わせたものが「運転制御部」の一例である。
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
認識部130は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
また、認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線(以下、「境界線」と称する)のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の境界線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、境界線に限らず、境界線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。
認識部130は、さらに、参照線設定部130Aと、車両方位推定部130Bとを備え、参照線設定部130Aが設定した参照線に関する自車両Mの方位を推定する。参照線設定部130A及び車両方位推定部130Bの機能の詳細は後述する。
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、車両方位推定部130Bが推定した自車両の方位に基づいて、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
[比較例]
次に、図3を参照して比較例について説明する。図3は、比較例に係る車両mの走行制御の一例を示す図である。車両mは、自動運転機能を有するものであるが、少なくとも、図2に示す参照線設定部130A及び車両方位推定部130Bは含まないものである。図3(a)において、車両mは車線L1を走行しており、車線L2に車線変更を行うように計画している。車両mの周辺車両である車両m1及びm2は、それぞれ車線L2及びL3を直進しているため、車両mは車線L2への車線変更の際に速度を維持するか又は上げることによって、問題なく車線変更を実施することができる。
一方、図3(b)においても、車両mは車線L1を走行しており、車線L2に車線変更を行うように計画している。このとき、車両mと車両m1及びm2との間の相対位置関係は、図3(a)に類似している。しかし、図3(b)においては、車両m1及びm2は、それぞれ車線L2及びL3を逸脱する方向に走行しており、車両mが車線L2に車線変更することは、特に車両m2との間で問題が生じうる。すなわち、車両mと車両m1及びm2との間の相対位置関係のみに基づいて車両mを制御することは適切ではない場合がある。
図3(a)と図3(b)とを比較すると、車両mと車両m1及びm2との間の相対位置関係は類似しているものの、車両mの進行方向と、車両mが走行する車線L1の境界線とがなす角度は異なっている。具体的には、図3(a)においては、車両mの進行方向と車線L1の境界線の延在方向とがなす角度、すなわち、車両mの方位は正の値を取っている一方、図3(b)においては、車両mの方位は略ゼロである。したがって、図3(b)の場面においては、車両mの方位が略ゼロであることによって、車両mではなく、他車両が車線を逸脱する方向に走行しており、車両mによる車線変更の実行に問題が生じうる。これに対し、本実施形態の自車両Mは、参照線を設定し、当該参照線に関する自車両Mの方位の推定することによって、自車両Mの走行をより適切に制御することができる。以下、その詳細について説明する。
[参照線の設定と自車両Mの方位の推定]
参照線設定部130Aは、物体認識装置16によって認識された複数の種類の物標から、所定の優先順位に基づいて一つの種類の物標を選択し、選択した種類の物標の方位に沿った仮想的な参照線RL(上述した「境界線の延在方向」に対応)を設定する。このとき、物体認識装置16によって認識された物標は、カメラ10を原点としたカメラ座標系によって表現されているが、参照線設定部130Aは、例えば、カメラ座標系の座標を、自車両Mの周辺の空間を上空から見た二次元平面で表した想定平面上の座標に変換した上で、参照線RLを設定する。
車両方位推定部130Bは、設定した参照線RLと自車両Mの進行方位線(上述した「車両mの進行方向」に対応)とのなす角度を、自車両Mが走行中又は走行予定の車線に対する自車両Mの方位として推定する。本実施形態において、進行方位線とは自車両Mの中心軸であるものとするが、代替的に、例えば、自車両Mの瞬間的な移動方向、すなわち、自車両Mの実際の進行方向であってもよい。
図4は、参照線設定部130Aが物標を選択する優先順位の一例を示す図である。図4に示す通り、最も高い優先順位を示す優先順位の1位には、自車線の境界線、ガードレール、及び壁が設定される。ここで、自車線の境界線、ガードレール、及び壁は、自車両Mが走行中の車線のものであってもよいし、又は自車両Mが走行予定の車線のものであってもよい。例えば、自車両Mが車線変更を実行する直前や車線変更の実行中には、走行中の車線の境界線、ガードレール、又は壁ではなく、変更先の車線の境界線、ガードレール、又は壁が物標として選択されてもよい。なお、自車線の境界線、ガードレール、及び壁のうち二種類以上の物標が物体認識装置16によって認識された場合には、参照線設定部130Aは任意の方法で一つの種類の物標を選択すればよく、例えば、自車両Mにより近い物標を選択してもよい。境界線、ガードレール、及び壁のうち一部または全部は、「道路構造体」の一例である。
二番目に高い優先順位を示す優先順位の2位には、隣接車線の境界線、ガードレール、及び壁が設定される。すなわち、参照線設定部130Aは、物体認識装置16によって認識された物標の中に自車線の境界線、ガードレール、及び壁が含まれていないとき、隣接車線の境界線、ガードレール、又は壁を物標として選択する。隣接車線の境界線、ガードレール、及び壁のうち二種類以上の物標が物体認識装置16によって認識された場合には、参照線設定部130Aは任意の方法で一つの種類の物標を選択すればよく、例えば、自車両Mにより近い物標を選択してもよい。
三番目に高い優先順位を示す優先順位の3位には、隣接車線にいる他車両が設定される。すなわち、参照線設定部130Aは、物体認識装置16によって認識された物標の中に自車線及び隣接車線の境界線、ガードレール、及び壁が含まれていないとき、隣接車線にいる他車両を物標として選択する。ここで、隣接車線にいる他車両が複数含まれている場合には、参照線設定部130Aは、当該複数の他車両を物標として選択する。隣接車線にいる他車両は、「移動体」の一例である。
このように、参照線設定部130Aは、図4に示す優先順位に基づいて、一つの種類の物標を選択し、選択した種類の物標の方位に沿った参照線RLを設定する。ここで、「物標の方位」とは、境界線、ガードレール、及び壁の場合には、これらの延在方向を指し、隣接車線にいる他車両の場合には、当該他車両の移動方向を指す。なお、この場合の移動方向は、他車両の中心軸であってもよいし、他車両の推定移動方向であってもよい。さらに、参照線設定部130Aは、一つの種類の物標を複数選択した場合や、隣接車線にいる他車両を複数選択した場合には、当該複数の物標の平均方位に沿った参照線RLを設定する。
[場面例]
次に、図5~図8を参照して、参照線RLの設定と自車両Mの方位の推定が行われる場面の例を説明する。図5は、参照線RLの設定と自車両Mの方位の推定が行われる第1の場面例を示す図である。図5において、自車両Mは車線L1を走行しており、車線減少のため、車線L2に車線変更を実行しようとしている。この場面において、カメラ10は、車線L1の境界線BL1及び境界線BL2、車線L2の境界線BL3、並びに他車両M1の画像を取得し、物体認識装置16は、画像処理によって、境界線BL1、境界線BL2、境界線BL3、及び他車両M1を物標として検出する。次に、参照線設定部130Aは、図4に示す優先順位に基づいて、優先順位が1位である境界線BL1及び境界線BL2を物標として選択し、境界線BL1及び境界線BL2の平均方位に沿った参照線RLを設定する。次に、車両方位推定部130Bは、設定した参照線RLと自車両Mの進行方位線とのなす角度θを、車線L1に対する自車両Mの方位として推定する。そして、行動計画生成部140は、車両方位推定部130Bが推定した自車両の方位に基づいて、自車両Mの目標軌道を生成し、第2制御部160は、生成した前記目標軌道に沿って走行するように、自車両Mの運転者の操作に依らずに自車両Mの操舵および加減速を制御する。
なお、第1の場面例において、参照線設定部130Aは、優先順位が1位である境界線BL1及び境界線BL2を物標として選択し、これらの平均方位に沿った参照線RLを設定しているが、参照線設定部130Aは、いずれか一方のみを物標として選択し、その方位に沿った参照線RLを設定してもよい。例えば、境界線BL1及び境界線BL2のうち、自車両Mにより近い境界線を物標として選択してもよい。さらに、参照線設定部130Aは、車線変更前の車線である車線L1の境界線ではなく、車線変更後の車線である車線L2を自車両Mが走行予定の車線であると認識し、その境界線BL2を物標として選択してもよい。
図6は、参照線RLの設定と自車両Mの方位の推定が行われる第2の場面例を示す図である。図6において、自車両Mは車線L1から車線L2に車線変更を実行し、車線L2に進入している。この場面において、カメラ10は、車線L2の境界線BL1及び境界線BL3、車線L1の境界線BL2、並びに他車両M1の画像を取得し、物体認識装置16は、画像処理によって、境界線BL1、境界線BL3、境界線BL2、及び他車両M1を物標として検出する。次に、参照線設定部130Aは、図4に示す優先順位に基づいて、優先順位が1位である境界線BL1及び境界線BL3を物標として選択し、境界線BL1及び境界線BL3の平均方位に沿った参照線RLを設定する。次に、車両方位推定部130Bは、設定した参照線RLと自車両Mの進行方位線とのなす角度θを、車線L2に対する自車両Mの方位として推定する。そして、行動計画生成部140は、車両方位推定部130Bが推定した自車両の方位に基づいて、自車両Mの目標軌道を生成し、第2制御部160は、生成した前記目標軌道に沿って走行するように、自車両Mの運転者の操作に依らずに自車両Mの操舵および加減速を制御する。図5の場合と同様に、参照線設定部130Aは、境界線BL1及び境界線BL3のうち、いずれか一方のみを物標として選択し、その方位に沿った参照線RLを設定してもよい。
図7は、参照線RLの設定と自車両Mの方位の推定が行われる第3の場面例を示す図である。図7において、自車両Mは車線L1から車線L2への車線変更を実行している。この場面において、カメラ10は、車線L2の境界線BL3及び他車両M1の画像を取得する。しかし、このとき、境界線BL3は薄く、断続的になっているため、物体認識装置16は、画像処理によって、境界線BL3を物標として検出できないことがあり得る。また、仮に、物体認識装置16が境界線BL3を物標として検出した場合であっても、断続的な境界線は参照線としての精度が低いことがあり得る。そこで、参照線設定部130Aは、図4に示す優先順位に基づいて、優先順位が3位である他車両を物標として選択し、他車両M1の方位に沿った参照線RLを設定する。次に、車両方位推定部130Bは、設定した参照線RLと自車両Mの進行方位線とのなす角度θを、車線L2に対する自車両Mの方位として推定する。そして、行動計画生成部140は、車両方位推定部130Bが推定した自車両の方位に基づいて、自車両Mの目標軌道を生成し、第2制御部160は、生成した前記目標軌道に沿って走行するように、自車両Mの運転者の操作に依らずに自車両Mの操舵および加減速を制御する。
図8は、参照線RLの設定と自車両Mの方位の推定が行われる第4の場面例を示す図である。図8において、自車両Mは車線L1を走行しており、車線L2に合流しようとしている。この場面において、カメラ10は、車線L1の境界線BL1、車線L2の境界線BL2、車線L3の境界線BL3、及び他車両M1の画像を取得し、物体認識装置16は、画像処理によって、境界線BL1、境界線BL2、境界線BL3、及び他車両M1を物標として検出する。次に、参照線設定部130Aは、図4に示す優先順位に基づいて、優先順位が1位である境界線BL1を物標として選択し、境界線BL1の方位に沿った参照線RLを設定する。次に、車両方位推定部130Bは、設定した参照線RLと自車両Mの進行方位線とのなす角度θを、車線L1に対する自車両Mの方位として推定する。そして、行動計画生成部140は、車両方位推定部130Bが推定した自車両の方位に基づいて、自車両Mの目標軌道を生成し、第2制御部160は、生成した前記目標軌道に沿って走行するように、自車両Mの運転者の操作に依らずに自車両Mの操舵および加減速を制御する。なお、図5の場合と同様に、参照線設定部130Aは、合流前の車線である車線L1の境界線ではなく、合流後の車線である車線L2を自車両Mが走行予定の車線であると認識し、その境界線BL2を物標として選択してもよい。
[動作の流れ]
次に、図9を参照して、カメラ10、物体認識装置16、及び自動運転制御装置100の協働によって実行される処理の流れについて説明する。図9は、カメラ10、物体認識装置16、及び自動運転制御装置100の協働によって実行される処理の流れの一例を示すフローチャートである。当該フローチャートの処理は、自車両Mの走行中、所定の制御サイクルごとに繰り返し実行されるものである。
まず、カメラ10は、自車両Mの外部空間を撮像した画像を取得する(S100)。次に、物体認識装置16は、カメラ10が取得した画像に映されている、道路構造体及び移動体を含む複数の種類の物標を画像処理によって検出する(S101)。次に、自動運転制御装置100の参照線設定部130Aは、図4に示す優先順位に基づいて、検出された複数の種類の物標から一つの種類の物標を選択する(S102)。次に、自動運転制御装置100の参照線設定部130Aは、選択した種類の物標の方位に沿った参照線を設定する(S103)。次に、自動運転制御装置100の車両方位推定部130Bは、設定された参照線と自車両Mの進行方位線とのなす角度を、自車両Mが走行中又は走行予定の車線に対する自車両Mの方位として推定する(S104)。次に、自動運転制御装置100の運転制御部は、車両方位推定部によって推定された前記車両の方位に基づいて目標軌道を生成し、生成した目標軌道に沿って走行するように、自車両Mの運転者の操作に依らずに自車両Mの操舵および加減速を制御する(S105)。これにより、本フローチャートの処理が終了する。
以上の通り説明した本実施形態の処理によれば、カメラ10が取得した画像に含まれる物標を検出し、所定の優先順位に基づいて、検出された物標の中から一つの種類の物標を選択し、選択した物標の方位に沿った参照線を設定し、設定された参照線と自車両Mの進行方位線とのなす角度を自車両Mの方位として推定する。これにより、車両の方位を適切に認識することができる。
なお、上記の実施形態では、本発明の車両制御装置が自動運転に適用される例について説明した。しかし、本発明の車両制御装置はその構成に限定されず、手動運転にも適用することができる。その場合、本発明の車両制御装置は、運転制御部に代えて、車両方位推定部130Bによって推定された自車両Mの方位に基づいて目標軌道を生成し、生成した目標軌道に沿って自車両Mの乗員が運転を行うように操舵指示と加減速指示とのうちの少なくとも一方を与える運転指示部を更に備えればよい。運転指示部は、例えば、ナビゲーション装置50の機能の一部として実現することができる。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
車両の外部空間を撮像した画像を取得し、
前記画像に映されている、道路構造体及び移動体を含む複数の種類の物標を画像処理によって検出し、
前記複数の種類の物標から一つの種類の物標を選択し、前記選択した種類の物標の方位に沿った参照線を設定し、
前記参照線と前記車両の進行方位線とのなす角度を、前記車両が走行中又は走行予定の車線に対する前記車両の方位として推定する、
ように構成されている、車両制御装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
10 カメラ
16 物体認識装置
16A 画像取得部
16B 物標検出部
100 自動運転制御装置
120 第1制御部
130 認識部
130A 参照線設定部
130B 車両方位推定部
140 行動計画生成部
160 第2制御部

Claims (8)

  1. 車両の外部空間を撮像した画像を取得する画像取得部と、
    前記画像に映されている、道路構造体及び移動体を含む複数の種類の物標を画像処理によって検出する物標検出部と、
    前記複数の種類の物標から一つの種類の物標を選択し、前記選択した種類の物標の方位に沿った参照線を設定する参照線設定部と、
    前記参照線と前記車両の進行方位線とのなす角度を、前記車両が走行中又は走行予定の車線に対する前記車両の方位として推定する車両方位推定部と、
    を備える車両制御装置。
  2. 前記物標の方位のうち、前記道路構造体の方位とは前記道路構造体の延在方向であり、前記移動体の方位とは前記移動体の進行方向である、
    請求項1に記載の車両制御装置。
  3. 前記参照線設定部は、所定の優先順位に基づいて、前記検出された複数の種類の物標から一つの種類の物標を選択する、
    請求項1又は2に記載の車両制御装置。
  4. 前記所定の優先順位は、前記車両が走行中又は走行予定の車線の境界線が最も高く、前記車線の隣接車線の境界線が二番目に高く、前記車両の周辺にある他車両が三番目に高い、
    請求項3に記載の車両制御装置。
  5. 前記車両方位推定部によって推定された前記車両の方位に基づいて目標軌道を生成し、生成した前記目標軌道に沿って走行するように、前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御する運転制御部を更に備える、
    請求項1から4のいずれか1項に記載の車両制御装置。
  6. 前記車両方位推定部によって推定された前記車両の方位に基づいて目標軌道を生成し、生成した前記目標軌道に沿って前記車両の乗員が運転を行うように操舵指示と加減速指示とのうちの少なくとも一方を与える運転指示部を更に備える、
    請求項1から5のいずれか1項に記載の車両制御装置。
  7. 車両に搭載されたコンピュータが、
    車両の外部空間を撮像した画像を取得し、
    前記画像に映されている、道路構造体及び移動体を含む複数の種類の物標を画像処理によって検出し、
    前記複数の種類の物標から一つの種類の物標を選択し、前記選択した種類の物標の方位に沿った参照線を設定し、
    前記参照線と前記車両の進行方位線とのなす角度を、前記車両が走行中又は走行予定の車線に対する前記車両の方位として推定する、
    車両制御方法。
  8. 車両に搭載されたコンピュータに、
    車両の外部空間を撮像した画像を取得させ、
    前記画像に映されている、道路構造体及び移動体を含む複数の種類の物標を画像処理によって検出させ、
    前記複数の種類の物標から一つの種類の物標を選択させ、前記選択した種類の物標の方位に沿った参照線を設定させ、
    前記参照線と前記車両の進行方位線とのなす角度を、前記車両が走行中又は走行予定の車線に対する前記車両の方位として推定させる、
    プログラム。
JP2021024365A 2021-02-18 2021-02-18 車両制御装置、車両制御方法、およびプログラム Pending JP2022126341A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021024365A JP2022126341A (ja) 2021-02-18 2021-02-18 車両制御装置、車両制御方法、およびプログラム
CN202210139713.0A CN114954511A (zh) 2021-02-18 2022-02-15 车辆控制装置、车辆控制方法以及存储介质
US17/672,737 US11932283B2 (en) 2021-02-18 2022-02-16 Vehicle control device, vehicle control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021024365A JP2022126341A (ja) 2021-02-18 2021-02-18 車両制御装置、車両制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2022126341A true JP2022126341A (ja) 2022-08-30

Family

ID=82801962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021024365A Pending JP2022126341A (ja) 2021-02-18 2021-02-18 車両制御装置、車両制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US11932283B2 (ja)
JP (1) JP2022126341A (ja)
CN (1) CN114954511A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019129879A1 (de) * 2019-11-06 2021-05-06 Zf Friedrichshafen Ag Verfahren sowie Steuergerät zum Steuern eines Kraftfahrzeugs

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10200002A1 (de) * 2001-01-12 2002-08-22 Zoltan Pal E-Traffic Network e-Verkehr Netzwerk Verfahren Computergestützte über Präzision Position Information Navigation Telekommunikation Verkehrsüberwachungs-Koordinations-Operationssystem
JP3617502B2 (ja) * 2002-04-11 2005-02-09 日産自動車株式会社 車線逸脱防止装置
EP1772322A3 (en) * 2003-07-11 2007-05-16 Toyota Jidosha Kabushiki Kaisha Crash-safe vehicle control system
JP4193765B2 (ja) * 2004-01-28 2008-12-10 トヨタ自動車株式会社 車両用走行支援装置
JP4703136B2 (ja) * 2004-06-02 2011-06-15 トヨタ自動車株式会社 線図形化処理装置
JP4557288B2 (ja) * 2005-01-28 2010-10-06 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法、並びにそれを用いた位置特定装置、車両制御装置及びナビゲーション装置
JP4654163B2 (ja) * 2006-07-14 2011-03-16 日立オートモティブシステムズ株式会社 車両の周囲環境認識装置及びシステム
AU2007359782A1 (en) * 2007-10-02 2009-04-09 Tele Atlas B.V. Method of capturing linear features along a reference-line across a surface for use in a map database
JP5094658B2 (ja) * 2008-09-19 2012-12-12 日立オートモティブシステムズ株式会社 走行環境認識装置
US10643467B2 (en) * 2010-03-28 2020-05-05 Roadmetric Ltd. System and method for detecting and recording traffic law violation events
CN102622886B (zh) * 2012-03-23 2014-04-30 长安大学 一种基于视频的车辆违章变道事件检测方法
US9071732B2 (en) * 2013-03-15 2015-06-30 Tolo, Inc. Distortion correcting sensors for diagonal collection of oblique imagery
KR101584693B1 (ko) * 2014-05-23 2016-01-14 경북대학교 산학협력단 카메라 파라미터 측정 장치 및 그 방법
US9904146B2 (en) * 2015-10-29 2018-02-27 GM Global Technology Operations LLC Camera with positionable light shade
JP2017138694A (ja) * 2016-02-02 2017-08-10 ソニー株式会社 映像処理装置及び映像処理方法
JP2017161430A (ja) 2016-03-11 2017-09-14 トヨタ自動車株式会社 他車両の位置検出装置
CN110770741B (zh) * 2018-10-31 2024-05-03 深圳市大疆创新科技有限公司 一种车道线识别方法和装置、车辆
WO2021198772A1 (en) * 2020-03-30 2021-10-07 Mobileye Vision Technologies Ltd. Navigating a vehicle using an electronic horizon
US11361449B2 (en) * 2020-05-06 2022-06-14 Luminar, Llc Neural network for object detection and tracking

Also Published As

Publication number Publication date
US20220258769A1 (en) 2022-08-18
CN114954511A (zh) 2022-08-30
US11932283B2 (en) 2024-03-19

Similar Documents

Publication Publication Date Title
JP6432116B2 (ja) 車両位置特定装置、車両制御システム、車両位置特定方法、および車両位置特定プログラム
WO2018216194A1 (ja) 車両制御システムおよび車両制御方法
JP6601696B2 (ja) 予測装置、予測方法、およびプログラム
CN111201170B (zh) 车辆控制装置及车辆控制方法
JP7071250B2 (ja) 車両制御装置、車両制御方法、及びプログラム
US20200168097A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7406432B2 (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP2023030147A (ja) 車両制御装置、車両制御方法、およびプログラム
US20220080967A1 (en) Vehicle control device, vehicle control method, and non-transitory computer readable storage medium
JP7225185B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7183237B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022156557A (ja) 車両制御装置、車両制御方法、およびプログラム
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
JP7141421B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022142863A (ja) 移動体制御装置、移動体制御方法、およびプログラム
CN112550263B (zh) 信息处理装置、车辆系统、信息处理方法及存储介质
JP2022154840A (ja) 検出装置、車両システム、検出方法、およびプログラム
JP2022138808A (ja) 移動体の制御装置、移動体の制御方法、およびプログラム
JP2022152402A (ja) 認識装置、車両システム、認識方法、およびプログラム
JP7345515B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US20240182024A1 (en) Vehicle control device, vehicle control method, and storage medium
US11495029B2 (en) Estimation device, estimation method, and storage medium
US11840222B2 (en) Vehicle control method, vehicle control device, and storage medium
JP7160730B2 (ja) 車両システム、車両システムの制御方法、およびプログラム
US20230294702A1 (en) Control device, control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240806