JP7160730B2 - 車両システム、車両システムの制御方法、およびプログラム - Google Patents

車両システム、車両システムの制御方法、およびプログラム Download PDF

Info

Publication number
JP7160730B2
JP7160730B2 JP2019052471A JP2019052471A JP7160730B2 JP 7160730 B2 JP7160730 B2 JP 7160730B2 JP 2019052471 A JP2019052471 A JP 2019052471A JP 2019052471 A JP2019052471 A JP 2019052471A JP 7160730 B2 JP7160730 B2 JP 7160730B2
Authority
JP
Japan
Prior art keywords
vehicle
data
bird
eye view
view data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019052471A
Other languages
English (en)
Other versions
JP2020154708A (ja
Inventor
裕司 安井
成光 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019052471A priority Critical patent/JP7160730B2/ja
Priority to CN202010193773.1A priority patent/CN111717201B/zh
Publication of JP2020154708A publication Critical patent/JP2020154708A/ja
Application granted granted Critical
Publication of JP7160730B2 publication Critical patent/JP7160730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両システム、車両システムの制御方法、およびプログラムに関する。
近年、車両を自動的に制御して走行させる技術の研究が進み、その一部が実用化に向けて開発されている。そして、実用化に向けて開発が進んでいる技術の中には、車両が目的地に到達するための走行経路を生成する技術がある。現在のこの技術では、車両に設置されたカメラによって撮影した画像に基づいて走行経路を生成している。このため、車両は、画像の奥行き方向に向かって走行することになる。ところで、3次元空間をカメラで撮影して得られた2次元の画像では、手前方向の1画素が表す実空間の距離よりも奥行き方向の1画素が表す実空間の距離の方が長くなるため、奥行き方向に向かうほど距離の分解能は低下する。
また、単眼のカメラで撮影した画像に基づいて俯瞰図を作成し、この俯瞰図を車両の周囲を監視するために用いる画像変換方法および車両周囲監視装置に関する技術が開示されている(例えば、特許文献1参照)。
特開2002-034035号公報
しかしながら、特許文献1に開示され技術では、車両が停止している状態で撮影した画像に基づいて俯瞰図を作成している。このため、特許文献1に開示され技術では、走行している車両が引き続き走行を続けるための走行経路を生成する際に俯瞰図を用いることについて十分な検討がされていない。
本発明は、上記の課題認識に基づいてなされたものであり、より高い精度で車両が走行するための走行経路を生成することができる車両システム、車両システムの制御方法、およびプログラムを提供することを目的としている。
この発明に係る車両システム、車両システムの制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る車両システムは、車両の進行方向の画像を取得する画像取得装置と、前記車両の周辺環境を認識する認識部と、前記認識部の認識結果に基づいて、前記車両の速度制御および操舵制御による運転制御を行う運転制御部と、を備え、前記認識部は、前記画像に基づいて俯瞰図データを生成する画像処理部、を備え、前記運転制御部は、前記俯瞰図データに基づいて前記車両を将来走行させる軌道を生成し、生成した前記軌道で前記車両を走行させる、車両システムである。
(2):上記(1)の態様において、前記画像処理部は、前記俯瞰図データに含まれるそれぞれのデータの周辺データとの差異に基づいてエッジ点を抽出し、前記認識部は、前記画像処理部が抽出した前記エッジ点に基づいて前記俯瞰図データに含まれる車線を認識するものである。
(3):上記(1)の態様において、前記画像処理部は、前記画像に含まれるデータの周辺データとの差異に基づいてエッジ点を抽出し、抽出した前記エッジ点を用いて前記俯瞰図データにおける車線を規定するものである。
(4):上記(1)から(3)のうちいずれか一態様において、前記画像取得装置は、時系列で複数の前記画像を取得し、前記画像処理部は、前記画像取得装置が時系列で取得した複数の前記画像を用いて、一つの前記俯瞰図データを生成するものである。
(5):上記(4)の態様において、前記画像処理部は、前記画像取得装置が時系列に取得した複数の前記画像における遠方領域のデータを用いて、一つの前記俯瞰図データにおける遠方領域のデータを生成するものである。
(6):上記(1)から(5)のうちいずれか一態様において、前記画像処理部は、前記俯瞰図データに含まれる路面が物体で遮蔽された遮蔽領域を特定し、特定した前記遮蔽領域を、前記俯瞰図データにおける前記遮蔽領域周辺の画素データにより補完し、前記補完した俯瞰図を用い前記車両を将来走行させる軌道を生成し、生成した前記軌道で前記車両を走行させるものである。
(7):上記(6)の態様において、前記画像処理部は、前記遮蔽領域の補完に別途保存される地図情報を用いて、前記俯瞰図データの路面領域を表すデータを補完するものである。
(8):また、本発明の一態様に係る車両システムの制御方法は、車両システムのコンピュータが、画像取得装置から車両の進行方向の画像を取得し、前記車両の周辺環境を認識し、認識結果に基づいて、前記車両の速度制御および操舵制御による運転制御を行い、前記画像に基づいて俯瞰図データを生成し、前記俯瞰図データに基づいて前記車両を将来走行させる軌道を生成し、生成した前記軌道で前記車両を走行させる、車両システムの制御方法である。
(9):また、本発明の一態様に係るプログラムは、車両システムのコンピュータに、画像取得装置から車両の進行方向の画像を取得させ、前記車両の周辺環境を認識させ、認識結果に基づいて、前記車両の速度制御および操舵制御による運転制御を行わせ、前記画像に基づいて俯瞰図データを生成させ、前記俯瞰図データに基づいて前記車両を将来走行させる軌道を生成し、生成した前記軌道で前記車両を走行させることを行わせる、プログラムである。
上述した(1)~(8)の態様によれば、より高い精度で車両が走行するための走行経路を生成することができる。
第1実施形態に係る車両システム1の構成図である。 第1制御部120および第2制御部160の機能構成図である。 第1実施形態に係る画像処理部132および行動計画生成部140により実行される一連の処理の流れの一例を示すフローチャートである。 第1実施形態に係る画像処理部132および行動計画生成部140による一連の処理の一例を模式的に示す図である。 第1実施形態に係る画像処理部132が俯瞰図データに含まれる遮蔽領域に対応する路面領域を補完する処理の一例を模式的に示す図である。 第2実施形態に係る画像処理部132および行動計画生成部140により実行される一連の処理の流れの一例を示すフローチャートである。 第2実施形態に係る画像処理部132および行動計画生成部140による一連の処理の一例を模式的に示す図である。 実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の車両システム、車両システムの制御方法、およびプログラムの実施形態について説明する。なお、以下では、左側通行の法規が適用される場合について説明するが、右側通行の法規が適用される場合には、左右を逆に読み替えればよい。
<第1実施形態>
[全体構成]
図1は、第1実施形態に係る車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置(automated driving control device)100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。カメラ10は、「画像取得装置」の一例である。
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に取り付けられる。
物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。車両システム1から物体認識装置16が省略されてもよい。
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。行動計画生成部140と第2制御部160とを合わせたものが「運転制御部」の一例である。
認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
また、認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。
認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。
認識部130は、画像処理部132を備える。画像処理部132は、カメラ10によって撮像された画像を取得し、取得した画像に基づいて、この画像に撮像されている路面領域を仮想的に真上から見たように表した俯瞰図データを生成する。俯瞰図データには、路面領域の境界を表す第1エッジ点や、例えば、道路区画線や一時停止線など、路面に描画されている白線の位置を表す第2エッジ点が含まれている。第2エッジ点の方が第1エッジ点よりもデータの値の相違(例えば、輝度差)が大きいものである。以下、第1エッジ点および第2エッジ点をエッジ点という。画像処理部132は、生成した俯瞰図データを行動計画生成部140に出力する。
なお、画像処理部132は、カメラ10によって所定時間ごとに連続して撮像された時系列の複数の画像を取得し、取得した複数の画像を用いて、一つの俯瞰図データを生成する。画像処理部132は、時系列のそれぞれの画像に撮像されている、自車両Mの前方に離れた遠方領域のデータを用いて、一つの俯瞰図データにおける遠方領域のデータを生成する。このとき、画像処理部132は、それぞれの画像における自車両Mの前方の近傍領域のデータを、遠方領域のデータを生成する際の位置合わせに使用する。これにより、位置合わせをした後のそれぞれの画像は、撮像されている遠方領域が微妙にずれることになり、画像処理部132は、1枚の画像からは生成することができなかった遠方領域のそれぞれの位置のデータを複数の画像によって補って(補完して)、一つの俯瞰図データを生成する。
また、画像処理部132は、生成した俯瞰図データに含まれる路面領域が、例えば、建物などの物体によって遮蔽された遮蔽領域(いわゆる、オクルージョン領域)を特定し、このオクルージョン領域を含む地図情報を用いて、俯瞰図データにおいてオクルージョン領域によって遮蔽されている路面領域のデータを補完する。画像処理部132は、地図情報として、第2地図情報62を用いる。画像処理部132において俯瞰図データを生成する処理の一例については後述する。
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(Automatedly)将来走行する目標軌道を生成する。行動計画生成部140は、画像処理部132が生成した俯瞰図データに基づいて目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
[俯瞰図データおよび目標軌道の生成処理]
以下、画像処理部132と行動計画生成部140とによって実現される、自車両Mが将来走行する目標軌道を生成する処理について説明する。以下の説明においては、画像処理部132が、カメラ10によって撮像された1枚の画像に基づいて俯瞰図データを生成し、行動計画生成部140が、俯瞰図データに基づいて目標軌道を生成するものとする。図3は、第1実施形態に係る画像処理部132および行動計画生成部140により実行される一連の処理の流れの一例を示すフローチャートである。
画像処理部132は、カメラ10によって撮像された画像を取得する(ステップS100)。次に、画像処理部132は、取得した画像を仮想的な俯瞰図に変換する(ステップS110)。
その後、画像処理部132は、変換した俯瞰図にオクルージョン領域が存在するか否かを判定する(ステップS120)。ステップS120において、俯瞰図にオクルージョン領域が存在しないと判定した場合、画像処理部132は、処理をステップS150に進める。
一方、ステップS120において、俯瞰図にオクルージョン領域が存在すると判定した場合、画像処理部132は、俯瞰図に含まれる路面領域を遮蔽しているオクルージョン領域を特定する(ステップS130)。その後、画像処理部132は、特定したオクルージョン領域を含む第2地図情報62を用いて、オクルージョン領域に対応する路面領域のデータを補完する(ステップS140)。
次に、画像処理部132は、俯瞰図に含まれるエッジ点を抽出する(ステップS150)。その後、画像処理部132は、抽出したエッジ点に基づいて俯瞰図データに含まれる路面領域および路面領域内の車線を認識する(ステップS160)。
次に、画像処理部132は、認識した路面領域および路面領域内の車線を含む俯瞰図データを生成する(ステップS170)。そして、画像処理部132は、生成した俯瞰図データを、行動計画生成部140に出力する。
その後、行動計画生成部140は、画像処理部132から出力された俯瞰図データに基づいて、目標軌道を生成する(ステップS180)。これにより、第2制御部160は、行動計画生成部140が生成した目標軌道を順次通過するように、自車両Mの走行を制御する。
[俯瞰図データおよび目標軌道の生成例]
図4は、第1実施形態に係る画像処理部132および行動計画生成部140による一連の処理の一例を模式的に示す図である。図4には、画像処理部132が俯瞰図データを生成する際のそれぞれの処理の一例と、行動計画生成部140が生成する目標軌道の一例とを示している。以下の説明においては、画像処理部132によるオクルージョン領域の補完はしないものとする。
画像処理部132は、図4の(a)に示したような画像をカメラ10から取得すると、取得した画像を、図4の(b)に示したような仮想的な一つの俯瞰図に変換する。このとき、画像処理部132は、取得した画像を構成するそれぞれの画素のデータを、仮想的な俯瞰図の対応する位置に配置することによって、カメラ10から取得した画像を一つの俯瞰図に変換する。
なお、変換した俯瞰図における遠方の領域(例えば、図4の(b)における上方の領域)には、画素が配置されない、すなわち、データが空白(NULL)であるデータ空白位置Nが存在することになる。そこで、画像処理部132は、カメラ10から時系列に取得した複数の画像に含まれる遠方の領域(例えば、図4の(a)における上方の領域)の画素のデータを用いて、一つの俯瞰図に変換する。このようにして、画像処理部132は、カメラ10から取得した時系列の複数の画像から、図4の(c)に示したような仮想的な一つの俯瞰図に変換する。
ところで、カメラ10から時系列に取得した複数の画像を用いても、俯瞰図を構成する全ての画素の位置にデータが配置されるとは限らず、依然としてデータ空白位置Nが残ってしまうことも考えられる。この場合、画像処理部132は、図4の(b)に示したように、データ空白位置Nのデータを、このデータ空白位置Nの周辺データ、つまり、データ空白位置Nの周辺に位置する他画素のデータに基づいて補完してもよい。例えば、画像処理部132は、データ空白位置Nの周辺に位置する(例えば、上下左右に位置する)4つの画素の値を加算平均し、この値をデータ空白位置Nにおける画素の値としてもよい。このとき、画像処理部132は、自車両Mの進行方向に直交する、例えば、一時停止線の幅を表すと考えられるデータ空白位置Nの画素の値を、左右に位置する他画素の値の割合を多くして加算平均した値にしてもよい。また、画像処理部132は、自車両Mの進行方向に平行な、例えば、路面領域の境界や、道路区画線の幅を表すと考えられるデータ空白位置Nの画素の値を、上下に位置する他画素の値の割合を多くて加算平均した値にしてもよい。これにより、画像処理部132は、より適切にデータ空白位置Nにおける画素の値を補完することができる。
このようにして、画像処理部132は、図4の(a)に示したようなカメラ10から取得した画像を、図4の(c)に示したようなデータ空白位置Nのデータが補完された一つの俯瞰図に変換する。なお、図4の(b)においては、データ空白位置Nの範囲を1画素の範囲に相当する範囲として示していないが、画像処理部132は、それぞれの画素ごとに俯瞰図に変換する処理を行うため、1つのデータ空白位置Nの範囲も1画素の範囲に相当する範囲である。
その後、画像処理部132は、図4の(c)に示した俯瞰図に含まれるエッジ点を抽出し、図4の(d)に示したような俯瞰図データを生成する。このとき、画像処理部132は、俯瞰図に含まれるそれぞれの画素のデータと、その画素の周辺に位置する他画素のデータとの差異に基づいて、エッジ点の画素を抽出する。より具体的には、ある1つの画素について考えると、この1つの画素の輝度値と、その画素の周辺に位置する他画素の輝度値とを比較し、輝度値の差異が予め定めた閾値よりも大きい場合に、その画素がエッジ点の画素であると判定し、輝度値の差異が予め定めた閾値以下である場合に、その画素がエッジ点の画素ではないと判定することによって、エッジ点の画素を抽出する。つまり、画像処理部132は、俯瞰図に含まれるそれぞれの画素のデータにおける高周波成分を、エッジ点として抽出する。そして、画像処理部132は、図4の(d)に示したような、エッジ点Eが含まれている俯瞰図データを生成する。
画像処理部132は、生成した俯瞰図データを行動計画生成部140に出力する。これにより、行動計画生成部140は、画像処理部132から出力された俯瞰図データに基づいて、図4の(e)に示したような目標軌道を生成する。図4の(e)には、自車両Mが次の交差点を右折するために、自車両Mが順次到達すべきそれぞれの軌道点Kを順に並べた目標軌道を生成した場合の一例を示している。
[オクルージョン領域の補完例]
図5は、第1実施形態に係る画像処理部132が俯瞰図データに含まれる遮蔽領域(オクルージョン領域)に対応する路面領域を補完する処理の一例を模式的に示す図である。図5には、自車両Mがこれから進入する交差点のそれぞれの角の部分にオクルージョン領域が存在する場合の一例を示している。以下の説明においては、画像処理部132によって変換した俯瞰図におけるデータ空白位置Nの画素の値は、すでに補完が完了しているものとする。
カメラ10から取得した図5の(a)に示したような画像に基づいて図5の(b)に示したようなオクルージョン領域O1~O4が存在する俯瞰図に変換した場合、画像処理部132は、俯瞰図に含まれる路面領域を遮蔽しているオクルージョン領域を特定する。そして、画像処理部132は、特定したオクルージョン領域O1~O4のそれぞれに対応する情報を含む第2地図情報62を用いて、オクルージョン領域O1~O4によって遮蔽されているそれぞれの路面領域のデータを補完する。より具体的には、画像処理部132は、第2地図情報62に含まれる車線の中央の情報や、車線の境界の情報、一時停止線の情報などを、オクルージョン領域以外の対応する路面領域に当てはめることによって、オクルージョン領域内の車線や、車線の境界、一時停止線の位置を求め、求めた位置の情報を路面領域のデータとして補完する。図5の(c)には、第2地図情報62を用いて補完領域C1~C4のデータを補完する場合の一例を示している。
なお、画像処理部132は、補完するオクルージョン領域を選択するようにしてもよい。例えば、画像処理部132は、自車両Mが将来走行する走行経路ではない路面領域を遮蔽しているオクルージョン領域を補完しないようにしてもよい。
このようにして、画像処理部132は、図5の(a)に示したようなカメラ10から取得した画像を、図5の(d)に示したようなオクルージョン領域が存在しない一つの俯瞰図に変換する。なお、図5の(b)および図5の(c)においては、オクルージョン領域O1~O4および補完領域C1~C4の範囲を1画素の範囲に相当する範囲として示していないが、画像処理部132は、それぞれの画素ごとにオクルージョン領域に対する処理を行うため、それぞれのオクルージョン領域および補完領域の範囲も1画素ごとに判定した範囲である。
上記に述べたとおり、第1実施形態の車両システム1によれば、画像処理部132が、カメラ10から取得した時系列の複数の画像および第2地図情報62を用いることによって、画像を変換した俯瞰図に含まれる奥行き方向やオクルージョン領域における路面領域の境界、道路区画線、一時停止線などをより明確に表した俯瞰図データを生成して行動計画生成部140に出力する。これにより、行動計画生成部140は、カメラ10が撮像した画像に対して目標軌道を生成するよりも、特に、奥行き方向に遠方の領域の精度を高めた目標軌道を生成することができる。つまり、第1実施形態の車両システム1によれば、より高い精度で自車両Mが走行するための走行経路を生成することができる。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態では、俯瞰図データを生成する処理の順番が、第1実施形態と異なる。より具体的には、第1実施形態では、変換した俯瞰図から認識していた路面領域および路面領域内の車線を、第2実施形態では、カメラ10から取得した画像から認識する。
図6は、第2実施形態に係る画像処理部132および行動計画生成部140により実行される一連の処理の流れの一例を示すフローチャートである。以下の説明においても、画像処理部132が、カメラ10によって撮像された1枚の画像に基づいて俯瞰図データを生成し、行動計画生成部140が、俯瞰図データに基づいて目標軌道を生成するものとする。
画像処理部132は、カメラ10によって撮像された画像を取得する(ステップS200)。次に、画像処理部132は、取得した画像に含まれるエッジ点を抽出する(ステップS210)。その後、画像処理部132は、抽出したエッジ点に基づいて俯瞰図データに含まれる路面領域および路面領域内の車線を認識する(ステップS220)。
次に、画像処理部132は、認識した路面領域および路面領域内の車線を俯瞰図として表した俯瞰図データを生成する(ステップS230)。その後、画像処理部132は、生成した俯瞰図データが表す路面領域にオクルージョン領域が存在するか否かを判定する(ステップS240)。ステップS240において、俯瞰図データが表す路面領域にオクルージョン領域が存在しないと判定した場合、画像処理部132は、処理をステップS270に進める。つまり、画像処理部132は、生成した俯瞰図データを、行動計画生成部140に出力する。
一方、ステップS240において、俯瞰図データが表す路面領域にオクルージョン領域が存在すると判定した場合、画像処理部132は、俯瞰図データにおいて路面領域を遮蔽しているオクルージョン領域を特定する(ステップS250)。その後、画像処理部132は、特定したオクルージョン領域を含む第2地図情報62を用いて、遮蔽されている路面領域のデータを補完する(ステップS260)。そして、画像処理部132は、路面領域のデータを補完した俯瞰図データを、行動計画生成部140に出力する。
その後、行動計画生成部140は、画像処理部132から出力された俯瞰図データに基づいて、目標軌道を生成する(ステップS270)。これにより、第2制御部160は、行動計画生成部140が生成した目標軌道を順次通過するように、自車両Mの走行を制御する。
[俯瞰図データおよび目標軌道の生成例]
図7は、第2実施形態に係る画像処理部132および行動計画生成部140による一連の処理の一例を模式的に示す図である。図7には、画像処理部132が俯瞰図データを生成する際のそれぞれの処理の一例と、行動計画生成部140が生成する目標軌道の一例とを示している。なお、第2実施形態の画像処理部132におけるオクルージョン領域の補完処理は、第1実施形態の画像処理部132におけるオクルージョン領域の補完処理と同様に考えることによって容易に理解することができる。従って、以下の説明においては、第2実施形態の画像処理部132によるオクルージョン領域の補完に関する説明は省略する。
画像処理部132は、図7の(a)に示したような画像をカメラ10から取得すると、取得した画像に含まれるそれぞれの画素のデータと、その画素の周辺データ、つまり、その画素の周辺に位置する他画素のデータとの差異に基づいて、図7の(b)に示したような、エッジ点EPの画素を抽出する。
なお、第2実施形態でも、画像処理部132は、カメラ10から時系列に複数の画像を取得する。このため、画像処理部132は、取得した複数の画像のそれぞれから、エッジ点EPの画素を抽出する。ここでのエッジ点EPの画素を抽出する処理は、第1実施形態の画像処理部132におけるエッジ点Eの画素を抽出する処理における俯瞰図をカメラ10から取得した画像に読み替えればよい。
そして、画像処理部132は、図7の(c)に示したような、抽出したそれぞれのエッジ点EPの位置を仮想的な一つの俯瞰図に表した俯瞰図データを生成する。このとき、画像処理部132は、それぞれの画像から抽出したエッジ点EPの位置を、仮想的な俯瞰図の対応する位置に配置することによって、俯瞰図に表した俯瞰図データを生成する。これにより、俯瞰図データには、遠方の領域(例えば、図7の(c)における上方の領域)にもエッジ点EPが配置されることになる。このようにして、画像処理部132は、カメラ10から取得した時系列の複数の画像から抽出したエッジ点EPが配置された、図7の(d)に示したような俯瞰図データを生成する。
ところで、カメラ10から時系列に取得した複数の画像から先にエッジ点EPを抽出して俯瞰図データを生成した場合でも、俯瞰図データには、路面領域および路面領域内の車線を表す全てのエッジ点EPが配置されずとは限らず、エッジ点EPが配置されていない位置が残ってしまう、つまり、第1実施形態におけるデータ空白位置Nと同様の状態になることも考えられる。この場合、画像処理部132は、図7の(c)に示したように、データ空白位置Nのエッジ点EPを、このデータ空白位置Nの周辺データ、つまり、データ空白位置Nの周辺に位置する他のエッジ点EPに基づいて補完してもよい。ただし、第2実施形態においてエッジ点EPは、例えば、路面領域や、道路区画線、一時停止線の境界を表す位置であるか否かを表しているのみである。このため、第2実施形態では、第1実施形態のように周辺に位置する4つの画素の値を加算平均するような処理を行わずとも、データ空白位置Nの上下左右のいずれかがエッジ点EPであれば、データ空白位置Nもエッジ点EPであるとして、データ空白位置Nにおけるエッジ点EPを補完してもよい。
このようにして、画像処理部132は、図7の(a)に示したようなカメラ10から取得した画像からエッジ点EPを抽出し、データ空白位置Nのエッジ点EPを補完することによって、図7の(d)に示したような一つの俯瞰図に表した俯瞰図データを生成する。なお、図7の(c)においては、データ空白位置Nの範囲を1画素の範囲、つまり、1つのエッジ点EPの範囲に相当する範囲として示していないが、画像処理部132は、それぞれのエッジ点EPごとに俯瞰図に表した俯瞰図データを生成するため、1つのデータ空白位置Nの範囲も1つのエッジ点EPの範囲、つまり、1画素の範囲に相当する範囲である。
画像処理部132は、生成した俯瞰図データを行動計画生成部140に出力する。これにより、行動計画生成部140は、画像処理部132から出力された俯瞰図データに基づいて、図7の(e)に示したような目標軌道を生成する。図7の(e)にも、自車両Mが次の交差点を右折するために、自車両Mが順次到達すべきそれぞれの軌道点Kを順に並べた目標軌道を生成した場合の一例を示している。
上記に述べたとおり、第2実施形態の車両システム1によれば、画像処理部132が、カメラ10から取得した時系列の複数の画像および第2地図情報62を用いることによって、画像を変換した俯瞰図に含まれる奥行き方向やオクルージョン領域における路面領域の境界、道路区画線、一時停止線などをより明確に表した俯瞰図データを生成して行動計画生成部140に出力する。これにより、行動計画生成部140は、カメラ10が撮像した画像に対して目標軌道を生成するよりも、特に、奥行き方向に遠方の領域の精度を高めた目標軌道を生成することができる。つまり、第2実施形態の車両システム1によれば、より高い精度で自車両Mが走行するための走行経路を生成することができる。
[ハードウェア構成]
図8は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100-1、CPU100-2、ワーキングメモリとして使用されるRAM(Random Access Memory)100-3、ブートプログラムなどを格納するROM(Read Only Memory)100-4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100-5、ドライブ装置100-6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100-1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100-5には、CPU100-2が実行するプログラム100-5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100-3に展開されて、CPU100-2によって実行される。これによって、第1制御部120および第2制御部160、より具体的には、画像処理部132や、行動計画生成部140のうち一部または全部が実現される。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
画像取得装置から車両の進行方向の画像を取得し、
前記車両の周辺環境を認識し、
認識結果に基づいて、前記車両の速度制御および操舵制御による運転制御を行い、
前記画像に基づいて俯瞰図データを生成し、
前記俯瞰図データに基づいて前記車両を将来走行させる軌道を生成し、生成した前記軌道で前記車両を走行させる、
ように構成されている、車両システム。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何ら限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。
1・・・車両システム
10・・・カメラ
12・・・レーダ装置
14・・・ファインダ
16・・・物体認識装置
20・・・通信装置
30・・・HMI
40・・・車両センサ
50・・・ナビゲーション装置
51・・・GNSS受信機
52・・・ナビHMI
53・・・経路決定部
54・・・第1地図情報
60・・・MPU
61・・・推奨車線決定部
62・・・第2地図情報
80・・・運転操作子
100・・・自動運転制御装置
120・・・第1制御部
130・・・認識部
132・・・画像処理部
140・・・行動計画生成部
160・・・第2制御部
162・・・取得部
164・・・速度制御部
166・・・操舵制御部
200・・・走行駆動力出力装置
210・・・ブレーキ装置
220・・・ステアリング装置
M・・・自車両
N・・・空白位置
E,EP・・・エッジ点
K・・・軌道点
O1,O2,O3,O4・・・オクルージョン領域
C1,C2,C3,C4・・・補完領域

Claims (7)

  1. 車両の進行方向の複数の画像を時系列で取得する画像取得装置と、
    前記車両の周辺環境を認識する認識部と、
    前記認識部の認識結果に基づいて、前記車両の速度制御および操舵制御による運転制御を行う運転制御部と、を備え、
    前記認識部は、前記複数の画像を用いて、画像に撮像されている路面領域を仮想的に真上から見たように表した一つの俯瞰図データを生成する画像処理部、を備え、
    前記運転制御部は、前記俯瞰図データに基づいて前記車両を将来走行させる軌道を生成し、生成した前記軌道で前記車両を走行させ、
    前記画像処理部は、前記複数の画像における前記車両の前方の近傍領域のデータを位置合わせに用いて、前記複数の画像における遠方領域のデータに基づいて一つの前記俯瞰図データにおける遠方領域のデータを生成する、
    車両システム。
  2. 前記画像処理部は、前記俯瞰図データに含まれるそれぞれのデータの周辺データとの差異に基づいてエッジ点を抽出し、
    前記認識部は、前記画像処理部が抽出した前記エッジ点に基づいて前記俯瞰図データに含まれる車線を認識する、
    請求項1に記載の車両システム。
  3. 前記画像処理部は、前記画像に含まれるデータの周辺データとの差異に基づいてエッジ点を抽出し、抽出した前記エッジ点を用いて前記俯瞰図データにおける車線を規定する、 請求項1に記載の車両システム。
  4. 前記画像処理部は、前記俯瞰図データに含まれる路面が物体で遮蔽された遮蔽領域を特定し、
    特定した前記遮蔽領域を、前記俯瞰図データにおける前記遮蔽領域周辺の画素データにより補完し、
    前記補完した俯瞰図を用い前記車両を将来走行させる軌道を生成し、生成した前記軌道で前記車両を走行させる、
    請求項1から3のうちいずれか1項に記載の車両システム。
  5. 前記画像処理部は、前記遮蔽領域の補完に別途保存される地図情報を用いて、前記俯瞰図データの路面領域を表すデータを補完する、
    請求項4に記載の車両システム。
  6. 車両システムのコンピュータが、
    画像取得装置から車両の進行方向の複数の画像を時系列で取得し、
    前記車両の周辺環境を認識し、
    認識結果に基づいて、前記車両の速度制御および操舵制御による運転制御を行い、
    前記複数の画像を用いて、画像に撮像されている路面領域を仮想的に真上から見たように表した一つの俯瞰図データを生成し、
    前記俯瞰図データに基づいて前記車両を将来走行させる軌道を生成し、生成した前記軌道で前記車両を走行させ、
    前記俯瞰図データを生成する際に、前記複数の画像における前記車両の前方の近傍領域のデータを位置合わせに用いて、前記画像取得装置が時系列に取得した複数の前記画像における遠方領域のデータに基づいて一つの前記俯瞰図データにおける遠方領域のデータを生成する、
    車両システムの制御方法。
  7. 車両システムのコンピュータに、
    画像取得装置から車両の進行方向の複数の画像を時系列で取得させ、
    前記車両の周辺環境を認識させ、
    認識結果に基づいて、前記車両の速度制御および操舵制御による運転制御を行わせ、
    前記複数の画像を用いて、画像に撮像されている路面領域を仮想的に真上から見たように表した一つの俯瞰図データを生成させ、
    前記俯瞰図データに基づいて前記車両を将来走行させる軌道を生成し、生成した前記軌道で前記車両を走行させることを行わせ、
    前記俯瞰図データを生成させる際に、前記複数の画像における前記車両の前方の近傍領域のデータを位置合わせに用いて、前記画像取得装置が時系列に取得した複数の前記画像における遠方領域のデータに基づいて一つの前記俯瞰図データにおける遠方領域のデータを生成させる、
    プログラム。
JP2019052471A 2019-03-20 2019-03-20 車両システム、車両システムの制御方法、およびプログラム Active JP7160730B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019052471A JP7160730B2 (ja) 2019-03-20 2019-03-20 車両システム、車両システムの制御方法、およびプログラム
CN202010193773.1A CN111717201B (zh) 2019-03-20 2020-03-18 车辆系统、车辆系统的控制方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019052471A JP7160730B2 (ja) 2019-03-20 2019-03-20 車両システム、車両システムの制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020154708A JP2020154708A (ja) 2020-09-24
JP7160730B2 true JP7160730B2 (ja) 2022-10-25

Family

ID=72559202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019052471A Active JP7160730B2 (ja) 2019-03-20 2019-03-20 車両システム、車両システムの制御方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP7160730B2 (ja)
CN (1) CN111717201B (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011037109A1 (ja) 2009-09-25 2011-03-31 クラリオン株式会社 センサコントローラ、ナビゲーション装置、センサ制御方法
JP2012195793A (ja) 2011-03-17 2012-10-11 Clarion Co Ltd 車両周辺監視装置
WO2018230530A1 (ja) 2017-06-16 2018-12-20 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
WO2019038914A1 (ja) 2017-08-25 2019-02-28 本田技研工業株式会社 表示制御装置、表示制御方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5375752B2 (ja) * 2009-07-15 2013-12-25 日産自動車株式会社 車両運転支援装置
JP5313072B2 (ja) * 2009-07-29 2013-10-09 日立オートモティブシステムズ株式会社 外界認識装置
JP2012147149A (ja) * 2011-01-11 2012-08-02 Aisin Seiki Co Ltd 画像生成装置
JP6255928B2 (ja) * 2013-11-15 2018-01-10 スズキ株式会社 俯瞰画像生成装置
JP6022517B2 (ja) * 2014-09-12 2016-11-09 アイシン精機株式会社 車両の制御装置
CN104859542B (zh) * 2015-05-26 2017-06-27 寅家电子科技(上海)有限公司 车载监控系统及车载监控处理方法
JP6294905B2 (ja) * 2016-03-31 2018-03-14 株式会社Subaru 表示装置
CN110461677B (zh) * 2017-03-30 2022-10-21 本田技研工业株式会社 车辆控制系统、车辆控制方法及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011037109A1 (ja) 2009-09-25 2011-03-31 クラリオン株式会社 センサコントローラ、ナビゲーション装置、センサ制御方法
JP2012195793A (ja) 2011-03-17 2012-10-11 Clarion Co Ltd 車両周辺監視装置
WO2018230530A1 (ja) 2017-06-16 2018-12-20 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
WO2019038914A1 (ja) 2017-08-25 2019-02-28 本田技研工業株式会社 表示制御装置、表示制御方法およびプログラム

Also Published As

Publication number Publication date
CN111717201B (zh) 2024-04-02
CN111717201A (zh) 2020-09-29
JP2020154708A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
CN111201170B (zh) 车辆控制装置及车辆控制方法
JP7117881B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7429143B2 (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP7112374B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7071250B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7275001B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7345349B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2019137185A (ja) 車両制御システム、車両制御方法、およびプログラム
JP2019147486A (ja) 車両制御システム、車両制御方法、およびプログラム
JP6965152B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7406432B2 (ja) 移動体制御装置、移動体制御方法、およびプログラム
US20220080967A1 (en) Vehicle control device, vehicle control method, and non-transitory computer readable storage medium
JP7080091B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7225185B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7125969B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7449751B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7236979B2 (ja) 車両制御装置、および車両制御方法
JP7027279B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
US11866071B2 (en) Predicting device, vehicle system, and storage medium
JP7028838B2 (ja) 周辺認識装置、周辺認識方法、およびプログラム
JP7160730B2 (ja) 車両システム、車両システムの制御方法、およびプログラム
CN115158347A (zh) 移动体控制装置、移动体控制方法及存储介质
JP2022142976A (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP7121715B2 (ja) 推定装置、推定方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221013

R150 Certificate of patent or registration of utility model

Ref document number: 7160730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150