JPWO2019092846A1 - 表示システム、表示方法、およびプログラム - Google Patents

表示システム、表示方法、およびプログラム Download PDF

Info

Publication number
JPWO2019092846A1
JPWO2019092846A1 JP2019551831A JP2019551831A JPWO2019092846A1 JP WO2019092846 A1 JPWO2019092846 A1 JP WO2019092846A1 JP 2019551831 A JP2019551831 A JP 2019551831A JP 2019551831 A JP2019551831 A JP 2019551831A JP WO2019092846 A1 JPWO2019092846 A1 JP WO2019092846A1
Authority
JP
Japan
Prior art keywords
vehicle
display
control unit
predetermined
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019551831A
Other languages
English (en)
Other versions
JP6877571B2 (ja
Inventor
大庭 吉裕
吉裕 大庭
芙衣 久保田
芙衣 久保田
博典 高埜
博典 高埜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2019092846A1 publication Critical patent/JPWO2019092846A1/ja
Application granted granted Critical
Publication of JP6877571B2 publication Critical patent/JP6877571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

表示システムにおいて、画像を表示する表示部(400)と、所定の仮想視点から見た車両の周辺状況を示す周辺画像を、表示面における所定の表示範囲に表示するように前記表示部を制御する表示制御部(120)であって、前記車両の走行状態に基づいて、前記所定の表示範囲を変更する表示制御部と、を備える。

Description

本発明は、表示システム、表示方法、およびプログラムに関する。
従来、自車両に設置された撮像手段で撮像された画像を、他車両との関係において変更される仮想視点から見た画像に変換して表示部に表示させる技術が知られている(特許文献1参照)。
特開2017−69852号公報
しかしながら、自車両の周辺において確認したい状況は、自車両の状態によって異なる。従って、仮想視点を他車両との関係において変更した場合、自車両の状態に基づいた車両周辺の適切な表示ができない場合があった。
本発明は、このような事情を考慮してなされたものであり、車両の状態に基づいて、適切な車両周辺の画像を表示することができる表示システム、表示方法、およびプログラムを提供することを目的の一つとする。
(1):画像を表示する表示部と、所定の仮想視点から見た車両の周辺状況を示す周辺画像を、表示面における所定の表示範囲に表示するように前記表示部を制御する表示制御部であって、前記車両の走行状態に基づいて、前記所定の表示範囲を変更する表示制御部と、を備える表示システムである。
(2):(1)において、前記表示制御部は、前記車両の速度が所定速度以上である場合に、前記車両の速度が所定速度未満である場合に比して、前記所定の表示範囲を大きくするものである。
(3):(2)において、前記表示制御部は、前記車両の速度が所定速度未満である場合に、前記所定の表示範囲を前記車両の速度に依らずに固定するものである。
(4):(1)〜(3)において、前記車両の周辺に存在する物体を認識する物体認識部を更に備え、前記表示制御部は、前記物体認識部により認識された物体に関する画像を前記所定の表示範囲上に表示するものである。
(5):(1)〜(4)において、互いに異なる複数の度合で車両の運転支援を実行する運転制御部を更に備え、前記表示制御部は、前記車両が走行する道路の環境と、前記運転制御部により制御される運転支援の度合に基づいて、前記仮想視点の視点位置、前記仮想視点からの画角、または前記仮想視点からの撮像方向を決定し、決定した前記視点位置、前記画角、または前記撮像方向に基づいて前記所定の表示範囲を変更するものである。
(6):(1)〜(5)において、前記表示制御部は、前記車両の走行状態に基づいて、前記所定の表示範囲に表示する前記車両が走行する道路の形状および前記道路を区画する区画線を変更するものである。
(7):(1)〜(6)において、前記表示制御部は、前記所定の表示範囲に、前記車両の後方領域と前方領域とを表示するとともに、前記車両の走行状態に基づいて、前記所定の表示範囲のうち、前方領域に関する表示範囲を変更するものである。
(8):(1)〜(7)において、前記表示制御部は、前記車両の走行状態に基づいて、前記所定の表示範囲の上端の位置を変更するものである。
(9):コンピュータが、所定の仮想視点から見た車両の周辺状況を示す周辺画像を、表示面における所定の表示範囲に表示するように表示部を制御し、前記車両の走行状態に基づいて、前記所定の表示範囲を変更する、表示方法である。
(10):コンピュータに、所定の仮想視点から見た車両の周辺状況を示す周辺画像を、表示面における所定の表示範囲に表示するように表示部を制御させ、前記車両の走行状態に基づいて、前記所定の表示範囲を変更させる、プログラムである。
(1)〜(10)によれば、車両の状態に基づいて、適切な車両周辺の画像を表示することができる。
実施形態の表示システムを含む車両システム1の構成図である。 表示制御部120の機能構成図である。 仮想視点パラメータを固定にした場合において、周辺画像を異なる表示範囲で表示装置に表示させた画像IM1〜IM3の一例を示す図である。 仮想視点パラメータを固定にした場合の周辺画像範囲について説明するための図である。 運転支援の度合に基づいて周辺画像範囲が変化することについて説明するための図である。 運転支援の度合における周辺画像範囲について説明するための図である。 実施形態の表示システムにより実行される処理の流れの一例を示すフローチャートである。 実施形態の表示制御部120のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の表示システム、表示方法、およびプログラムの実施形態について説明する。なお、実施形態では、車両が自動運転(自律運転)を行うにあたり、表示システムが車両の周辺を認識した結果を表示させる場合を一例として示す。自動運転とは、乗員による操作に依らず操舵制御または速度制御のうち一方または双方を制御して車両を走行させることをいい、運転支援の一種である。また、実施形態において、運転支援には、例えば、ACC(Adaptive Cruise Control System)やLKAS(Lane Keeping Assistance System)等の運転支援装置が作動することで運転支援を実行する第1の度合と、第1の度合よりも制御度合が高く、乗員が車両の運転操作子に対する操作を行わずに、車両の加減速または操舵のうち少なくとも一方を自動的に制御して自動運転を実行するが、乗員に、ある程度の周辺監視義務を課す第2の度合と、第2の度合よりも制御度合が高く、乗員に周辺監視義務を課さない(或いは第2の度合よりも低い周辺監視義務を課す)第3の度合とがあるものとする。本実施形態において、第2の度合および第3の度合の運転支援が、自動運転に相当するものとする。また、実施形態における「乗員」とは、例えば、運転席すなわち運転操作子が設けられた座席に着座した乗員であるものとする。
[全体構成]
図1は、実施形態の表示システムを含む車両システム1の構成図である。車両システム1が搭載される車両(以下、自車両Mと称する)は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
図1において、車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、車両センサ70と、運転操作子80と、マスター制御部100と、運転支援制御部200と、自動運転制御ユニット300と、表示装置(表示部の一例)400と、走行駆動力出力装置500と、ブレーキ装置510と、ステアリング装置520とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す車両システム1の構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。また、表示装置400と表示制御部120とを合わせたものが「表示システム」の一例である。また、物体認識装置16と外界認識部321とを合わせたものが、「物体認識部」の一例である。また、運転支援制御部200と自動運転制御ユニット300とを合わせたものが、「運転制御部」の一例である。
カメラ10は、自車両Mの周辺を撮像し、撮像画像を生成する。カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される自車両Mの任意の箇所に取り付けられる。自車両の周辺とは、自車両の前方を含み、自車両の側方又は後方を含んでいてもよい。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。後方を撮像する場合、カメラ10は、リアウインドシールド上部やバックドア等に取り付けられる。側方を撮像する場合、カメラ10は、ドアミラー等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
レーダ装置12は、自車両Mの周辺の所定の照射方向に対してミリ波等の電波を放射するとともに、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。物体とは、例えば、自車両周辺の他車両、障害物、構造物等である。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FMCW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
ファインダ14は、自車両Mの周辺の所定の照射方向に対して照射された照射光に対する散乱光を測定し、物体までの距離を検出するLIDAR(Light Detection and Ranging、或いはLaser Imaging Detection and Ranging)である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。
物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、自車両の周辺に存在する物体の位置、種類、速度等を認識する。物体が他車両である場合、物体認識装置16は、認識結果を運転支援制御部200および自動運転制御ユニット300に出力する。
通信装置20は、例えば、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。通信装置20は、自車両Mの周辺に存在する他車両と通信することによって、他車両の車種、他車両の走行状態(車速、加速度、走行車線)等を取得してもよい。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI(Human Machine Interface)52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。ナビHMI52は、表示装置、スピーカ、タッチパネル、キー等を含む。ナビHMI52は、後述する表示装置400と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(例えば、目的地まで走行するときの経由地に関する情報を含む)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。経路決定部53により決定された経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。
MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリ等の記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を、第2地図情報62を参照してブロックごとに推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報、車線の境界の情報、道路情報、交通規制情報、住所情報、施設情報、電話番号情報等を有している。また、第2地図情報62は、車線変更が可能な区間や追い越しが可能な区間に関する情報が含まれていてもよい。
車両センサ70は、例えば、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含み、自車両の走行状態を検出する。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール等を含む。
[マスター制御部]
マスター制御部100は、例えば、切替制御部110と、表示制御部120とを備える。切替制御部110は、表示装置400に含まれる所定のスイッチ(例えば、メインスイッチおよびオートスイッチ)から入力される操作信号に基づいて、運転支援のオンオフ、または運転支援の度合を切り替える。また、切替制御部110は、アクセルペダルやブレーキペダル、ステアリングホイール等の運転操作子80に対する加速、減速または操舵を指示する操作に基づいて、運転支援をキャンセルして手動運転に切り替えてもよい。
表示制御部120は、表示装置400に画像を表示させる。表示制御部120の機能の詳細については後述する。
[運転支援制御部]
運転支援制御部200は、例えば、第1の度合や、その他の運転支援制御を実行する。例えば、運転支援制御部200は、ACCを実行する際には、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、自車両Mと、前走車両との車間距離を一定に保った状態で走行するように走行駆動力出力装置500およびブレーキ装置510を制御する。すなわち、運転支援制御部200は、前走車両との車間距離に基づく加減速制御(速度制御)を行う。また、運転支援制御部200は、LKASを実行する際には、自車両Mが、現在走行中の走行車線を維持(レーンキープ)しながら走行するようにステアリング装置520を制御する。すなわち、運転支援制御部200は、車線維持のための操舵制御を行う。
[自動運転制御ユニット]
自動運転制御ユニット300は、例えば、第2の度合および第3の度合の運転支援を実行する。自動運転制御ユニット300は、例えば、第1制御部320と、第2制御部340とを備える。第1制御部320は、例えば、外界認識部321と、自車位置認識部322と、行動計画生成部323とを備える。外界認識部321は、自車両Mの周辺状況を認識する。例えば、外界認識部321は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、周辺車両(他車両の一例)の位置、速度、加速度、走行車線等の状態を認識する。周辺車両の位置は、その周辺車両の重心やコーナー等の代表点で表されてもよいし、周辺車両の輪郭で表現された領域で表されてもよい。周辺車両の「状態」とは、周辺車両の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
また、外界認識部321は、周辺車両に加えて、路上の障害物、ガードレールや電柱、駐車車両、歩行者等の人物、その他の物体の位置を認識してもよい。
自車位置認識部322は、例えば、自車両Mが走行している車線(走行車線)、並びに走行車線に対する自車両Mの相対位置および姿勢を認識する。自車位置認識部322は、例えば、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。自車位置認識部322は、走行車線に対する自車両Mの位置や姿勢を認識してもよい。
行動計画生成部323は、自車両Mが目的地等に対して自動運転を行うための行動計画を生成する。例えば、行動計画生成部323は、推奨車線決定部61により決定された推奨車線を走行するように、且つ、自車両Mの周辺状況に対応できるように、自動運転制御において順次実行されるイベントを決定する。自動運転におけるイベントには、例えば、一定速度で同じ走行車線を走行する定速走行イベント、低速(例えば40[km/h]以下)を条件に、前走車両に追従する低速追従イベント、自車両Mの走行車線を変更する車線変更イベント、前走車両を追い越す追い越しイベント、合流地点で車両を合流させる合流イベント、道路の分岐地点で自車両Mを目的の方向に走行させる分岐イベント、自車両Mを緊急停車させる緊急停車イベント等がある。また、これらのイベントの実行中に、自車両Mの周辺状況(周辺車両や歩行者の存在、道路工事による車線狭窄等)に基づいて、回避のための行動が計画される場合もある。
第2制御部340は、例えば、走行制御部342を備える。走行制御部342は、行動計画生成部323によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置500、ブレーキ装置510、およびステアリング装置520を制御する。
表示装置400は、例えば、運転席正面に設けられる。また、表示装置400は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等の各種表示装置である。表示装置400は、後述する表示制御部120により出力された画像を表示する。また、表示装置400は、スピードメーターやタコメーター等の計器類を表示するインストルメントパネルとして機能し、計器類を表示する領域以外の領域において、後述する周辺画像を表示してもよい。
走行駆動力出力装置500は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置500は、例えば、内燃機関、電動機、および変速機等の組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ブレーキ装置510は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、走行制御部342から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ステアリング装置520は、例えば、ステアリングECUと、電動モータとを備える。ステアリングECUは、走行制御部342から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
[表示制御部]
次に、実施形態の表示制御部120の構成例について説明する。図2は、表示制御部120の機能構成図である。表示制御部120は、例えば、画像取得部121と、認識結果取得部122と、走行状態取得部123と、表示範囲決定部124と、画像変換部125と、表示画像生成部126とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
画像取得部121は、カメラ10により撮像された自車両Mの周辺の撮像画像を取得する。
認識結果取得部122は、自動運転制御ユニット300において認識された、自車両Mの周辺に存在する他車両等の物体の位置、速度、加速度、走行車線、距離等の認識結果を取得する。また、認識結果取得部122は、自動運転制御ユニット300により認識された、道路形状や道路区画線等の情報を取得してもよい。
走行状態取得部123は、例えば、車両センサ70により検出された自車両Mの走行状態を取得する。
表示範囲決定部124は、自車両Mの周辺状況を示す周辺画像(仮想画像)を表示装置400の表示面に表示させる場合に、走行状態取得部123により取得された走行状態に基づいて、表示面における周辺画像の表示範囲を決定する。走行状態とは、例えば、自車両Mの速度、加速度、ジャーク(躍度)、鉛直軸回りの角速度(ヨーレート)等のうち一部または全部を含む。また、走行状態には、自車両Mの走行環境や、自車両Mの運転支援の度合が含まれてもよい。また、走行状態は、自車両Mの現在の走行状態であるが、これに代えて(または加えて)、自車両Mの将来の走行状態であってもよい。将来の走行状態とは、例えば、現在の走行状態や周辺状況等から予測される自車両Mの所定時間後(数秒後または数分後)の走行状態である。表示範囲決定部124の機能の詳細については後述する。
画像変換部125は、画像取得部121により取得された撮像画像を仮想画像に変換する。画像変換部125は、例えば、実視点から撮像された撮像画像の元データを、予め決められた変換テーブルを用いて、仮想視点からみたデータに変換する。変換テーブルは、元データの各画素の座標と、変換後の仮想画像の各画素の座標とをマッピングしたテーブルである。代替的には、仮想画像への変換処理を演算式に従って行ってもよい。
また、画像変換部125は、カメラ10の撮像画像に含まれる自車両M、他車両、道路、障害物等の画像の大きさ、形状、および表示範囲における表示位置等を、表示範囲決定部124により決定された周辺画像の表示範囲に基づいて変更してもよい。
表示画像生成部126は、画像変換部125により変換された画像に基づいて、表示装置400の表示面に表示させる表示画像を生成する。以下、表示画像生成部126における表示画像の生成処理の一例について説明する。
まず、表示画像生成部126は、画像変換部125により変換された撮像画像に含まれる物体を認識する。物体とは、例えば、自車両、他車両、道路上の標示(区画線を含む)、障害物、構造物等である。物体を認識するとは、例えば、他車両の車種、区画線の種類、路面に描かれた記号の種類、障害物の種類、構造物の種類等を認識することである。物体の認識は、例えばディープラーニング等の機械学習手法によって行うことができる。表示画像生成部126は、撮像画像に複数の物体が含まれるときには、それぞれの物体を認識する。
また、表示画像生成部126は、認識結果取得部122により取得した自動運転制御ユニット300における認識結果を撮像画像に基づく認識結果に追加する。この場合、表示画像生成部126は、撮像画像の認識結果と自動運転制御ユニット300における認識結果とが相違する場合には、情報の信頼度に基づいて物体を取捨選択し、選択結果を学習させてもよい。
次に、表示画像生成部126は、認識した物体の位置に基づいて、アニメーション画像を生成する。より具体的には、表示画像生成部126は、認識した物体、物体の位置、およびナビゲーション装置50から取得した自車両Mが走行中の道路に関する情報(道路の形状や車線の数)等に基づいて、アニメーション画像を生成してもよい。アニメーション画像とは、撮像画像に含まれる、自車両M、他車両、道路上のペイント、構造物等の物体や、ナビゲーション装置50から取得した道路に関する情報等を、アイコン、文字、サンプル画像、車両、道路等の外形を示す多角形等で表した画像等である。アニメーション画像には、他車両までの距離、他車両の速度等の表示を含んでいてもよい。また、アニメーション画像は、動画であってもよいし、所定間隔で更新される静止画であってもよい。表示画像生成部126は、アニメーション画像に付随させて、自車両Mまたは他車両の速度や加速度、旋回角等の情報を計算して表示させてもよい。
また、表示画像生成部126は、同一方向に進行可能な複数の車線を区画する区画線である場合に、一方の車線から他の車線への車線変更が可能であるか否かを乗員が視認できるように、異なる区画線のアニメーション画像を生成してもよい。また、表示画像生成部126は、追い越し車線であるか否かを乗員が視認できるように、異なるアニメーション画像を生成してもよい。表示画像生成部126は、車線変更の可否および追い越しの可否に関する情報を第2地図情報62から取得する。
表示画像生成部126は、物体の絶対座標を基準として、画角、視点、撮像方向等のパラメータを加味して想定される範囲のアニメーション画像を生成する。アニメーション画像における物体の位置は、絶対座標に基づいて計算されたものである。その結果、表示範囲決定部124により周辺画像の表示範囲が変更された前後においても、アニメーション画像の元となった絶対的な位置関係は変化しない。これによって、表示画像生成部126は、物体同士の相対的な位置関係が表示範囲の変更の前後において変化しないように表示画像を生成することができる。
上述したように表示画像が生成されることにより、自車両Mの走行状態に基づいて、周辺画像の表示範囲が変更された場合であっても、自車両Mと物体認識装置16により認識された物体との位置関係が表示範囲に追随して変更される。その結果、乗員は、上記の相対的な位置関係をより確実に認識することができる。
[表示範囲決定部]
次に、表示範囲決定部124による機能の詳細について説明する。例えば、表示範囲決定部124は、自車両Mの走行状態に基づいて、仮想視点の視点位置、仮想視点からの画角、および仮想視点からの撮像方向(注視方向)等の仮想視点パラメータを決定し、その後、周辺画像の表示範囲を決定する。この場合、表示範囲決定部124は、仮想視点パラメータを固定とし、自車両Mの走行状態に基づいて、周辺画像の表示範囲のみ可変にしてもよい。また、表示範囲決定部124は、自車両Mの将来の走行状態(例えば、将来の加減速情報や移動方向等)に基づいて、表示範囲を可変にしてもよい。
表示範囲決定部124は、例えば、視点位置決定部124Aと、画角決定部124Bと、撮像方向決定部124Cとを備える。視点位置決定部124Aは、仮想視点の視点位置を決定する。仮想視点とは、例えば、実際のカメラ10の撮像位置を実視点とした場合の仮想的なカメラ(仮想カメラ)の撮像位置である。カメラ10で撮像された撮像画像に対して所定の補正処理(画像変換)を行うことにより、実視点から撮像された撮像画像を、仮想視点から撮像されたような仮想画像に変換することができる。例えば、視点位置決定部124Aは、仮想視点の視点位置を、自車両Mを上方から俯瞰する位置に決定する。また、視点位置決定部124Aは、仮想視点の視点位置を、自車両Mを後方から見る位置に決定してもよい。
画角決定部124Bは、仮想視点からの画角を決定する。例えば、画角を広げる画像補正が行われた仮想画像は、元画像に比して広くなる。一方、画角を狭める画像補正が行われた仮想画像は、元画像に比して狭くなる。
撮像方向決定部124Cは、仮想カメラの撮像方向(注視方向、光軸方向)を決定する。仮想カメラの撮像方向は、仮想視点から立体角として表すことができる。撮像方向は、水平方向の方位角と高さ方向の俯角(又は仰角)において表すことができる。
以下に、仮想視点パラメータを固定にした場合と、可変にした場合とにおいて、表示範囲決定部124が表示範囲を決定する例について説明する。
[仮想視点パラメータを固定にした場合]
図3は、仮想視点パラメータを固定にした場合において、周辺画像を異なる表示範囲で表示装置に表示させた画像IM1〜IM3の一例を示す図である。図3では、自車両Mの速度の上昇に応じて周辺画像の表示範囲がA1→A2に変化する様子を示している。また、図3の例では、自車両Mが同一方向に進行可能な二車線L1およびL2のうち、車線L1を走行しているものとする。LL、CL、およびRLは、それぞれの車線L1およびL2を区画する区間線のアニメーション画像である。また、BPは、自車両Mの基準表示位置を示している。
表示範囲決定部124は、自車両Mの速度に基づいて、周辺画像の全範囲(以下、周辺画像範囲と称する)のうち、表示面に表示する周辺画像の表示範囲を変更する。図4は、仮想視点パラメータを固定にした場合の周辺画像範囲について説明するための図である。図4において、Pは仮想視点の視点位置、vは仮想カメラの撮像方向、aは仮想カメラの画角を示す。なお、図4では、自車両Mの進行方向に対して側面から見た場合の平面的な概略を示している。実際は、視点位置Pは自車両Mに対して3次元の座標を有し、更に撮像方向vは3次元におけるベクトルを有している。視点位置P、撮像方向v、画角aが固定である場合、周辺画像全範囲は、Rで表される。周辺画像範囲Rは、平面の領域である。また、以下では、周辺画像範囲Rの全体に対応する表示範囲は、図3に示すA2であるものとする。
例えば、表示範囲決定部124は、自車両Mの速度が第1の所定速度未満である場合に、周辺画像範囲Rのうち、表示面に表示する周辺画像の表示範囲を、図3のA1に決定する。第1の所定速度は、例えば、40[kph]程度である。表示画像生成部126は、表示範囲A1の周辺画像を含む画像IM1を生成し、生成した画像IM1を表示装置400の表示面に表示させる。なお、図3の上図には、表示範囲A1に含まれる自車両Mおよび他車両N1のアニメーション画像が、表示範囲A1に重畳されている。
また、表示範囲決定部124は、自車両Mの速度が第1の所定速度未満の場合に、表示範囲A1より小さくならないように、自車両Mの速度に依らずに固定してもよい。これにより、表示範囲が小さすぎて、乗員が周辺画像から自車両Mの周辺の様子を把握できなくなることを抑制することができる。
また、表示範囲決定部124は、自車両Mの速度が第1の所定速度以上である場合に、自車両Mの速度が所定速度未満である場合に比して、周辺画像の表示範囲を大きくする。表示範囲を大きくするとは、図3の中図に示すように、表示範囲A1の上端の位置を変更して、表示範囲全体を上側に広げることである。この場合、表示範囲決定部124は、自車両Mの速度が第1の所定速度以上になった時点から、第1の所定速度よりも大きい第2の所定速度になるまでの速度の変化に応じて、線形または非線形に表示範囲を大きくしてもよい。第2の所定速度は、例えば、90[kph]程度である。
表示画像生成部126は、自車両Mの速度が第1の所定速度以上であって、且つ第2の所定速度未満である場合に、図3の中図に示すように、画像IM2を表示装置400の表示面に表示させる。画像IM2は、画像IM1に比して、自車両Mの前方方向の表示範囲が広くなり、結果として、区画線LL、CL、RLが、表示範囲A1で表示された位置から自車両Mの遠方方向に延伸している。これにより、自車両Mの速度に応じた道路形状を表示することができ、乗員への周辺監視に必要な情報を表示させることができる。
また、表示画像生成部126は、自車両Mの速度が第2の所定速度以上である場合に、図3の下図に示すような画像IM3を表示装置400の表示面に表示させる。なお、図3の下図には、自車両M、他車両N1に加えて、他車両N2の画像が、表示範囲A2に重畳されている。
また、図3の下図には、車線L1とL2との間で車線変更が可能であることを示す点線の区画線CLの画像と、車線変更が不可能を示す実線の区画線CL2の画像とが表示されている。このように、自車両Mの走行する道路の車線変更が可能であるか否かに基づいて、異なる区画線を表示することで、乗員に車線変更が可能であるか否かを容易に把握させることができる。
一方、自車両Mの速度が第2の所定速度以上の状態から次第に低下する場合、表示範囲決定部124は、表示範囲をA2→A1のように変更する。
また、表示範囲決定部124は、図4に示すように、周辺画像範囲Rを、自車両Mの後端部から所定の距離(Rb)内の領域(後方領域)を含むように決定してもよい。これにより、表示制御部120は、自車両Mの前方の遠方側を広く表示する場合であっても自車両Mの後方領域が見えなくなることを防止して自車両Mの後方の状況を常に把握できるようにすることができる。
また、表示範囲決定部124は、表示範囲をA1からA2に変更させる場合に、端部からの距離Rbを揃えてもよい。これにより、表示範囲が大きくなるように変更された場合に、自車両Mの前方領域の表示範囲のみが大きくなる。その結果、画像IM1〜画像3に示すように、自車両Mの基準表示位置BPを略一定にすることができ、乗員は、自車両Mと他車両等の相対的な位置関係を容易に把握することができる。
また、表示制御部120は、画像IM1〜IM3に、例えばスピードメーターやタコメーター等の計器類のアニメーション画像や、自車両Mに対する運転支援の度合を示す情報を表示させてもよい。
このように、表示制御部120は、自車両Mの走行状態によって、表示装置400に自車両Mの近傍から遠方までの周辺画像を適切に表示させることができる。また、高速走行時における乗員の注視点は、低速走行時に比して遠方であるため、表示制御部120は、乗員の注視点に適した表示を行うことができる。
[仮想視点パラメータを可変にした場合]
次に、仮想視点パラメータを可変にした場合について説明する。表示範囲決定部124は、例えば、自車両Mの走行環境や自車両Mの運転支援の度合が変化したときに、仮想視点パラメータを可変にする。走行環境とは、例えば、道路種別(例えば、高速道路、一般道路)、道路の勾配、道路形状等である。仮想視点パラメータを可変にするとは、仮想視点の視点位置P、仮想視点Pからの撮像方向v、および仮想視点からの画角aのうち、少なくとも一つを可変にすることである。仮想視点パラメータを可変にすることで、速度に応じて表示範囲を変更する元となる周辺画像範囲が変化することになる。
図5は、運転支援の度合に基づいて周辺画像範囲が変化することについて説明するための図である。図5において、P1〜P3は仮想視点の視点位置、v1〜V3は仮想カメラの撮像方向を示す。視点位置P1〜P3に対応する周辺画像範囲はR1〜R3で表される。図5の例では、視点位置P1〜P3における画角aは固定であるものとするが、運転支援の度合に基づいて可変にしてもよい。
表示範囲決定部124は、例えば、自車両Mの運転支援の度合が第1の度合→第2の度合→第3の度合に変化するとき、視点位置をP1→P2→P3に変更するとともに、撮像方向をv1→v2→v3に変更させせる。その結果、周辺画像範囲は、R1→R2→R3のように、自車両Mから前方のより遠方までの風景を含むように変更される。一方、運転支援の度合が、第3の度合→第2の度合→第1の度合のように変化する場合、周辺画像範囲は、R3→R2→R1のように変更される。これにより、周辺画像範囲における自車両Mの前方側の端は、運転支援の度合が低くなるほど自車両Mに近くなり、運転支援の度合が高い場合に比して狭くなる。また、運転支援の度合が高くなるほど自車両Mから前方のより遠方までの風景を含むように変更される。これにより、乗員に対して運転支援に対する余裕を持たせることができる。
図6は、運転支援の度合における周辺画像範囲について説明するための図である。図6の例において、運転支援の度合が、第1の度合および第2の度合における周辺画像範囲を示している。第1の度合における周辺画像範囲R1は、図6の左図に示すように、仮想視点からの俯角(水平方向に対する角度)が大きいため、運転支援の度合が低い場合に自車両Mの周辺を詳細に表示させることができる。また、第2の度合における周辺画像範囲R2は、図6の右図に示すように、仮想視点からの俯角が小さいため、自動運転中において自車両Mの前方をより遠方まで表示させることができる。また、表示範囲決定部124は、運転支援の度合によって得られた周辺画像範囲を用いて、自車両Mの速度に基づいて表示範囲をA1からA2の範囲で変更する。なお、図6の例では、周辺画像範囲R1の場合と、周辺画像範囲R2の場合とで視点位置が異なるため、周辺画像範囲内に存在する車両(自車両Mおよび他車両)の見え方も異なっている。表示画像生成部126は、図6に示すように、視点位置等の仮想視点パラメータに応じて見え方の異なる車両の画像を生成し、生成した画像を表示範囲内に表示させる。
このように、運転支援の度合により仮想視点パラメータを可変にして周辺画像範囲を決定し、決定した周辺画像範囲に対して自車両Mの速度に基づく表示範囲を決定することで、より適切な周辺画像を表示させることができる。
[処理フロー]
図7は、実施形態の表示システムにより実行される処理の流れの一例を示すフローチャートである。本フローチャートの処理は、例えば、所定周期で繰り返し実行される。図7の例において、画像取得部121は、カメラ10により撮像された自車両周辺の撮像画像を取得する(ステップS100)。次に、認識結果取得部122は、自動運転制御ユニット300において認識された、自車両周辺の物体の認識結果を取得する(ステップS102)。
次に、走行状態取得部123は、自車両Mの走行状態を取得する(ステップS104)。次に、表示範囲決定部124は、自車両Mの走行状態に基づいて、周辺画像の表示範囲を決定する(ステップS106)。
次に、画像変換部125は、画像取得部121により取得された撮像画像を周辺画像に変換する(ステップS108)。次に、表示画像生成部126は、表示範囲決定部124により決定された周辺画像の表示範囲に基づいて、ステップS108の処理で変換した周辺画像の表示範囲における表示画像を生成し(ステップS110)、生成した表示画像を表示装置400の表示面に表示させる(ステップS112)。これにより、本フローチャートの処理は、終了する。
以上説明した実施形態によれば、表示システムにおいて、画像を表示する表示装置400と、所定の仮想視点から見た自車両Mの周辺状況を示す周辺画像を、表示面における所定の表示範囲に表示するように表示装置400を制御する表示制御部120であって、自車両Mの走行状態に基づいて、所定の表示範囲を変更する表示制御部120と、を備えることにより、自車両Mの状態に応じた車両周辺の適切な表示をすることができる。
[ハードウェア構成]
上述した実施形態の表示システムの表示制御部120は、例えば、図8に示すようなハードウェアの構成により実現される。図8は、実施形態の表示制御部120のハードウェア構成の一例を示す図である。
表示制御部120は、通信コントローラ120−1、CPU120−2、RAM120−3、ROM120−4、フラッシュメモリやHDD等の二次記憶装置120−5、およびドライブ装置120−6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置120−6には、光ディスク等の可搬型記憶媒体が装着される。二次記憶装置120−5に格納されたプログラム120−5aがDMAコントローラ(不図示)等によってRAM120−3に展開され、CPU120−2によって実行されることで、表示制御部120の機能部が実現される。また、CPU120−2が参照するプログラムは、ドライブ装置120−6に装着された可搬型記憶媒体に格納されていてもよいし、ネットワークNWを介して他の装置からダウンロードされてもよい。
上記実施形態は、以下のように表現することができる。
記憶装置と前記記憶装置に格納されたプログラムを実行するハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記プログラムを実行することにより、
所定の仮想視点から見た自車両の周辺状況を示す周辺画像を、表示面における所定の表示範囲に表示するように表示部を制御し、
前記自車両の走行状態に基づいて、前記所定の表示範囲を変更する、
ように構成されている表示システム。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、50…ナビゲーション装置、60…MPU、70…車両センサ、80…運転操作子、100…マスター制御部、110…切替制御部、120…表示制御部、121…画像取得部、122…認識結果取得部、123…走行状態取得部、124表示範囲決定部、124A…視点位置決定部、124B…画角決定部、124C…撮像方向決定部、125…画像変換部、126…表示画像生成部、200…運転支援制御部、300…自動運転制御ユニット、320…第1制御部、340…第2制御部、400…表示装置、500…走行駆動力出力装置、510…ブレーキ装置、520…ステアリング装置、M…自車両

Claims (10)

  1. 画像を表示する表示部と、
    所定の仮想視点から見た車両の周辺状況を示す周辺画像を、表示面における所定の表示範囲に表示するように前記表示部を制御する表示制御部であって、前記車両の走行状態に基づいて、前記所定の表示範囲を変更する表示制御部と、
    を備える表示システム。
  2. 前記表示制御部は、前記車両の速度が所定速度以上である場合に、前記車両の速度が所定速度未満である場合に比して、前記所定の表示範囲を大きくする、
    請求項1に記載の表示システム。
  3. 前記表示制御部は、前記車両の速度が所定速度未満である場合に、前記所定の表示範囲を前記車両の速度に依らずに固定する、
    請求項2に記載の表示システム。
  4. 前記車両の周辺に存在する物体を認識する物体認識部を更に備え、
    前記表示制御部は、前記物体認識部により認識された物体に関する画像を前記所定の表示範囲上に表示する、
    請求項1から3のうち何れか1項に記載の表示システム。
  5. 互いに異なる複数の度合で車両の運転支援を実行する運転制御部を更に備え、
    前記表示制御部は、前記車両が走行する道路の環境と、前記運転制御部により制御される運転支援の度合に基づいて、前記仮想視点の視点位置、前記仮想視点からの画角、または前記仮想視点からの撮像方向を決定し、決定した前記視点位置、前記画角、または前記撮像方向に基づいて前記所定の表示範囲を変更する、
    請求項1から4のうち何れか1項に記載の表示システム。
  6. 前記表示制御部は、前記車両の走行状態に基づいて、前記所定の表示範囲に表示する前記車両が走行する道路の形状および前記道路を区画する区画線を変更する、
    請求項1から5のうち何れか1項に記載の表示システム。
  7. 前記表示制御部は、前記所定の表示範囲に、前記車両の後方領域と前方領域とを表示するとともに、前記車両の走行状態に基づいて、前記所定の表示範囲のうち、前方領域に関する表示範囲を変更する、
    請求項1から6のうち、何れか1項に記載の表示システム。
  8. 前記表示制御部は、
    前記車両の走行状態に基づいて、前記所定の表示範囲の上端の位置を変更する、
    請求項1から7のうち、何れか1項に記載の表示システム。
  9. コンピュータが、
    所定の仮想視点から見た車両の周辺状況を示す周辺画像を、表示面における所定の表示範囲に表示するように表示部を制御し、
    前記車両の走行状態に基づいて、前記所定の表示範囲を変更する、
    表示方法。
  10. コンピュータに、
    所定の仮想視点から見た車両の周辺状況を示す周辺画像を、表示面における所定の表示範囲に表示するように表示部を制御させ、
    前記車両の走行状態に基づいて、前記所定の表示範囲を変更させる、
    プログラム。
JP2019551831A 2017-11-10 2017-11-10 表示システム、表示方法、およびプログラム Active JP6877571B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/040567 WO2019092846A1 (ja) 2017-11-10 2017-11-10 表示システム、表示方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2019092846A1 true JPWO2019092846A1 (ja) 2020-11-19
JP6877571B2 JP6877571B2 (ja) 2021-05-26

Family

ID=66439114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019551831A Active JP6877571B2 (ja) 2017-11-10 2017-11-10 表示システム、表示方法、およびプログラム

Country Status (5)

Country Link
US (1) US11548443B2 (ja)
JP (1) JP6877571B2 (ja)
CN (1) CN111279689B (ja)
DE (1) DE112017008079T5 (ja)
WO (1) WO2019092846A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102371616B1 (ko) * 2017-11-07 2022-03-07 현대자동차주식회사 차량의 센서 데이터 연계 장치 및 방법
US11566903B2 (en) * 2018-03-02 2023-01-31 Nvidia Corporation Visualization of high definition map data
KR20210018677A (ko) * 2019-08-08 2021-02-18 현대자동차주식회사 이종 차량 간 운전성을 동기화하는 방법
USD948552S1 (en) * 2019-09-06 2022-04-12 Kubota Corporation Display screen for tractor with graphical user interface
JP2022048454A (ja) * 2020-09-15 2022-03-28 マツダ株式会社 車両用表示装置
JP7400688B2 (ja) * 2020-10-19 2023-12-19 トヨタ自動車株式会社 表示装置及び表示方法
CN115122910A (zh) * 2021-03-29 2022-09-30 本田技研工业株式会社 车辆用显示装置
KR20230023330A (ko) * 2021-08-10 2023-02-17 현대모비스 주식회사 차량의 표시 장치 및 그것의 동작 방법, 차량

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071790A (ja) * 2007-09-18 2009-04-02 Denso Corp 車両周辺監視装置
JP2012140106A (ja) * 2011-01-05 2012-07-26 Denso Corp 後方視界支援システム
JP2015023484A (ja) * 2013-07-22 2015-02-02 日産自動車株式会社 車両用表示装置
JP2015201775A (ja) * 2014-04-09 2015-11-12 日産自動車株式会社 運転支援装置
JP2017166913A (ja) * 2016-03-15 2017-09-21 株式会社デンソー 表示制御装置及び表示制御方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004288100A (ja) * 2003-03-25 2004-10-14 Minolta Co Ltd 撮像装置及び移動体カメラ
JP5696872B2 (ja) * 2010-03-26 2015-04-08 アイシン精機株式会社 車両周辺監視装置
CN103987582B (zh) 2011-12-15 2017-02-22 松下知识产权经营株式会社 驾驶辅助装置
US9013286B2 (en) * 2013-09-23 2015-04-21 Volkswagen Ag Driver assistance system for displaying surroundings of a vehicle
JP2016199204A (ja) 2015-04-14 2016-12-01 トヨタ自動車株式会社 車両制御装置
US20160375831A1 (en) * 2015-06-23 2016-12-29 GM Global Technology Operations LLC Hitching assist with pan/zoom and virtual top-view
JP6555056B2 (ja) * 2015-09-30 2019-08-07 アイシン精機株式会社 周辺監視装置
JP6586849B2 (ja) 2015-10-01 2019-10-09 日産自動車株式会社 情報表示装置及び情報表示方法
WO2017110144A1 (ja) * 2015-12-22 2017-06-29 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP6401733B2 (ja) 2016-04-15 2018-10-10 本田技研工業株式会社 画像表示装置
CN105946720A (zh) 2016-07-12 2016-09-21 辽宁工程技术大学 汽车前置影像系统
JP6912952B2 (ja) * 2017-06-26 2021-08-04 本田技研工業株式会社 車両操作装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071790A (ja) * 2007-09-18 2009-04-02 Denso Corp 車両周辺監視装置
JP2012140106A (ja) * 2011-01-05 2012-07-26 Denso Corp 後方視界支援システム
JP2015023484A (ja) * 2013-07-22 2015-02-02 日産自動車株式会社 車両用表示装置
JP2015201775A (ja) * 2014-04-09 2015-11-12 日産自動車株式会社 運転支援装置
JP2017166913A (ja) * 2016-03-15 2017-09-21 株式会社デンソー 表示制御装置及び表示制御方法

Also Published As

Publication number Publication date
US20200262349A1 (en) 2020-08-20
US11548443B2 (en) 2023-01-10
CN111279689B (zh) 2021-06-04
CN111279689A (zh) 2020-06-12
WO2019092846A1 (ja) 2019-05-16
JP6877571B2 (ja) 2021-05-26
DE112017008079T5 (de) 2020-06-25

Similar Documents

Publication Publication Date Title
JP6877571B2 (ja) 表示システム、表示方法、およびプログラム
JP7048398B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7086798B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US10005391B2 (en) Information presentation system
JP6630976B2 (ja) 表示システム、表示方法、およびプログラム
JP6990248B2 (ja) 表示制御装置、表示制御方法およびプログラム
US20190071075A1 (en) Vehicle control system, vehicle control method, and vehicle control program
US11016497B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6976280B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP6827378B2 (ja) 車両制御システム、車両制御方法、およびプログラム
US11200806B2 (en) Display device, display control method, and storage medium
WO2018123346A1 (ja) 車両制御装置、車両制御方法、及びプログラム
JP2017199317A (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP2020163903A (ja) 表示制御装置、表示制御方法、及びプログラム
JP6840035B2 (ja) 車両制御システム
US11274934B2 (en) Information output device, output control method, and storage medium
JP2020051902A (ja) 表示システム、表示方法、およびプログラム
US20200168180A1 (en) Display system, display control method, and storage medium
JP7018854B2 (ja) 通知システム、通知制御方法、およびプログラム
JP2021160399A (ja) 車両制御装置、車両制御方法、およびプログラム
JPWO2018116396A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP2022152607A (ja) 運転支援装置、運転支援方法、及びプログラム
JP2018072773A (ja) 車両用表示システム、車両用表示方法、および車両用表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210427

R150 Certificate of patent or registration of utility model

Ref document number: 6877571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150