JP7354649B2 - 周辺監視装置 - Google Patents

周辺監視装置 Download PDF

Info

Publication number
JP7354649B2
JP7354649B2 JP2019138054A JP2019138054A JP7354649B2 JP 7354649 B2 JP7354649 B2 JP 7354649B2 JP 2019138054 A JP2019138054 A JP 2019138054A JP 2019138054 A JP2019138054 A JP 2019138054A JP 7354649 B2 JP7354649 B2 JP 7354649B2
Authority
JP
Japan
Prior art keywords
vehicle
image
display
displayed
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019138054A
Other languages
English (en)
Other versions
JP2021022825A (ja
Inventor
一矢 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2019138054A priority Critical patent/JP7354649B2/ja
Priority to US16/936,627 priority patent/US11787335B2/en
Priority to CN202010723432.0A priority patent/CN112298038A/zh
Publication of JP2021022825A publication Critical patent/JP2021022825A/ja
Application granted granted Critical
Publication of JP7354649B2 publication Critical patent/JP7354649B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明の実施形態は、周辺監視装置に関する。
撮像部によって車両の周辺を撮像して得られる撮像画像に基づく周辺画像に、車両の車両画像を合成した合成画像を生成し、生成した合成画像を含む表示画面を表示部に表示させることによって、車両の周辺の状況を利用者(運転者等)に提供する技術が開発されている。このような技術において、例えば、車両の周囲に存在する物体(歩行者、他車両、障害物等)を検出した際にその物体を囲むような枠を表示し、物体の存在を利用者に報知する技術が提案されている。
特開2017-161060号公報
しかしながら、上述したように物体を枠で囲んで表示する技術において、物体の状況(位置等)が変化しない場合、例えば、移動しない場合、枠は同じ表示が続けられることになり、利用者に認識され難いという問題があった。
そこで、実施形態の課題の一つは、車両の周囲で注目すべき領域(物体が存在する位置や目標とする位置等)を、その領域の移動の有無に拘わらず、より認識し易い表示を可能とし、車両周辺の状況を認識させやすくする周辺監視装置を提供することである。
本実施形態の周辺監視装置は、例えば、車両の周辺を撮像する撮像部からの撮像画像と、上記車両の周囲で設定される注目領域に関する位置情報と、を取得する取得部と、上記撮像画像に基づく俯瞰視した周辺画像に、上記車両の位置を示す自車画像と、上記位置情報に基づく上記注目領域の位置を示唆する指標とを重畳表示させ、上記指標の表示態様が時間経過に伴い変化するように表示させる制御部と、を備え、上記制御部は、上記指標の輪郭線の表示態様が時間経過に伴い変化するように表示するとともに、上記指標として上記注目領域の移動する方向を示すように上記輪郭線が時間経過に伴い所定の表示領域内で移動する方向指標を表示し、当該方向指標は、上記注目領域に移動体が存在しない場合、移動体が存在する場合に比べて表示透過度を高めた半透明の状態で表示される。この構成によれば、例えば、指標が、注目領域の移動の有無に拘わらず、時間経過に伴い表示態様を変化させるので、利用者に注目領域の存在や位置をより認識させやすい表示ができる。また、指標の表示態様が時間経過に伴い変化していることがより明確に表示され、注目領域の存在や位置をより認識し易く表示することができるとともに、注目領域の存在や注目領域が移動していること、その移動方向等を方向指標によりイメージさせ易い表示を行うことができる。また、移動体が検出されない場合でも移動体の検出が可能であることを示唆可能となり、利用者に安心感を与えることに寄与できる。
本実施形態の周辺監視装置の上記制御部は、例えば、上記注目領域に表示態様が時間経過に伴い変化する仮想立体物を表示してもよい。この構成によれば、例えば、立体化され仮想立体物で表示されるので、利用者に注目領域の存在や位置をさらに認識させやすい表示ができる。
本実施形態の周辺監視装置の上記制御部は、例えば、上記車両が移動すべき目標位置を示唆する目標指標を表示するとともに、上記目標位置と上記自車画像の表示位置との間隔が所定値以下になった場合、上記仮想立体物を上記目標位置に表示するようにしてもよい。この構成によれば、車両を所望の位置に移動させる場合、例えは、駐車のために、駐車目標位置に移動させる場合や駐車のための切り返しを行う場合等に、まず、車両を移動させて停止させるべき、概ねの位置を示唆する目標指標が表示される。そして、目標位置に接近した場合に、仮想立体物が目標位置に表示される。その結果、車両が目標位置から遠い場合には、位置合わせ精度にとらわれずにスムーズかつ容易に車両の移動を行わせることができる。また、車両が目標位置に接近した場合には、目標位置を明確に示す仮想立体物を表示するので、目標位置への位置合わせをより正確に行わせることができる。また、目標位置に接近した時点で仮想立体物が表示されることで、目標位置に接近していることを利用者により認識させやすい表示ができる。
本実施形態の周辺監視装置の上記制御部は、例えば、上記目標位置に上記自車画像が到達した場合、上記仮想立体物を非表示とするようにしてもよい。この構成によれば、例えば、目標位置に車両が到達したことを、利用者に直感的に認識させやすい表示ができる。
本実施形態の周辺監視装置の上記制御部は、例えば、上記仮想立体物の表示態様を時間経過に伴い上下に変化させるようにしてもよい。この構成によれば、例えば、仮想立体物と現実の立体物との区別が容易な表示を行うことができる。
本実施形態の周辺監視装置の上記制御部は、例えば、上記注目領域に立体物が存在すると見なせる場合、上記立体物の最下部と見なせる部分に表示態様が時間経過に伴い変化する足元指標を表示するようにしてもよい。この構成によれば、例えば、立体物の最下部(足下、基部)を認識させやすく、また、その最下部の位置(例えば、路面に接触している位置)と車両(自車画像)との間隔(距離)をイメージさせやすく、注目領域(立体物)と車両との相対位置関係をより認識させやすい表示ができる。
本実施形態の周辺監視装置の上記制御部は、例えば、上記足元指標の上記輪郭線の大きさを時間経過に伴い拡縮するようにしてもよい。この構成によれば、例えば、立体物の最下部(足下、基部)をより認識させやすい表示ができる。
図1は、実施形態にかかる周辺監視装置を搭載する車両の車室の一部が透視された状態を示す例示的かつ模式的な斜視図である。 図2は、実施形態にかかる周辺監視装置を搭載する車両の例示的かつ模式的な平面図である。 図3は、実施形態にかかる周辺監視装置を含む車両の制御システムの機能構成を示す例示的かつ模式的なブロック図である。 図4は、実施形態にかかる周辺監視装置をCPUで実現する場合の構成を例示的かつ模式的に示すブロック図である。 図5は、第1実施形態にかかる周辺監視装置による表示画面を示す例示的かつ模式的な図である。 図6は、第1実施形態にかかる周辺監視装置により表示される指標の表示態様として輪郭線の位置が時間経過とともに移動(変化)することを示す例示的かつ模式的な図である。 図7は、第1実施形態にかかる周辺監視装置により表示される指標の表示態様として輪郭線の位置が時間経過とともに移動(変化)することを示す、他の例示的かつ模式的な図である。 図8は、第1実施形態にかかる周辺監視装置により表示される指標の表示態様として輪郭線の位置が時間経過とともに移動(変化)することを示す、他の例示的かつ模式的な図である。 図9は、第1実施形態にかかる周辺監視装置により表示される指標の表示態様として輪郭線の位置が時間経過とともに移動(変化)することを示す、他の例示的かつ模式的な図である。 図10は、第1実施形態にかかる周辺監視装置により表示される他の指標の表示態様として輪郭線の半径が時間経過とともに変化することを示す例示的かつ模式的な図である。 図11は、第2実施形態にかかる周辺監視装置による表示画面を示す例示的かつ模式的な図である。 図12は、第2実施形態にかかる周辺監視装置により表示される指標の表示態様として輪郭線の位置が時間経過とともに移動(変化)することを示す例示的かつ模式的な図である。 図13は、第3実施形態にかかる周辺監視装置による表示画面の一例であり、駐車のために切り返し位置まで前進走行する場合に表示される表示画面の例示的かつ模式的な図である。 図14は、第3実施形態にかかる周辺監視装置による表示画面の一例であり、図13に続き、駐車位置まで後退走行する場合に表示される表示画面の例示的かつ模式的な図である。 図15は、第3実施形態にかかる周辺監視装置による表示画面の一例であり、図14に続く表示画面の例示的かつ模式的な図である。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によって実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも1つを得ることが可能である。
(全体システムの説明)
図1は、実施形態にかかる周辺監視装置を搭載する車両1の車室2aの一部が透視された状態の例示的かつ模式的な斜視図である。車両1は、内燃機関(エンジン)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置、内燃機関や電動機の駆動に必要な種々の装置(システム、部品等)を搭載可能である。また、車両1における車輪3の駆動に関わる装置の方式、個数、レイアウト等は、種々に設定可能である。
図1に例示されるように、車両1の車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールである。加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルである。制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルである。変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。
また、車室2a内には、表示装置8や、音声出力部としての音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員(利用者)は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等により操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボードの車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。
図2は、本実施形態にかかる周辺監視装置を搭載する車両1の例示的かつ模式的な平面図である。図1および図2に示すように、車両1は、四輪自動車等であり、左右2つの前輪3Fと、左右2つの後輪3Rと、を有する。4つの車輪3の全てまたは一部が、転舵可能である。
車体2には、複数の撮像部15として、例えば四つの撮像部15a~15dが設けられている。撮像部15は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データを出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°~220°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている。よって、撮像部15は、車両1が移動可能な路面や車両1が駐車可能な領域を含む車体2の周辺の外部の環境を逐次撮影し、撮像画像データとして出力することができる。
撮像部15aは、例えば、車体2の後側の端部2eに位置され、リアハッチのドア2hのリアウインドウの下方の壁部に設けられて、車両1の後方領域の状況を撮像する。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられて、車両1の右前方、右側方、右後方を含む領域の状況を撮像する。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパ等に設けられて、車両1の前方領域の状況を撮像する。撮像部15dは、例えば、車体2の左側、すなわち車幅方向の左側の端部2dに位置され、左側の突出部としてのドアミラー2gに設けられて、車両1の左前方、左側方、左後方を含む領域の状況を撮像する。周辺監視装置を構成するECU14(図3参照)は、複数の撮像部15で得られた撮像画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1を上方から見た仮想的な俯瞰画像を生成したりすることができる。
また、車両1は、車両1の外部に存在する物体との距離を計測可能な測距部として、複数のレーダー16を有する。レーダー16は、例えば、ミリ波レーダー等であり、車両1の進行方向に存在する物体との距離を計測可能である。本実施形態では、車両1は、複数のレーダー16a~16dを有する。レーダー16aは、例えば、車両1のリアバンパの左側の端部に設けられ、車両1の左後方に存在する物体との距離を計測可能である。また、レーダー16bは、車両1のリアバンパの右側の端部に設けられ、車両1の右後方に存在する物体との距離を計測可能である。レーダー16cは、車両1のフロントバンパの右側の端部に設けられ、車両1の右前方に存在する物体との距離を計測可能である。また、レーダー16dは、車両1のフロントバンパの左側の端部に設けられ、車両1の左前方に存在する物体との距離を計測可能である。
また、車両1は、車両1から比較的近距離に存在する外部の物体との距離を超音波を用いて計測可能なソナー17を有する。本実施形態では、車両1は、複数のソナー17a~17hを有する。ソナー17a~17dは、車両1のリアバンパに設けられ、車両の後方に存在する物体との距離を計測可能である。ソナー17e~17hは、車両1のフロントバンパに設けられ、車両1の前方に存在する物体との距離を計測可能である。
図3は、本実施形態にかかる周辺監視装置を含む車両1の制御システム100の機能構成を示す例示的かつ模式的なブロック図である。図3に例示されるように、制御システム100は、ECU14や、モニタ装置11、操舵システム13、レーダー16、ソナー17等の他、ブレーキシステム18、駆動システム26、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、GPS受信機25等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18、駆動システム26等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、レーダー16、ソナー17、アクセルセンサ20、シフトセンサ21、車輪速センサ22、GPS受信機25等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。
操舵システム13は、電動パワーステアリングシステムやSBW(Steer By Wire)システム等である。操舵システム13は、アクチュエータ13aおよびトルクセンサ13bを有する。そして、操舵システム13は、ECU14等によって電気的に制御され、アクチュエータ13aを動作させて、操舵部4に対して、トルクを付加して操舵力を補うことによって、車輪3を転舵する。トルクセンサ13bは、運転者が操舵部4に与えるトルクを検出し、その検出結果をECU14に送信する。
ブレーキシステム18は、車両1のブレーキのロックを制御するABS(Anti-lock Brake System)、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:Electronic Stability Control)、ブレーキ力を増強させてブレーキをアシストする電動ブレーキシステム、およびBBW(Brake By Wire)を含む。ブレーキシステム18は、アクチュエータ18aおよびブレーキセンサ18bを有する。ブレーキシステム18は、ECU14等によって電気的に制御され、アクチュエータ18aを介して、車輪3に制動力を付与する。ブレーキシステム18は、左右の車輪3の回転差等から、ブレーキのロック、車輪3の空回り、および横滑りの兆候等を検出して、ブレーキのロック、車輪3の空回り、および横滑りを抑制する制御を実行する。ブレーキセンサ18bは、制動操作部6の可動部としてのブレーキペダルの位置を検出する変位センサであり、ブレーキペダルの位置の検出結果をECU14に送信する。
舵角センサ19は、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、ホール素子等で構成され、操舵部4の回転部分の回転角度を操舵量として検出し、その検出結果をECU14に送信する。アクセルセンサ20は、加速操作部5の可動部としてのアクセルペダルの位置を検出する変位センサであり、その検出結果をECU14に送信する。
シフトセンサ21は、変速操作部7の可動部(バー、アーム、ボタン等)の位置を検出するセンサであり、その検出結果をECU14に送信する。車輪速センサ22は、ホール素子等を有し、車輪3の回転量や単位時間当たりの車輪3の回転数を検出するセンサであり、その検出結果をECU14に送信する。GPS受信機25は、人工衛星から受信した電波に基づいて、車両1の現在位置を取得する。
駆動システム26は、駆動源としての内燃機関(エンジン)システムやモータシステムである。駆動システム26は、アクセルセンサ20により検出された運転者の要求操作量(例えばアクセルペダルの踏み込み量)にしたがいエンジンの燃料噴射量や吸気量の制御やモータの出力値を制御する。また、運転者の操作に拘わらず、車両1の走行状態に応じて、操舵システム13やブレーキシステム18の制御と協働してエンジンやモータの出力値を制御しうる。
なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
ECU14は、コンピュータ等で構成され、ハードウェアとソフトウェアが協働することにより、車両1の制御全般を司る。具体的には、ECU14は、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。
CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。CPU14aは、例えば、表示装置8で表示される画像に関連した画像処理の演算処理および制御を実行することができる。また、CPU14aは、撮像部15で得られた広角画像の撮像画像データ(湾曲した画像のデータ)に演算処理や画像処理を施し歪みを補正する歪み補正処理を実行したり、撮像部15が撮像した撮像画像データに基づき、車両1を示す自車画像(自車アイコン)を例えば中心位置に表示する俯瞰画像(周辺画像)を生成して、表示装置8に表示させたりすることができる。また、CPU14aは、俯瞰画像を生成する際に、仮想視点の位置を変更し、真上から自車画像を臨むような俯瞰画像や斜め方向から自車画像を臨むような俯瞰画像を生成することができる。
また、CPU14aは、表示装置8に表示する表示画像に各種指標を重畳表示して、車両1の周囲の状況、例えば、周囲に存在する注目領域(例えば、移動体や静止物の存在する位置等)を認識し易くする処理を実行することができる。CPU14aが重畳表示する指標は、レーダー16やソナー17で検出した物体(歩行者等の移動体や他車両、壁、柱等の静止物等)やECU14が自動的に設定したり、運転者が設定したりする目標位置等の運転者が注目すべき注目領域を認識し易くするためのものである。CPU14aは、指標を表示する場合に、指標の表示態様が時間経過とともに変化するような、例えばアニメーション表示を実行することで、指標の存在、すなわち、注目領域の存在や移動状況等を運転者により認識させやすく表示する処理を実行することができる。
また、CPU14aは、撮像部15の撮像した撮像画像データに基づき、区画(例えば、駐車区画線等)を検出(抽出)して、車両1が移動可能な目標領域(例えば、駐車完了位置等の目標位置)を設定したり、その目標位置に車両1を誘導するための誘導経路を取得したりすることができる。また、CPU14aは、取得した誘導経路にしたがい、車両1を完全自動(操舵、走行、制動等の自動制御)、半自動(一部の自動制御)、手動(例えば音声による操作ガイドにより運転者に操作させる制御)により目標領域に誘導する誘導制御を実行することができる。
ROM14bは、各種プログラムおよび当該プログラムの実行に必要なパラメータ等を記憶する。RAM14cは、CPU14aでの演算で用いられる各種データを一時的に記憶する。表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15から取得してCPU14aへ出力する画像データに対する画像処理、CPU14aから取得した画像データを表示装置8に表示させる表示用の画像データへの変換等を実行する。音声制御部14eは、ECU14での演算処理のうち、主として、CPU14aから取得して音声出力装置9に出力させる音声の処理を実行する。SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもCPU14aから取得したデータを記憶し続ける。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。
図4は、実施形態にかかる周辺監視装置をCPU14aで実現する場合の構成を例示的かつ模式的に示すブロック図である。CPU14aは、ROM14bから読み出した周辺監視プログラムを実行することにより、図4に示すように周辺監視部28(周辺監視装置)や、走行支援部30等を実現する。なお、図4では、図示を省略しているが、CPU14aは、周辺監視部28や走行支援部30の他にも走行に必要な各種モジュールを実現することができる。
周辺監視部28は、その機能を実現するための各種モジュールを含む。周辺監視部28は、例えば、取得部32、俯瞰画像生成部34、指標取得部36、制御部38等の詳細モジュールを含む。なお、取得部32、俯瞰画像生成部34、指標取得部36、制御部38等の一部または全部を回路等のハードウェアによって構成してもよい。また、走行支援部30は、経路取得部30a、誘導制御部30b等の詳細モジュールを含む。経路取得部30aや誘導制御部30bも一部または全部を回路等のハードウェアによって構成してもよい。
取得部32は、表示制御部14dを介して取得される撮像部15が撮像した車両1の周辺情報を示す撮像画像と取得する。また、取得部32は、レーダー16、ソナー17の検知結果に基づき、車両1の周囲において運転者(利用者)に注目させるべき注目領域に関する位置情報を取得する。例えば、車両1の周囲に存在する可能性のある物体(例えば、歩行者等の移動体や他車両、壁や柱等の静止物等)の有無やその物体までの距離等の位置情報を取得する。
俯瞰画像生成部34は、撮像部15が撮像した各撮像画像(後方画像、右側方画像、前方画像、左側方画像)に対して視点変換処理を実行するとともに、隣接する領域を繋ぎ合わせる合成処理を実行し俯瞰画像を生成する。なお、合成処理を行う場合、各撮像部15(15a~15d)の取付位置や撮像(撮影)方向、撮影時間帯、前照灯の点灯の有無、撮像部15ごとの絞り調整の程度差等により各撮像部15で撮像される撮像画像の明るさ(輝度)にずれが生じる場合がある。この場合、繋ぎ合わせて生成した俯瞰画像は、元画像に応じて明るさが異なる場合がある。その結果、繋ぎ合わせた位置で輝度差が目立ち、違和感のある画像になってしまう場合がある。そこで、俯瞰画像生成部42は、俯瞰画像を生成する際に、各画像の輝度調整を行うようにしてもよい。
指標取得部36は、俯瞰画像生成部34が生成した俯瞰画像に重畳表示する指標を、俯瞰画像における注目領域(例えば、歩行者等の移動体や他車両、壁や柱等の静止物等)の存在する位置や、注目領域の移動の有無、移動の状態(方向や接離)等に基づき決定する。指標取得部36は、決定した指標をROM14bやSSD14f等の記憶部から読み出し取得する。指標取得部36は、取得部32が取得した撮像画像や注目領域に関する位置情報に対してディープラーニング等の手法を適用することにより、車両1の周囲に存在する物体の種別を特定することができる。例えば、人間、自動車、自転車、壁、柱、街路樹等の識別を行うことができるので、指標取得部36は、識別した物体に対応した指標を取得することができる。例えば、人間(歩行者等)を検知した場合、人間の接近を示唆するような指標を取得する。また、人間、自動車、自転車等の移動体であることを検知した場合、移動体であることを示唆するような指標を取得する。また、駐車車両や壁、柱、街路樹等の静止物であることを示唆するような指標を取得する。なお、指標取得部36は、俯瞰画像上で車両1の位置や姿勢を示す自車画像(自車アイコン)をROM14bやSSD14f等の記憶部から読み出し取得する。自車画像は、車両1を例えば上方から見た俯瞰画像である。自車画像を表示することにより、車両1とその周辺の物体との位置関係を正確に把握させることができる。自車画像は、ビットマップ形式の画像であってもよいし、複数のポリゴンで構成される車両1の形状を示す画像であってもよい。ここで、複数のポリゴンで構成される自車画像とは、複数のポリゴン(例えば、三角形のポリゴン)により表現された立体的な車両1の形状とすることができる。なお、指標は、俯瞰画像に限らず、撮像部15が撮像した実画画像に重畳表示してもよい。
制御部38は、俯瞰画像生成部34が生成した俯瞰画像や撮像部15が撮像した実画像に、車両1の位置を示す自車画像と、指標取得部36が取得した注目領域の位置を示唆する指標と、を重畳表示させる。そして、制御部38は、指標を表示する場合、指標の表示態様が時間経過に伴い変化するように表示させる。
例えば、取得部32が取得した撮像画像や注目領域に関する位置情報等に基づいて、車両1に接近してくる移動体が検知された場合、制御部38は、移動体が存在することを示唆する指標の表示を行う。この場合、制御部38は、指標として、例えば、矢印形状の指標を俯瞰画像や実画像に重畳表示するとともに、その指標(矢印)の輪郭線の位置が移動体の移動方向(接近方向)を示唆するように、時間経過に伴い所定の表示領域内(例えば、自車画像の前方1mの位置に相当する領域)で移動(変化)するように表示する。この場合、例えば、アニメーション表示の技法を用いて、指標を時間経過とともにスクロール表示するようにしてもよい。このようなアニメーション表示を行うことで、注目領域である移動体(立体物)の存在、移動体が移動していること、移動体の移動方向等をよりイメージさせやすい表示を行うことができる。
また、制御部38は、取得部32が取得した撮像画像に対して、ディープラーニング等の手法を適用することにより、移動体(歩行者等の立体物)の最下部(足下、基部等)の位置を推定することができる。その場合、制御部38は、移動体の最下部と見なせる位置に、例えば略円形や略半円形の指標を重畳表示する。移動体の最下部は、路面に接触していると見なせるため、最下部に指標を表示することにより、移動体(例えば歩行者)の表示画像上での位置(立ち位置)や自車画像等との間隔(距離)をイメージさせやすくすることができる。その結果、注目領域(立体物)と自車画像(車両1)との相対位置関係を運転者がより認識させ易い状態で表示することができる。また、制御部38は、最下部を示唆する略円形や略半円形の指標の輪郭線の表示態様が時間経過に伴い変化するように表示することができる。例えば、指標の輪郭線の大きさを時間経過に伴い拡縮するようにしてもよい。また、指標の表示色を変化させたり、指標を点滅させたりしてもよい。この場合、移動体(立体物)の最下部(足下、基部)をより認識させやすい表示ができる。
また、取得部32が取得した撮像画像や注目領域に関する位置情報等に基づいて、車両1の周辺に、駐車車両や壁、柱、街路樹等の静止物が検知された場合、制御部38は、注目領域に静止物が存在することを示唆する指標を表示する。より具体的には、静止物が存在する位置または、その位置より所定量手前の位置に指標としての仮想立体物を表示する。この場合、制御部38は、仮想立体物(指標)として、運転者が注目し易い、例えば、「三角コーン」等を表示する。仮想立体物として三角コーンを表示する場合、三角コーンの位置が時間経過に伴い例えば上下に移動するように表示することができる。この場合も、例えば、アニメーション表示の技法を用いて、仮想立体物を時間経過とともにスクロール表示するようにしてもよい。このように、指標を立体化した仮想立体物で表示することで、運転者に注目領域の存在や位置をさらに認識させやすい表示ができる。また、注目領域における静止物の存在を示唆する仮想立体物(指標)としての三角コーンの位置が時間経過に伴い移動するように表示されることで、非現実の物体であることを認識させやすく、仮想的な物体と現実の物体との区別(識別)をさせ易い表示ができる。なお、仮想立体物の表示態様を時間経過とともに変化させる場合、輪郭線の移動に加え、または代えて、例えば、表示色の変更や点滅表示等によって行うようにしてもよい。
制御部38は、また、車両1が走行する場合に障害物の有無に拘わらず、注目させるべき領域が存在する場合、例えば、車両1を停止させる必要がある場合に、その停止位置を注目領域として、指標を表示するようにしてもよい。例えば、車両1を所定の位置に駐車させる場合、その駐車目標位置を注目領域として、例えば、仮想立体物(指標)を表示する。また、駐車の場合、現在の車両1の位置と駐車目標位置との関係によっては、切り返し走行を行う必要があり、駐車目標位置とは異なる位置に移動し一旦停止する必要がある場合がある。その場合も一旦停止が必要な位置を注目領域として、仮想立体物(指標)を表示するようにしてもよい。
例えば、CPU14aにおいて実現される走行支援部30は、前述したように経路取得部30aと誘導制御部30bを含む。経路取得部30aは、取得部32が取得した撮像画像に基づき、車両1の周囲の状況に応じた駐車領域の候補を算出し、自動的に最適な駐車領域を決定したり、運転者に選択させたりすることができる。また、外部の管理システムから指定される駐車領域を取得したり、運転者が指定する駐車領域を取得したりすることができる。そして、経路取得部30aは、車両1の現在の位置から駐車領域に車両1を移動させるための推奨移動経路を取得するこができる。推奨移動経路は、経路取得部30aにおいて、車両1の現在の位置と駐車領域の位置とに基づいて算出してもよいし、車両1の現在の位置と駐車領域の位置を外部のシステムに送信し、算出された結果を取得してもよい。この場合、車両1の現在の位置は、GPS受信機25を介して取得してもよいし、基準位置、例えば駐車場のゲート位置からの走行距離、舵角の推移等に基づいて取得してもよい。
誘導制御部30bは、経路取得部30aが取得した推奨移動経路に基づき、車両1を駐車領域(駐車完了位置)まで誘導する。例えば、車両1を完全自動で駐車完了位置まで誘導する場合、誘導制御部30bは、操舵システム13、ブレーキシステム18、駆動システム26等を連携して制御する。また、半自動で車両1を駐車完了位置まで誘導する場合、誘導制御部30bは、操舵システム13、ブレーキシステム18、ブレーキシステム18等の制御のうち少なくとも一つを自動で制御し、他の制御を運転者の操作に委ねる。例えば、音声等により操作ガイドを行う。また、手動で車両1を駐車完了位置まで誘導する場合、誘導制御部30bは、例えば音声による操作ガイドを行い、運転者の操作支援を行う。
この場合、制御部38は、車両1(自車画像)が停止すべき位置、すなわち、注目領域に指標を表示し、運転者の認識性を向上させる。例えば、完全自動や半自動で走行する場合には、車両1が停止することを運転者が認識し易いように指標の表示を行う。同様に、半自動や手動で走行する場合には、車両1を停止させるべき位置を運転者が認識し易いように指標の表示を行う。なお、この場合、制御部38は、推奨移動経路が切り返し走行を含む場合、駐車完了位置で停止する他、切り返し走行時に停止する位置も注目領域、すなわち、目標位置と見なし、指標の表示を行うようにしてもよい。
さらに、制御部38は、車両1の位置と目標位置との間隔が所定値(所定距離)を超えている場合、車両1が移動すべき概ねの目標位置を示唆する目標指標(例えば、マーカ等)を表示し、その後、車両1(自車画像)の位置と目標位置との間隔が所定値以下になった場合に、停止する目標位置をより正確に示す仮想立体物(指標)を目標位置に表示する。その結果、例えば、目標位置から遠い場合には、位置合わせ精度にとらわれずにスムーズかつ容易に車両1の移動を行わせることができる。また、目標位置に接近した場合には、目標位置を明確に示す仮想立体物(指標)を表示するので、目標位置への位置合わせをより正確に行わせることができる。また、目標位置に接近した時点で仮想立体物(指標)が表示されることで、目標位置に接近していることを利用者により認識させやすい表示ができる。
なお、制御部38は、目標位置に車両1(自車画像)が到達した場合、仮想立体物を非表示とするようにしてもよい。この場合、目標位置に車両1が到達したことを、運転者に直感的に認識させやすい表示ができる。
上述した周辺監視部28による表示画像の具体的な表示例を以下に示す。
(第1実施形態)
図5は、第1実施形態にかかる周辺監視部28による表示画面を示す例示的かつ模式的な図である。図5は、シフトセンサ21の検出結果に基づき車両1が前進走行可能状態(シフトがDレンジ)で、車輪速センサ22の検出結果に基づき車両1が所定速度以下(例えば、12km/h以下)の場合、または、駐車状態(シフトがPレンジ)の場合に表示装置8に表示される表示画像の例示的かつ模式的な図である。具体的には、運転者が注目すべき注目領域の一例として、車両1に接近してくる移動体(例えば歩行者D1)が、取得部32の取得した撮像画像や位置情報に基づき検知された場合の指標の表示例である。
図5に示すように、表示装置8に示される表示画像Gは、俯瞰画像生成部34が生成した車両1を直上から俯瞰した俯瞰画像が表示される第1画像G1と、例えば、撮像部15aが撮像した車両1の前方の状況を示す実画像が表示された第2画像G2とを含む。なお、図5では、第1画像G1と第2画像G2との2画面を並べて表示しているが、いずれか一方で表示画像Gを構成してもよいし、表示画像Gが3以上の画面を含んでもよい。また、図5の場合、第1画像G1より第2画像G2を大きく表示しているが、第2画像G2より第1画像G1を大きく表示してもよく、表示画像Gのレイアウトは適宜変更可能である。
第1画像G1には、周辺画像G3と自車画像G4が含まれる。周辺画像G3は、俯瞰画像生成部34により生成された、撮像部15a~15dの撮像した撮像画像に基づく俯瞰視された画像であり、自車画像G4は、指標取得部36がROM14bやSSD14fから取得した車両1を俯瞰視した画像である。また、周辺画像G3には、自車画像G4の前方の所定位置、例えば、1m前方に相当する位置に移動体(例えば歩行者D1)の接近および接近方向を示唆する指標としての方向指標G5が制御部38によって重畳表示されている。さらに、周辺画像G3の表示領域内に移動する立体物(例えば歩行者D1)が存在すると見なせる場合、立体物の最下部(足下)と見なせる部分に指標としての足下指標G6が制御部38によって重畳表示されている。
第2画像G2は、上述したように、撮像部15aが撮像した車両1の前方の状況を示す実画像が周辺画像G7として表示されている。周辺画像G7にも、第1画像G1と同様に方向指標G5が重畳表示されている。周辺画像G7は、魚眼レンズを介して撮像部15aで撮像された実画像なので、湾曲した画像となるため、方向指標G5の表示姿勢も同様に湾曲した結果となっているが、第1画像G1に示すように、自車画像G4の前方の所定位置の例えば、1m前方に相当する位置に車幅方向に所定の間隔で配置される。つまり、第1画像G1の方向指標G5と周辺画像G7の方向指標G5は対応する位置に表示されている。
方向指標G5は、車輪速センサ22によって検出される車両1の車速が低速(例えば、12km/h以下)の場合で、レーダー16およびソナー17が動作中の場合に周辺画像G3および周辺画像G7の所定位置に表示される。上述したように、シフトセンサ21の検出結果が例えば、「Dレンジ」(前進)または「Pレンジ」(駐車)の場合は、車両1の前方の例えば1mに相当する前方位置に表示される。また、シフトセンサ21の検出結果が例えば、「Rレンジ」(後退)の場合は、車両1の後方の例えば1mに相当する後方位置に表示される。図5の場合、方向指標G5は、移動体の接近を示唆できるように、自車画像G4(車両1)に向かうような矢印形状で構成されている。したがって、自車画像G4(車両1)の右側の方向指標G5は、自車画像G4(車両1)に対して右からの接近を示唆するように左向きの矢印となっている。同様に、自車画像G4(車両1)の左側の方向指標G5は、自車画像G4(車両1)に対して左からの接近を示唆するように右向きの矢印となっている。制御部38は、レーダー16やソナー17により接近する移動体が検知されない場合、方向指標G5を例えば、透過度が高い状態(半透明の状態)で停止の表示態様で表示し、移動体の検出が可能であることを示唆するようにしている。
一方、図5に示すように、例えば、自車画像G4(車両1)の右側から移動体(歩行者D1)が接近してきた場合、制御部38は、右側の方向指標G5の透過度を低くするとともに、例えば黄色等の表示態様に変化させた上で、時間経過とともに、方向指標G5全体が所定の表示領域(範囲)内で移動するような、例えばアニメーション表示を実行する。図6は、方向指標G5のアニメーション表示の一例を説明する例示的かつ模式的な図である。図6において、表示態様(a)、表示態様(b)、表示態様(c)の順番で方向指標G5を構成する例えば矢印形状の個別指標40(輪郭線)が、移動体の接近方向A1に移動する。表示態様(a)は、移動体(例えば歩行者D1)を非検知のときの表示態様で、透過度が高い状態で停止して表示されている。図6の場合、3つの個別指標40は、等間隔で、移動体(例えば歩行者D1)の移動方向(接近方向A1:上流(右)から下流(左)に向かう方向)を示すように、矢頭を移動方向(例えば車幅方向左側)に向けて、方向指標G5の表示領域GAに表示されている例である。
次に、レーダー16やソナー17によって移動体(例えば歩行者D1)が検知されると、制御部38は、各個別指標40の透過度を下げるとともに、例えば黄色等の強調色に表示態様を変化させる。そして、制御部38は、表示態様(a)に示すように、時刻t1で最後尾に表示されていた個別指標40を、表示態様(b)に示すように、時刻t2で、接近方向A1に移動させて表示させる。続いて、表示態様(c)に示すように、時刻t3で、さらに、接近方向A1に移動させて表示させる。等間隔で配置されている他の個別指標40も同様に、接近方向A1に輪郭線を移動させる。つまり、表示態様(b)では、表示態様(a)において上流側(最後尾)の個別指標40が存在していた位置に向かって新たな個別指標40が徐々に表示され始める。一方、下流側(先頭)に表示されていた個別指標40は、上流側で表示されだした個別指標40に対応する部分が表示領域GAから押し出されるかたちで消える。表示態様(c)は、さらにその状態が進み、上流側で新たな個別指標40の大部分現れ、逆に下流側の個別指標40の大部分が消えた状態になる。したがって、表示領域GAには、2つに分割された個別指標40が存在する場合があるものの、常に3個の個別指標40が表示されることになる。そして、制御部38は、表示態様(a),(b),(c)の順で連続的な表示を行うことにより、常に3つの個別指標40(方向指標G5)がスクロールするようなアニメーション表示を実行することができる。なお、制御部38は、方向指標G5のアニメーション表示を、レーダー16やソナー17を中心とする所定範囲に移動体が検知された場合に実行する。この場合、移動体が停止している場合でもその移動体が所定範囲に存在する場合、アニメーション表示を継続させる。その結果、移動体の移動の有無に拘わらず、運転者に移動体の存在と接近方向を認識させやすい表示ができる。
方向指標G5を構成する個別指標40の形状や数は、移動体の移動方向が示唆できればよく、適宜変更可能である。図7~図9は、方向指標G5を構成する個別指標40の他の形状を例示的かつ模式的に示す図である。
図7は、図6の例と同様に、方向指標G5の表示領域GA内に3個の長方形状の個別指標40aを表示する例である。図7の場合も、表示態様(a)において、時刻t1で最後尾に表示されていた個別指標40aが、表示態様(b)で示すように、時刻t2で接近方向A1に移動すると、上流側に新たな個別指標40aが現れだす。一方、下流側では、表示態様(a)において、時刻t1で先頭に表示されていた個別指標40aが、表示態様(b)に示すように、消え始める。表示態様(c)では、さらにその状態が進み、上流側で新たな個別指標40aが完全に現れ、逆に下流側の個別指標40aが完全に消える。したがって、表示領域GAには、2つに分割された個別指標40aが存在する場合があるものの、常に3個の個別指標40aが表示されることになる。その結果、図6の場合と同様に、運転者に移動体の存在と接近方向を認識させやすい表示ができる。
図8は、方向指標G5の表示領域GA内に3個の傾いた四角形状の個別指標40bを表示する例である。図8の場合も、表示態様(a)において、時刻t1で最後尾に表示されていた個別指標40bが、表示態様(b)で示すように、時刻t2で接近方向A1に移動すると、上流側に新たな個別指標40bが現れだす。一方、下流側では、表示態様(a)において、時刻t1で先頭に表示されていた個別指標40bが、表示態様(b)に示すように、消え始める。表示態様(c)では、さらにその状態が進み、上流側で新たな個別指標40bの略半分が現れ、逆に下流側の個別指標40bの略半分が消えた状態になる。したがって、表示領域GAには、2つに分割された個別指標40bが存在する場合があるものの、常に3個の個別指標40bが表示されることになる。その結果、図6、図7の場合と同様に、運転者に移動体の存在と接近方向を認識させやすい表示ができる。なお、図7のように、傾いた形状の個別指標40bが順次アニメーション表示されることにより、図7の場合より移動方向をイメージさせ易い表示ができる。
図9は、方向指標G5の表示領域GA内に1個の三角形状の個別指標40cを表示する例である。図9の場合、表示態様(a)において、時刻t1で個別指標40cの全体が表示されている。個別指標40cが接近方向A1に移動すると、表示態様(b)に示すように、時刻t2で、下流側で個別指標40cの一部が消えだす。一方、上流側では、表示態様(b)において下流側で消えた部分に対応する個別指標40cの先頭部分が表示されだす。表示態様(c)では、さらにその状態が進んでいる。したがって、表示領域GAには、2つに分割された個別指標40cが存在する場合があるものの、常に1個の個別指標40cが表示されることになる。その結果、図6~図8の場合と同様に、運転者に移動体の存在と接近方向を認識させやすい表示ができる。なお、図9のように、他の例の個別指標に比べて大きな1つの個別指標40cがスクロールによるアニメーション表示されることで、メリハリのある注視されやすい表示が可能になり、移動体の存在や移動方向をイメージさせ易い表示ができる。
図6~図9に示すように、時間経過とともに個別指標40,40a,40b,40cをスクロールさせて表示する場合、表示態様(a),(b),(c)の間で補間処理を実行することにより、よりスムーズに動くように見える個別指標の表示を実現することができる。
なお、移動体が、自車画像G4(車両1)から遠ざかる場合、方向指標G5は、透過度が高い停止した状態に戻る。その結果、運転者に移動体(歩行者D1)が車両1から遠ざかり、接触の危険性が低下したことを認識させることができる。また、図5では、自車画像G4(車両1)の側方から移動体が接近する場合に、移動体の有無や接近方向を認識しやすいように方向指標G5を車幅方向の左右に配置した例を示した。別の実施例では、自車画像G4(車両1)の前方から移動体が接近する場合に、移動体の有無や接近方向を認識しやすいように方向指標G5を車両前後方向の向きに配置してもよい。また、方向指標G5を車幅方向と前後方向、またはその他の方向とを組み合わせて配置してもよい。また、検出された移動体の接近方向に応じて、方向指標G5の表示位置が変化するようにしてもよい。
このように、方向指標G5の輪郭線の表示態様が時間経過に伴い変化(移動)するような表示を行うことにより、例えば、指標を単に点滅させたり表示色を変更させたりする場合に比べ、方向指標G5が移動していることがより明確に表現される。また、方向指標G5の輪郭線の表示態様が時間経過に伴い変化(移動)するような表示を行うことにより、移動体の移動の有無に拘わらず、移動体(注目領域)の存在やその移動方向(接近方向)を運転者に、より認識し易い状態で表示することができる。
また、周辺画像G3(周辺画像G7)の表示領域内に移動する立体物(例えば歩行者D1)が存在すると見なせる場合、立体物の最下部(足下)と見なせる部分に表示される足下指標G6は、例えば、赤色の略円形または略半円形の指標として表示することができる。足下指標G6は、移動体(歩行者D1)の移動に追従して移動体の最下部(歩行者D1の足下)で表示される。また、方向指標G5と同様に、足下指標G6の輪郭線の表示態様が時間経過に伴い変化する。具体的には、略円形の足下指標G6の半径が拡縮表示される。例えば、図10において、足下指標G6は、時刻t1で半径R1の小径指標42aであり、時刻t2で半径R2の中径指標42bに輪郭線が拡大変化する。続いて、時刻t3で最大径の半径R3の大径指標42cになり、時刻t4で半径R2の中径指標42bに輪郭線が縮小変化し、時刻t5で、元の半径R1の小径指標42aに戻る。足下指標G6は、周辺画像G3の表示領域内に立体物(歩行者D1等の移動体)が検知された場合に、移動の有無に拘わらず、その最下部(足下)に表示されて、時間経過とともに拡縮表示を継続的に行う。その結果、立体物(歩行者D1等の移動体)の移動の有無に拘わらず、立体物(注目領域)の存在を運転者に、より認識し易い状態で表示することができる。また、立体物(歩行者D1等の移動体)の足下に足下指標G6を表示することにより、立体物(歩行者D1等の移動体)と路面との接触位置(立ち位置)の認識が行い易くなり、運転者に立体物(注目領域)と自車画像G4(車両1)との相対位置関係をより認識させ易い状態で表示することができる。
なお、俯瞰画像である第1画像G1では、足下指標G6の形状を例えば略円形として表示したが、実画像を表示している第2画像G2では、足下指標G6の形状は、例えば、略半円形として、立体物(歩行者D1等の移動体)の最下部に表示して、視認性を向上するようにしてもよい。なお、この場合、第1画像G1で表示される足下指標G6と同様に、第2画像G2で表示される略半円形の足下指標G6の半径を拡縮させてもよい。また、第1画像G1の場合、俯瞰画像に変換しているため、立体物(例えば歩行者D1)は伸びて表示されることがあり、第2画像G2に実画像で表示される移動体(例えば歩行者D1)との一致認識性が低下してしまう場合がある。そこで、第1画像G1と第2画像G2とに足下指標G6を表示する場合、足下指標G6の表示色を同じ表示色(例えば、赤色)で表示して、対応していることを認識し易いようにしてもよい。また、車両1の周囲に複数の立体物(歩行者D1等の移動体)が存在する場合には、各立体物を識別することなく、注目すべき立体物であることを示すという観点で同一の表示色で表示してもよい。別の実施例では、立体物ごとに、例えば、個別IDを付して識別するとともに、例えば、表示色を異ならせてもよい。なお、足下指標G6の形状は一例であり、立体物の最下部(足下)が示唆できればよく、適宜変更可能であり、同様の効果を得ることができる。
このように第1実施形態によれば、周辺監視部28は、方向指標G5、足下指標G6の表示態様を注目領域(移動体、立体物)の移動の有無に拘わらず、時間経過に伴い表示態様を変化させるので、利用者に注目領域(移動体、立体物)の存在や位置、移動方向等をより認識させやすい表示ができる。
(第2実施形態)
図11は、第2実施形態にかかる周辺監視部28による表示画面を示す例示的かつ模式的な図である。図11は、シフトセンサ21の検出結果に基づき車両1が前進走行可能状態(シフトがDレンジ)で、車輪速センサ22の検出結果に基づき車両1が所定速度以下(例えば、12km/h以下)の場合、または、駐車状態(シフトがPレンジ)の場合に表示装置8に表示される表示画像の例示的かつ模式的な図である。具体的には、運転者が注目すべき注目領域の一例として、車両1の前方に、静止物(例えば他車両D2)が、取得部32の取得した撮像画像や位置情報に基づき検知された場合の指標の表示例である。
図11に示すように、表示装置8に示される表示画像Gは、俯瞰画像生成部34が生成した車両1を直上から俯瞰した俯瞰画像が周辺画像G3として表示される第1画像G1と、車両1を後方斜め上方から俯瞰した、第1画像G1より拡大された俯瞰画像が周辺画像G7として表示された第2画像G2とを含む。なお、図11では、第1画像G1と第2画像G2との2画面を並べて表示しているが、いずれか一方で表示画像Gを構成してもよいし、表示画像Gが3以上の画面を含んでもよい。また、図11の場合、第1画像G1より第2画像G2を大きく表示しているが、第2画像G2より第1画像G1を大きく表示してもよく、表示画像Gのレイアウトは適宜変更可能である。
第1画像G1には、第1実施形態で示した図5と同様に、周辺画像G3と自車画像G4が含まれる。また、車両1の前方の領域でレーダー16やソナー17を中心として所定領域内に静止物(他車両D2等)が検知された場合に、運転者が注目すべき領域(注目領域)が存在すると見なした場合に表示される、指標の一例としの仮想立体物44(例えば、三角コーン)が制御部38によって重畳表示されている。また、第2画像G2における周辺画像G7にも、他車両D2に対応する位置に仮想立体物44が制御部38によって重畳表示されている。
仮想立体物44としての三角コーンは、通常の運転環境においても運転者に注意喚起させやすい形状であるため、注目領域を認識させる指標として有効であるが、他の立体物、例えば、ポールや旗、誘導員等の形状でもよい。なお、仮想立体物44が非現実の物体であることを容易に運転者に認識させられるように、指標としての仮想立体物44の輪郭線の表示態様が時間経過に伴い変化(移動)するように表示させている。例えば、図12に示すように、仮想立体物44は時間経過に伴い、矢印A-B方向に移動するようにしてもよい。仮想立体物44(三角コーン)の表示位置(高さ)Hは、例えば以下の式によって変化させることができる。
H=基準高さ×(1.0―sinθ)
θ=2π×(経過時間ms/周期ms)
このように、仮想立体物44(三角コーン)の表示位置(高さ)Hを三角関数を用いて変化させることにより、移動の上端や下端で変極点が存在しなくなるため、滑らかな仮想立体物44の上下移動を実現することができる。別の実施例では、のこぎり波のような変極点を持つ波形を用いて仮想立体物44の上下移動を実現してもよい。この場合、移動動作に特有の特徴が表れ、運転者に認識させ易い表示ができる。
このように第2実施形態によれば、周辺監視部28は、注目領域が静止物である場合でも、指標である仮想立体物44の表示態様を時間経過に伴い表示態様を変化させるので、利用者に注目領域(静止物)の存在や位置をより認識させやすい表示ができる。なお、制御部38は、仮想立体物44を表示する場合、時間経過に伴う輪郭線の移動と併せて、または輪郭線の移動に代えて、仮想立体物44の表示色を時間経過に伴い変化させたり、仮想立体物44を時間経過に伴い点滅表示させたりしてもよい。仮想立体物44の表示色を例えば赤色と黒色とで時間経過に伴い変化させてもよいし、例えば赤色と黒色とで点滅させてもよい。
(第3実施形態)
図13~図15は、第3実施形態にかかる周辺監視部28による表示画面を示す例示的かつ模式的な図である。図13~図15は、シフトセンサ21の検出結果に基づき車両1が前進走行可能状態(シフトがDレンジ)で、車輪速センサ22の検出結果に基づき車両1が所定速度以下(例えば、12km/h以下)の場合に表示装置8に表示される表示画像の例示的かつ模式的な図である。第3実施形態における表示画像の例では、制御部38は、車両の周囲で設定される注目領域の位置を示す指標として、車両1を停止させるべき位置を注目位置として、その位置に仮想立体物を表示することができる。具体的には、駐車の際の走行支援において、経路取得部30aによって取得された推奨移動経路にしたがい車両1を走行させる場合に、車両1の周囲で設定される駐車完了位置や前進完了位置(折り返し走行時の停止位置)等の目標位置を、運転者が注目すべき注目領域の一例とする。図13~図15の例では、経路取得部30aによって推奨移動経路が取得された後に表示される表示画像の例を示す。
第3実施形態において、表示装置8に示される表示画像Gは、第1画像G1と第2画像G2を含む。第1画像G1には、第2実施形態と同様に、俯瞰画像生成部34が生成した車両1を直上から俯瞰した周辺画像G3に自車画像G4が重畳表示される。また、第2画像G2は、シフトセンサ21の検出結果に基づき車両1が前進走行可能状態(シフトがDレンジ)の場合、車両1を後方斜め上方から俯瞰した、周辺画像G3より拡大された周辺画像G7が自車画像G4とともに表示される。なお、シフトセンサ21の検出結果に基づき車両1が後退走行可能状態(シフトがRレンジ)の場合、撮像部15aにより撮像された車両1の後方を示す実画像が周辺画像G7として表示される。なお、図13~図15においても、第1画像G1と第2画像G2との2画面を並べて表示しているが、いずれか一方で表示画像Gを構成してもよいし、表示画像Gが3以上の画面を含んでもよい。また、図13~図15の場合、第1画像G1より第2画像G2を大きく表示しているが、第2画像G2より第1画像G1を大きく表示してもよく、表示画像Gのレイアウトは適宜変更可能である。以下、車両1を駐車完了位置に、切り返し走行を伴う前進走行と後退走行で移動させる例を、図13のタイミング(a)~図15のタイミング(h)における表示内容を参照して説明する。
図13のタイミング(a)において、経路取得部30aが取得した推奨移動経路にしたがい、まず、制御部38は、車両1が移動すべき目標位置を示唆する目標指標を表示画像G上に表示する。具体的には、目標位置(駐車完了位置)を含む駐車領域P(駐車枠線Paで規定される領域)に車両1を誘導する過程で、切り返しのために行う前進走行の前進完了位置に対応する周辺画像G3および周辺画像G7上の位置に目標指標46として、例えば略円形のマーカ46aを表示する。また、同様な略円形のマーカ46bを目標位置(駐車完了位置)に対応する周辺画像G3および周辺画像G7上の位置を表示する。なお、図13に示す周辺画像G7の例では、駐車完了位置が表示領域外なので、マーカ46bの表示は省略されている。目標指標46は、おおよその位置であることを示すように、表示色が例えば青色で表示される。目標指標46は、第1実施形態で説明した足下指標G6と同様に、輪郭線が時間経過とともに拡縮するように表示されてもよいし、仮想立体物44と同様に時間経過とともに表示色が変化したり点滅したりするように表示されてもよいし、固定表示でもよい。目標指標46が表示されると、誘導制御部30bは推奨移動経路にしたがい、車両1をまずマーカ46aに誘導する。この場合の誘導は、完全自動でも半自動でも手動でもよい。なお、駐車領域Pを示す駐車枠線Paは、撮像部15が撮像した撮像画像データを解析することにより、認識可能であり、制御部38は、認識した駐車枠線Paを示す指標を表示してもよい。例えば、駐車枠線Paに重なる線状の指標を表示してもよい。
続いて、図13のタイミング(b)に示すように、目標指標(マーカ46a)の表示位置と自車画像G4の表示位置との間隔が所定値以下(例えば実距離で2m以下)になった場合、制御部38は、仮想立体物44を目標位置(停止位置)に表示する。仮想立体物44は、第2実施形態と同様に、例えば、三角コーンとすることができる。なお、仮想立体物44は、運転者に注意喚起ができればよく、例えば、ポールや旗、誘導員等を示す指標でもよい。この場合、仮想立体物44は、時間経過とともに表示色が変化するように表示されてもよい。例えば、仮想立体物44の色(R,G,B)において、(R=0,G=0,B=0)を黒とする。R,G,Bは、それぞれ0~1.0で変化可能とすると、仮想立体物44を赤色から黒色に変化させる場合、GとBは0に固定し、Rを例えば以下の式によって変化させる。
R=0.5×(1.0-sinθ)
θ=2π×(経過時間ms/周期ms)
その結果、仮想立体物44の基準色を(0.5,0,0)とし、時間経過とともに色を(1,0,0)と(0,0,0)の間で、違和感なくリニアに変化させることができる。その結果、完全自動で車両1を走行させている場合、半自動または手動で走行させている場合、いずれの場合でも、運転者に停止するべき目標位置を認識させやすい状態で表示できる。なお、仮想立体物44が表示された時点で、目標指標46(マーカ46a)を非表示としてもよい。この場合、表示画像がシンプルになり、仮想立体物44で示される停止位置の視認性の向上に寄与できる。
図13のタイミング(c)は、誘導制御部30bの誘導により車両1が切り返し走行時の目標位置(仮想立体物44の表示位置)に到達する直前の表示画像Gの表示状態が示されている。このように、目標位置に仮想立体物44が表示されていることにより、完全自動で走行している場合、半自動または手動で走行している場合、いずれの場合でも、運転者に停止するべき目標位置を認識させやすい表示ができる。
続いて、図14のタイミング(d)は、車両1が切り返し走行時の目標位置(仮想立体物44の表示位置)に到達した場合の表示画像Gの表示状態を示している。タイミング(d)で示すように、制御部38は、目標位置(仮想立体物44の表示位置)に自車画像G4が到達した場合、仮想立体物44を非表示とする。このように、仮想立体物44を非表示とすることにより、切り返し走行時の目標位置(停止位置)に車両1が到達したことを、運転者に直感的に認識させやすい表示ができる。
図14のタイミング(e)は、誘導制御部30bの誘導によって、変速操作部7が前進走行から後退走行に切り替えられた場合の表示画像Gの表示状態である。変速操作部7の切替状態は、シフトセンサ21の検出結果に基づいて判定できる。車両1の走行状態が後退可能状態に切り替えられると、第2画像G2の周辺画像G7は、例えば、撮像部15aが撮像する車両1の後方領域を示す実画像に切り替わる。後方領域を示す実画像の下部領域には、車両1のリアバンパ(端部2e)が写り込んでいるとともに、車両1の端部2eからの後方距離の目安を示すガイド線48が、例えば、端部2eから0.5m、1.0m、2.5mの位置に表示される。車両1が完全自動で誘導されている場合は、ガイド線48とマーカ46bとが一致するように車両1が走行制御される。また、車両1が半自動または手動で走行している場合には、運転者は、誘導制御部30bの誘導にしたがい、ガイド線48とマーカ46bとが一致するように走行操作を行うことになる。
続いて、図14のタイミング(f)に示すように、駐車完了位置を示す目標指標(マーカ46b)の表示位置と自車画像G4の表示位置との間隔が所定値以下(例えば実距離で2m以下)になった場合、制御部38は、仮想立体物44を目標位置(駐車完了位置)に表示する。仮想立体物44は、前進時の目標位置(停止位置)で示した仮想立体物44と同様の三角コーンとすることができる。また、駐車完了位置であること強調するために、他の形状の仮想立体物としてもよい。駐車完了位置に表示される仮想立体物44は、前進時の目標位置で示した仮想立体物44と同様に、時間経過とともに表示色が変化したり点滅したりするように表示されてもよい。なお、仮想立体物44が表示された時点で、目標指標46(マーカ46b)を非表示としてもよい。この場合、表示画像がシンプルになり、仮想立体物44で示される停止位置の視認性の向上に寄与できる。
図15のタイミング(g)は、誘導制御部30bの誘導により車両1が目標位置(仮想立体物44が表示される駐車完了位置)に到達する直前の表示画像Gの表示状態が示されている。このように、目標位置(駐車完了位置)に仮想立体物44が表示されていることにより、完全自動で走行している場合、半自動または手動で走行している場合、いずれの場合でも、運転者に停止するべき目標位置を認識させやすい表示ができる。
続いて、図15のタイミング(h)は、目標位置(駐車完了位置)に到達した場合の表示画像Gの表示状態を示している。タイミング(h)で示すように、制御部38は、目標位置(駐車完了位置)に自車画像G4が到達した場合、仮想立体物44を非表示とする。このように、仮想立体物44を非表示とすることにより、目標位置(駐車完了位置)に車両1が到達したことを、運転者に直感的に認識させやすい表示ができる。なお、仮想立体物44を非表示にした後、例えば、所定期間経過後に表示画像Gは、通常画面(例えば、ナビゲーション画面やオーディオ画面)に復帰するようにしてもよい。
なお、図15のタイミング(h)の場合、壁D3は、静止物であるが、車両1が仮想立体物44に基づいて停止するため、壁D3に対する指標は表示されないようにしてもよい。別の実施形態では、壁D3をより認識させやすいように、目標位置(駐車完了位置)を示す仮想立体物44とは別の表示態様、例えば、第2実施形態で示したように、壁D3に対する仮想立体物の輪郭線の表示態様が時間経過に伴い変化(例えば上下に移動)するように表示したり、異なる表示色で表示したりしてもよい。
このように、第3実施形態によれば、周辺監視部28は、運転者に注目させる注目領域として、移動体や静止物等が存在する領域以外の目標位置にも指標(仮想立体物44)を設定する。そして、その指標(仮想立体物44)の表示態様を時間経過に伴い変化するようにすることで、運転者が目標位置をより認識し易い表示を実現することができる。また、上述したように、車両1を所望の位置に移動させる場合、例えは、駐車のために、駐車完了位置(目標位置)に移動させる場合や駐車のための切り返し走行を行うために前進停止位置(目標位置)に移動させる場合等に、制御部38は、まず、車両1を移動させて停止させるべき、概ねの位置を示唆する目標指標(マーカ46a,46b)が表示する。その結果、目標位置から遠い場合には、位置合わせ精度にとらわれずにスムーズかつ容易に車両1の移動を実行させることができる。また、車両1が目標位置に接近した場合に、制御部38は、時間経過とともに表示態様がアニメーション表示技法により変化する仮想立体物44を目標位置に表示する。その結果、仮想立体物44によって目標位置が明確にされるので、目標位置への車両1の位置合わせをより正確に行わせることができる。また、車両1が目標位置に接近した時点で仮想立体物が表示されることで、目標位置に接近していることを運転者により認識させやすい表示ができる。さらに、目標位置に自車画像G4が到達した場合、仮想立体物44を非表示とすることで、目標位置に車両1が到達したことを、運転者に直感的に認識させやすい表示ができる。
なお、上述した第2実施形態で説明した、静止物に対する指標である仮想立体物44を表示する際に、第1実施形態で説明した、移動体に対する指標である方向指標G5や足下指標G6を表示可能としてもよい。例えば、仮想立体物44を表示中に移動体が車両1に接近した場合には、方向指標G5や足下指標G6の表示を実行してもよいし、仮想立体物44の表示に代えて方向指標G5や足下指標G6を表示するようにしてよい。その結果、車両1の周囲の注目領域をより明確に運転者に認識させることができる。同様に、第3実施形態における指標の表示中でも、車両1に移動体が接近した場合には、方向指標G5や足下指標G6の表示を行ってもよい。また、静止物が検知された場合には、目標位置を示す仮想立体物44に加え、静止物を示す仮想立体物44を表示してもよい。この場合、目標位置を示す仮想立体物44と、静止物を示す仮想立体物44とは、表示態様を異ならせて識別できるようにしてもよい。
本実施形態のCPU14aで実行される周辺監視プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、周辺監視プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される周辺監視プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…車両、8…表示装置、14…ECU、14a…CPU、15,15a,15b,15c,15d…撮像部、16…レーダー、17…ソナー、28…周辺監視部、30…走行支援部、30a…経路取得部、30b…誘導制御部、32…取得部、34…俯瞰画像生成部、36…指標取得部、38…制御部、40,40a,40b,40c…個別指標、44…仮想立体物、46…目標指標、46a,46b…マーカ、100…制御システム、D1…歩行者、D2…他車両、G…表示画像、G1…第1画像、G2…第2画像、G3…周辺画像、G4…自車画像、G5…方向指標、G6…足下指標、G7…周辺画像。

Claims (7)

  1. 車両の周辺を撮像する撮像部からの撮像画像と、前記車両の周囲で設定される注目領域に関する位置情報と、を取得する取得部と、
    前記撮像画像に基づく俯瞰視した周辺画像に、前記車両の位置を示す自車画像と、前記位置情報に基づく前記注目領域の位置を示唆する指標とを重畳表示させ、前記指標の表示態様が時間経過に伴い変化するように表示させる制御部と、
    を備え、
    前記制御部は、前記指標の輪郭線の表示態様が時間経過に伴い変化するように表示するとともに、前記指標として前記注目領域の移動する方向を示すように前記輪郭線が時間経過に伴い所定の表示領域内で移動する方向指標を表示し、当該方向指標は、前記注目領域に移動体が存在しない場合、移動体が存在する場合に比べて表示透過度を高めた半透明の状態で表示される、周辺監視装置。
  2. 前記制御部は、前記注目領域に表示態様が時間経過に伴い変化する仮想立体物を表示する、請求項1に記載の周辺監視装置。
  3. 前記制御部は、前記車両が移動すべき目標位置を示唆する目標指標を表示するとともに、前記目標位置と前記自車画像の表示位置との間隔が所定値以下になった場合、前記仮想立体物を前記目標位置に表示する、請求項2に記載の周辺監視装置。
  4. 前記制御部は、前記目標指標に前記自車画像が到達した場合、前記仮想立体物を非表示とする、請求項3に記載の周辺監視装置。
  5. 前記制御部は、前記仮想立体物の表示態様を時間経過に伴い上下に変化させる、請求項2から請求項4のいずれか1項に記載の周辺監視装置。
  6. 前記制御部は、前記注目領域に立体物が存在すると見なせる場合、前記立体物の最下部と見なせる部分に表示態様が時間経過に伴い変化する足下指標を表示する、請求項1に記載の周辺監視装置。
  7. 前記制御部は、前記足下指標の前記輪郭線の大きさを時間経過に伴い拡縮する、請求項6に記載の周辺監視装置。
JP2019138054A 2019-07-26 2019-07-26 周辺監視装置 Active JP7354649B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019138054A JP7354649B2 (ja) 2019-07-26 2019-07-26 周辺監視装置
US16/936,627 US11787335B2 (en) 2019-07-26 2020-07-23 Periphery monitoring device
CN202010723432.0A CN112298038A (zh) 2019-07-26 2020-07-24 周边监视装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019138054A JP7354649B2 (ja) 2019-07-26 2019-07-26 周辺監視装置

Publications (2)

Publication Number Publication Date
JP2021022825A JP2021022825A (ja) 2021-02-18
JP7354649B2 true JP7354649B2 (ja) 2023-10-03

Family

ID=74187630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019138054A Active JP7354649B2 (ja) 2019-07-26 2019-07-26 周辺監視装置

Country Status (3)

Country Link
US (1) US11787335B2 (ja)
JP (1) JP7354649B2 (ja)
CN (1) CN112298038A (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6869934B2 (ja) * 2018-11-01 2021-05-12 三井金属アクト株式会社 ドア自動開閉システム
JP7065068B2 (ja) * 2019-12-13 2022-05-11 本田技研工業株式会社 車両周囲監視装置、車両、車両周囲監視方法およびプログラム
JP7053560B2 (ja) * 2019-12-13 2022-04-12 本田技研工業株式会社 駐車支援システムおよびその制御方法
KR20220144399A (ko) 2020-04-07 2022-10-26 테오리아 사이언스 인크. 세포외 소포의 분비를 억제하는 세포외 소포 분비 억제제, 및 그 용도
US20220185182A1 (en) * 2020-12-15 2022-06-16 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Target identification for vehicle see-through applications
KR102327860B1 (ko) * 2021-06-14 2021-11-17 주식회사 에이스뷰 차량용 다채널 어라운드뷰 모니터링 방법 및 시스템
JP2023049833A (ja) * 2021-09-29 2023-04-10 本田技研工業株式会社 注意喚起システム、及び制御用プログラム
JP2024010758A (ja) * 2022-07-13 2024-01-25 パナソニックIpマネジメント株式会社 表示処理装置、表示処理方法、及び表示処理プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007295043A (ja) 2006-04-20 2007-11-08 Matsushita Electric Ind Co Ltd 車両周囲監視装置
JP2011251681A (ja) 2011-08-01 2011-12-15 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
JP2013144491A (ja) 2012-01-13 2013-07-25 Aisin Seiki Co Ltd 障害物警報装置
JP2017105267A (ja) 2015-12-08 2017-06-15 パナソニックIpマネジメント株式会社 駐車支援装置、駐車支援方法及び駐車支援プログラム
JP2017135695A (ja) 2016-01-25 2017-08-03 株式会社Jvcケンウッド 表示装置、表示方法、プログラム
JP2018109875A (ja) 2017-01-04 2018-07-12 株式会社デンソーテン 画像処理装置および画像処理方法
JP2019051822A (ja) 2017-09-15 2019-04-04 ダイハツ工業株式会社 駐車支援装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7356408B2 (en) * 2003-10-17 2008-04-08 Fuji Jukogyo Kabushiki Kaisha Information display apparatus and information display method
JP2005223524A (ja) * 2004-02-04 2005-08-18 Nissan Motor Co Ltd 車両周辺監視装置
JP2006341641A (ja) 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
JP4967620B2 (ja) * 2006-11-28 2012-07-04 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
JP4930218B2 (ja) 2007-06-26 2012-05-16 富士電機株式会社 電圧形インバータの制御装置
JP5429514B2 (ja) * 2008-06-03 2014-02-26 アイシン精機株式会社 駐車支援装置
US8164543B2 (en) * 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display
JP5483535B2 (ja) * 2009-08-04 2014-05-07 アイシン精機株式会社 車両周辺認知支援装置
JP5682788B2 (ja) * 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
CN106462727B (zh) * 2014-01-30 2020-02-11 移动眼视力科技有限公司 车辆、车道终止检测系统和方法
US11181637B2 (en) * 2014-09-02 2021-11-23 FLIR Belgium BVBA Three dimensional target selection systems and methods
JP6920776B2 (ja) 2017-06-22 2021-08-18 西日本高速道路株式会社 監視支援システム及び監視支援方法
JP6861375B2 (ja) 2017-06-30 2021-04-21 パナソニックIpマネジメント株式会社 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
JP6829165B2 (ja) 2017-08-24 2021-02-10 株式会社日立国際電気 監視システム及び監視方法
JP2019004484A (ja) 2018-08-07 2019-01-10 住友建機株式会社 ショベル
US10592713B1 (en) * 2018-12-31 2020-03-17 Datalogic Usa, Inc. Computationally-augmented video display facilitating package handling

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007295043A (ja) 2006-04-20 2007-11-08 Matsushita Electric Ind Co Ltd 車両周囲監視装置
JP2011251681A (ja) 2011-08-01 2011-12-15 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
JP2013144491A (ja) 2012-01-13 2013-07-25 Aisin Seiki Co Ltd 障害物警報装置
JP2017105267A (ja) 2015-12-08 2017-06-15 パナソニックIpマネジメント株式会社 駐車支援装置、駐車支援方法及び駐車支援プログラム
JP2017135695A (ja) 2016-01-25 2017-08-03 株式会社Jvcケンウッド 表示装置、表示方法、プログラム
JP2018109875A (ja) 2017-01-04 2018-07-12 株式会社デンソーテン 画像処理装置および画像処理方法
JP2019051822A (ja) 2017-09-15 2019-04-04 ダイハツ工業株式会社 駐車支援装置

Also Published As

Publication number Publication date
CN112298038A (zh) 2021-02-02
US20210023994A1 (en) 2021-01-28
US11787335B2 (en) 2023-10-17
JP2021022825A (ja) 2021-02-18

Similar Documents

Publication Publication Date Title
JP7354649B2 (ja) 周辺監視装置
JP6806156B2 (ja) 周辺監視装置
JP6281289B2 (ja) 周辺監視装置、及びプログラム
JP7222254B2 (ja) 周辺表示制御装置
EP3290301B1 (en) Parking assist device
US20200086793A1 (en) Periphery monitoring device
WO2014051125A1 (ja) 駐車支援装置、駐車支援方法およびプログラム
JP2016084094A (ja) 駐車支援装置
WO2018070298A1 (ja) 表示制御装置
JP5991112B2 (ja) 駐車支援装置、制御方法、およびプログラム
WO2018150642A1 (ja) 周辺監視装置
EP3792868A1 (en) Image processing device
JP6876236B2 (ja) 表示制御装置
JP7443705B2 (ja) 周辺監視装置
JP2012086684A (ja) 駐車支援装置
JP2017094922A (ja) 周辺監視装置
US11697408B2 (en) Parking assisting device, parking assisting method and storage medium storing program for the parking assisting device
JP7427907B2 (ja) 駐車支援装置
JP2023165721A (ja) 表示制御装置
JP6977318B2 (ja) 周辺表示装置
JP2017085410A (ja) 走行支援装置
JP2014069721A (ja) 周辺監視装置、制御方法、及びプログラム
JP7130923B2 (ja) 表示制御装置
JP2021066286A (ja) 駐車支援装置、駐車支援方法、およびプログラム
JP7342926B2 (ja) 表示制御装置及び表示制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R150 Certificate of patent or registration of utility model

Ref document number: 7354649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150