JP2019125193A - 周辺監視装置 - Google Patents

周辺監視装置 Download PDF

Info

Publication number
JP2019125193A
JP2019125193A JP2018005831A JP2018005831A JP2019125193A JP 2019125193 A JP2019125193 A JP 2019125193A JP 2018005831 A JP2018005831 A JP 2018005831A JP 2018005831 A JP2018005831 A JP 2018005831A JP 2019125193 A JP2019125193 A JP 2019125193A
Authority
JP
Japan
Prior art keywords
vehicle
image
virtual viewpoint
unit
steering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018005831A
Other languages
English (en)
Inventor
渡邊 一矢
Kazuya Watanabe
一矢 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2018005831A priority Critical patent/JP2019125193A/ja
Priority to US16/244,589 priority patent/US10789763B2/en
Priority to CN201910039578.0A priority patent/CN110040070A/zh
Publication of JP2019125193A publication Critical patent/JP2019125193A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/021Determination of steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • B62D15/0295Steering assistants using warnings or proposing actions to the driver without influencing the steering system by overlaying a vehicle path based on present steering angle over an image without processing that image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Abstract

【課題】車両の周囲の状況把握の利便性をより向上させることが可能な周辺監視装置を提供する。【解決手段】周辺監視装置400は、車両に搭載された撮像部により車両の周囲を撮像することで得られる撮像画像を車両の周囲に構成される三次元の仮想的な面を示すモデルに投影することで構成されるモデル画像に基づく仮想空間内の注視点を仮想視点から見た表示画像を生成する画像生成部402と、表示画像を表示部に出力する画像出力部403と、を備える。画像生成部402は、車両の舵角を変化させるための操舵部の操作に応じて、仮想視点および注視点のうち少なくとも一方を、車両の車幅方向の成分を含む方向に移動させる。【選択図】図4

Description

本発明の実施形態は、周辺監視装置に関する。
従来から、車両の周囲を撮像することで得られる撮像画像に基づいて、仮想視点から見た車両の周囲の状況を表す周辺画像を生成し、生成した周辺画像を車両の乗員に提示する技術が検討されている。このような技術として、たとえば、車両の進行方向に障害物が検出された場合に、当該障害物が写り込むような仮想視点から見た周辺画像を乗員に提示する技術が知られている。
特許第5273068号公報
上述した従来の技術においては、障害物が検出された場合にのみ、仮想視点の変化が発生する。しかしながら、車両の周囲の状況把握の利便性をより向上させるためには、障害物の検出を前提とすることなく、周辺画像の仮想視点(車両の周囲の状況把握を行うための視線の方向)を変化させることが望まれる。
そこで、実施形態の課題の一つは、車両の周囲の状況把握の利便性をより向上させることが可能な周辺監視装置を提供することである。
実施形態の一例としての周辺監視装置は、車両に搭載された撮像部により車両の周囲を撮像することで得られる撮像画像を車両の周囲に構成される三次元の仮想的な面を示すモデルに投影することで構成されるモデル画像に基づく仮想空間内の注視点を仮想視点から見た表示画像を生成する画像生成部と、表示画像を表示部に出力する画像出力部と、を備え、画像生成部は、車両の舵角を変化させるための操舵部の操作に応じて、仮想視点および注視点のうち少なくとも一方を、車両の車幅方向の成分を含む方向に移動させる。
上述した周辺監視装置によれば、操舵部を操作して車両の舵角を変化させるだけで、表示画像の仮想視点および注視点のうち少なくとも一方(車両の周囲の状況把握を行うための視線の方向)を変化させることができるので、車両の周囲の状況把握の利便性をより向上させることができる。
上述した周辺監視装置において、画像生成部は、操舵部の操作によって実現される車両の舵角の大きさに応じて、仮想視点および注視点のうち少なくとも一方の位置を変化させる。この構成によれば、仮想視点から注視点へ向かう視線(車両の周囲の状況把握を行うための視線)の方向が舵角の大きさに応じて設定されるので、車両の周囲の状況把握を適切に行うことができる。
また、上述した周辺監視装置において、画像生成部は、車両の舵角の大きさが第1角度を下回る場合に、仮想視点および注視点のうち少なくとも一方の位置を固定する。この構成によれば、たとえば車両の舵角がゼロから少しでも変化したら仮想視点から注視点へ向かう視線が変化するといった構成と異なり、仮想視点から注視点へ向かう視線の変化が頻繁に起こるのを抑制することができる。
また、上述した周辺監視装置において、画像生成部は、車両の舵角の大きさが第1角度よりも大きい第2角度を上回る場合に、仮想視点および注視点のうち少なくとも一方の位置を固定する。この構成によれば、仮想視点から注視点へ向かう視線の向きが車両の舵角の大きさが第1角度を上回って最大角度に達するまでいつまでも定まらないという事態を回避することができる。
また、上述した周辺監視装置において、画像生成部は、車両の舵角の大きさが第1角度以上の場合に、車両の走行経路の目安となるガイド線を表示画像に重畳する。この構成によれば、仮想視点および注視点のうち少なくとも一方の移動が実際に発生した場合にのみ、ガイド線が表示されるので、車両の舵角が比較的小さい不要な状況でガイド線が表示されるのを回避することができる。
また、上述した周辺監視装置において、画像生成部は、操舵部とは異なる操作入力部を介して任意の方向へ仮想視点および注視点のうち少なくとも一方を移動させる操作が行われた場合、操舵部の操作に応じて仮想視点および注視点のうち少なくとも一方を移動させる第1モードを終了し、操舵部の操作によらず操作入力部の操作に応じて仮想視点および注視点のうち少なくとも一方を移動させる第2モードを実行する。この構成によれば、操作入力部を操作するだけで、仮想視点および注視点のうち少なくとも一方が操舵部の操作に応じて自動で移動する状態から、手動でのみ仮想視点および注視点のうち少なくとも一方を調整可能な状態への移行を実現することができる。
また、上述した周辺監視装置において、画像生成部は、第2モードの実行中に所定の条件が成立した場合に、第2モードを終了し、第1モードを実行する。この構成によれば、手動でのみ仮想視点および注視点のうち少なくとも一方を調整可能な状態から、仮想視点および注視点のうち少なくとも一方が操舵部の操作に応じて自動で移動する状態への移行を容易に実現することができる。
また、上述した周辺監視装置において、所定の条件は、操作入力部の操作が最後に行われてから所定時間が経過したことと、表示部に出力される画像が表示画像から当該表示画像とは異なる別画像に遷移した後に当該別画像から再び表示画像に遷移したことと、仮想視点および注視点のうち少なくとも一方を移動させる操作とは別の所定の操作が行われたことと、のうちいずれか一つを含む。この構成によれば、適切なタイミングで第2モードから第1モードへの移行を実施することができる。
また、上述した周辺監視装置において、画像生成部は、車幅方向において仮想視点と注視点とが互いに逆方向に移動するように、操舵部の操作に応じて、仮想視点と注視点との両方を移動させる。この構成によれば、仮想視点から注視点へ向かう視線の方向をより少ない操作でより大きく変化させることができる。
図1は、実施形態にかかる車両の車室の一部が透視された状態を示した例示的かつ模式的な斜視図である。 図2は、実施形態にかかる車両を上方から俯瞰で見た状態を示した例示的かつ模式的な図である。 図3は、実施形態にかかる車両の内部の概略的なハードウェア構成を示した例示的かつ模式的なブロック図である。 図4は、実施形態にかかる車両のECU内に実現される周辺監視装置の機能的構成を示した例示的かつ模式的なブロック図である。 図5は、実施形態にかかるカメラ画モデルの一例を示した例示的かつ模式的な図である。 図6は、実施形態にかかるカメラ画モデルの一例を図5とは異なる視点から示した例示的かつ模式的な図である。 図7は、実施形態にかかる仮想空間の一例を示した例示的かつ模式的な図である。 図8は、実施形態にかかる仮想視点が車両画像の車幅方向の成分を含む方向に移動する様子を示した例示的かつ模式的な図である。 図9は、実施形態にかかる仮想視点が車両画像の高さ方向の成分を含む方向に移動する様子を示した例示的かつ模式的な図である。 図10は、実施形態にかかる操舵部の操作量と仮想視点の移動の有無との関係を示した例示的かつ模式的な図である。 図11は、実施形態にかかる表示画像の一例を示した例示的かつ模式的な図である。 図12は、実施形態において、図11に示される表示画像に対して仮想視点の移動が発生した状態の一例を示した例示的かつ模式的な図である。 図13は、実施形態において、図12に示される表示画像に対して仮想視点のさらなる移動が発生した状態の一例を示した例示的かつ模式的な図である。 図14は、実施形態において、図13に示される表示画像に対して仮想視点のさらなる移動が発生した状態の一例を示した例示的かつ模式的な図である。 図15は、実施形態にかかる周辺監視装置が表示画像を出力する際に実行する処理の流れを示した例示的かつ模式的なフローチャートである。 図16は、実施形態にかかる周辺監視装置が表示画像の出力後に実行する処理の流れを示した例示的かつ模式的なフローチャートである。 図17は、変形例において仮想視点と注視点との両方が連動して移動する様子を示した例示的かつ模式的な図である。 図18は、変形例にかかるカメラ画モデルの一例を示した例示的かつ模式的な図である。 図19は、変形例にかかるカメラ画モデルの一例を図18とは異なる視点から示した例示的かつ模式的な図である。
以下、実施形態を図面に基づいて説明する。以下に記載する実施形態の構成、ならびに当該構成によってもたらされる作用および結果(効果)は、あくまで一例であって、以下の記載内容に限られるものではない。
まず、図1および図2を用いて、実施形態による車両1の概略的な構成について説明する。図1は、実施形態にかかる車両1の車室2aの一部が透視された状態を示した例示的かつ模式的な斜視図である。また、図2は、実施形態にかかる車両1を上方から俯瞰で見た状態を示した例示的かつ模式的な図である。
図1に示されるように、実施形態による車両1は、車体2と、当該車体2内に構成される車室2aと、を有している。車室2a内には、車両1の乗員(たとえば運転者)が座席2bから操作可能な状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7などが設けられている。
操舵部4は、ダッシュボード(インストルメントパネル)から突出したステアリングホイールである。加速操作部5は、運転者の足下に設けられたアクセルペダルである。制動操作部6は、運転者の足下に設けられたブレーキペダルである。変速操作部7は、センターコンソールから突出したシフトレバーである。
車室2a内には、各種の画像を出力可能なディスプレイ8と、各種の音を出力可能な音声出力装置9と、を有するモニタ装置11が設けられている。モニタ装置11は、車室2a内のダッシュボードの車幅方向(左右方向)の中央部に設けられている。ディスプレイ8は、LCD(液晶ディスプレイ)やOELD(有機エレクトロルミネセンスディスプレイ)などで構成され、たとえば、車両1の周囲の状況を表す周辺画像を表示可能に構成されている。周辺画像の具体的内容については後述するが、周辺画像の一例としては、たとえば、車両1の周辺の状況を上から俯瞰で見た俯瞰画像が挙げられる。
ここで、実施形態によるディスプレイ8における画像が表示される領域、すなわち表示画面には、当該表示画面内において指やスタイラスなどの指示体が近接(接触を含む)した位置の座標を検出可能なタッチパネル10が設けられている。これにより、ユーザ(車両1の乗員)は、ディスプレイ8の表示画面に表示される画像を視認することができるとともに、タッチパネル10上で指示体を用いた入力操作(たとえばタッチ/タップ操作)を行うことで、各種の操作入力を実行することができる。したがって、タッチパネル10は、車両1の乗員からの操作入力を受け付ける操作入力部として機能する。
なお、実施形態では、モニタ装置11が、スイッチや、ダイヤル、ジョイスティック、押しボタンなどといった、各種の物理的な操作入力部を有していてもよい。また、実施形態では、車室2a内におけるモニタ装置11の位置とは異なる位置に、他の音声出力装置が設けられていてもよい。この場合、音声出力装置9および他の音声出力装置の両方から、各種の音情報を出力することができる。また、実施形態では、モニタ装置11が、ナビゲーションシステムやオーディオシステムなどの各種システムに関する情報を表示可能に構成されていてもよい。
また、図1および図2に示されるように、実施形態による車両1は、左右2つの前輪3Fと、左右2つの後輪3Rと、を有した四輪の自動車である。以下では、簡単化のため、前輪3Fおよび後輪3Rを、総称して車輪3と記載することがある。実施形態では、4つの車輪3の一部または全部の横滑り角が、操舵部4の操作などに応じて変化(転舵)する。
車両1は、複数(図1および図2の例では4つ)の撮像部15a〜15dを有する。撮像部15aは、車体2の後側の端部2e(たとえば、リヤトランクのドア2hの下方)に設けられ、車両1の後方の領域を撮像する。また、撮像部15bは、車体2の右側の端部2fのドアミラー2gに設けられ、車両1の右側方の領域を撮像する。また、撮像部15cは、車体2の前側の端部2c(たとえば、フロントバンパー)に設けられ、車両1の前方の領域を撮像する。また、撮像部15dは、車体2の左側の端部2dのドアミラー2gに設けられ、車両1の左側方の領域を撮像する。以下では、簡単化のため、撮像部15a〜15dを、総称して撮像部15と記載することがある。
撮像部15は、たとえば、CCD(電荷結合素子)やCIS(CMOS(相補性金属酸化膜半導体)イメージセンサ)などといった撮像素子を有したいわゆるデジタルカメラである。撮像部15は、所定のフレームレートで車両1の周囲の撮像を行い、当該撮像によって得られた撮像画像の画像データを出力する。撮像部15から出力される画像データは、フレーム画像として動画像を構成することが可能である。
次に、図3を用いて、実施形態による車両1の内部の構成について説明する。図3は、実施形態にかかる車両1の内部の概略的なハードウェア構成を示した例示的かつ模式的なブロック図である。
図3に示されるように、実施形態による車両1には、モニタ装置11と、操舵システム13と、撮像部15と、ブレーキシステム18と、舵角センサ19と、アクセルセンサ20と、シフトセンサ21と、車輪速センサ22と、ECU(エレクトロニックコントロールユニット)24と、が設けられている。
上述した各種の構成(モニタ装置11、操舵システム13、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、およびECU24)は、車載ネットワーク23を介して電気的に接続されている。なお、車載ネットワーク23とは、たとえばCAN(コントローラエリアネットワーク)によって構成される電気通信回線である。
操舵システム13は、電動パワーステアリングシステムやSBW(ステアバイワイヤ)システムなどである。操舵システム13は、アクチュエータ13aと、トルクセンサ13bと、を有する。操舵システム13は、後述するECU24などの制御のもとでアクチュエータ13aを動作させることで、車輪3の一部または全部を転舵する。トルクセンサ13bは、運転者による操舵部4の操作に応じて発生するトルクを検出し、検出結果をECU24に送信する。
ブレーキシステム18は、ABS(アンチロックブレーキシステム)や、横滑り防止装置(ESC)、電動ブレーキシステム、BBW(ブレーキバイワイヤ)などを含む。ブレーキシステム18は、アクチュエータ18aと、ブレーキセンサ18bと、を有する。ブレーキシステム18は、後述するECU24などの制御のもとでアクチュエータ18aを動作させることで、車輪3に制動力を付与する。ブレーキセンサ18bは、制動操作部6における可動部としてのブレーキペダルの位置(変位)を検出し、検出結果をECU24に送信する。
舵角センサ19は、運転者による操舵部4の操作量を検出するセンサである。たとえば、舵角センサ19は、ホール素子などによって構成され、操舵部4の回転部分の回転角度を操舵量として検出し、検出結果をECU24に送信する。また、アクセルセンサ20は、加速操作部5における可動部としてのアクセルペダルの位置(変位)を検出し、検出結果をECU24に送信する。
シフトセンサ21は、変速操作部7におけるシフトレバーなどの可動部の位置を検出し、検出結果をECU24に送信する。また、車輪速センサ22は、車輪3の回転量や、単位時間当たりの車輪3の回転数などを検出し、検出結果をECU24に送信する。
ECU24は、CPU(中央演算処理装置)24aや、ROM(リードオンリーメモリ)24b、RAM(ランダムアクセスメモリ)24c、表示制御部24d、音声制御部24e、SSD(ソリッドステートドライブ)24fなどといった、通常のコンピュータと同様のハードウェア構成を有している。
CPU24aは、車両1全体を制御する制御部である。CPU24aは、ROM24bやSSD24fなどの記憶装置に記憶されたプログラムを読み出し、当該プログラムに含まれる指令に従って動作することで、各種の処理を実行する。RAM24cは、たとえば、CPU24aが各種の処理を実行する際の作業領域として用いられる。
表示制御部24dは、ディスプレイ8を介した画像出力を制御する。また、音声制御部24eは、音声出力装置9を介した音声出力を制御する。
なお、実施形態によるECU24において、CPU24a、ROM24bおよびRAM24cは、1つの集積回路に搭載されていてもよい。また、実施形態によるECU24では、車両1全体を制御する制御部として、CPU24aに替えて、DSP(デジタルシグナルプロセッサ)などのプロセッサや論理回路などが設けられていてもよい。また、実施形態では、CPU24aにより実行されるプログラムなどを記憶する主記憶装置として、SSD24fに替えて(またはSSD24fに加えて)、HDD(ハードディスクドライブ)が設けられていてもよい。さらに、実施形態では、ECU24に接続される外部装置が、主記憶装置としてのSSD24fを有していてもよい。
以上の構成により、ECU24は、車載ネットワーク23を介して車両1の各部へ制御信号を送信することで、車両1の各部を統括的に制御する。この際、ECU24は、撮像部15から得られる画像データや、車載ネットワーク23を介して取得される各種のセンサの検出結果などを、制御に利用することが可能である。各種のセンサとは、上述したトルクセンサ13bや、ブレーキセンサ18b、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22などである。また、ECU24は、車載ネットワーク23を介して取得される、タッチパネル10を用いた入力操作に関する情報も、制御に利用することが可能である。
ところで、従来から、車両1の周囲を撮像することで得られる撮像画像に基づいて、仮想視点から見た車両1の周囲の状況を表す周辺画像を生成し、生成した周辺画像を車両1の乗員に提示する技術が検討されている。このような技術として、たとえば、車両1の進行方向に障害物が検出された場合に、当該障害物が写り込むような仮想視点から見た周辺画像を乗員に提示する技術が知られている。
上述した従来の技術においては、障害物が検出された場合にのみ、仮想視点の変化が発生する。しかしながら、車両1の周囲の状況把握の利便性をより向上させるためには、障害物の検出を前提とすることなく、周辺画像の仮想視点(車両1の周囲の状況把握を行うための視線の方向)を変化させることが望まれる。
そこで、実施形態は、以下に説明するような周辺監視装置400をECU24内に実現し、車両1の舵角に応じて仮想視点を(連続的に)変化させることを可能にすることで、車両1の周囲の状況把握の利便性をより向上させる。
図4は、実施形態にかかる車両1のECU24内に実現される周辺監視装置400の機能的構成を示した例示的かつ模式的なブロック図である。
図4に示されるように、周辺監視装置400は、入力受付部401と、画像生成部402と、画像出力部403と、を有している。図4に示される機能モジュール群は、たとえば、CPU24aがROM24bやSSD24fなどに記憶された所定のソフトウェア(制御プログラム)を実行した結果としてECU24内に実現される。なお、実施形態では、図4に示される機能モジュール群の一部または全部が専用のハードウェア(回路)によって実現されてもよい。
入力受付部401は、車両1の乗員により実施される様々な操作入力を受け付ける。実施形態において、入力受付部401は、操作入力として、タッチパネル10を介した操作に関する情報や、操舵部4の操作に関する情報などを受け付けることが可能なように構成されている。
画像生成部402は、撮像部15により車両1の周囲を撮像することで得られる撮像画像を、撮像部15から取得する。実施形態において、画像生成部402は、ある時刻(以下、過去時刻と言う)の車両1の位置(以下、過去位置と言う)における撮像画像を取得し、取得した撮像画像に基づいて、車両1と当該車両1の周囲の状況(空間)との関係を視認可能な表示画像G(後述する図11〜図14参照)を生成する。なお、表示画像Gの具体例については後で説明するため、ここでは説明を省略する。
画像出力部403は、画像生成部402によって生成された画像(上記の表示画像Gなど)をディスプレイ8に出力する。
ここで、実施形態において、画像生成部402は、所定の仮想空間内の所定の注視点を所定の仮想視点から見た画像を、表示画像Gとして生成する。以下に説明するように、仮想空間は、撮像画像を車両1の周囲に構成される三次元の仮想的な面を示すモデル(カメラ画モデル)に投影する(貼り付ける)ことで構成されるモデル画像と、車両1の外観を三次元で表した車両画像と、に基づいて構成される。
以下、図5〜図7を用いて、実施形態にかかる表示画像Gを生成するための手法の一例について説明する。
図5は、実施形態にかかるカメラ画モデルSの一例を示した例示的かつ模式的な図であり、図6は、実施形態にかかるカメラ画モデルSの一例を図5とは異なる視点から示した例示的かつ模式的な図である。図5および図6においては、車輪3の接地面(路面)と平行な1つの方向がZ方向として表され、車輪3の接地面と平行かつZ方向と直交する方向がX方向として表され、車輪3の接地面に対して垂直な方向がY方向として表されている。
実施形態において、画像生成部402は、図5および図6に示されるような第1面S1および第2面S2を含むカメラ画モデルSを予め生成する。第1面S1は、車両1が存在する路面に対応する平坦な面である。たとえば、第1面S1は、楕円形の平坦な面として構成される。また、第2面S2は、第1面S1を基準として、第1面S1の外側(外縁)から、第1面S1から離れるに従ってY方向に徐々に立ち上がる曲面である。たとえば、第2面S2は、第1面S1の外側から、Y方向に楕円状または放物線状に立ち上がる曲面として構成される。このように、画像生成部402は、第1面S1および第2面S2を含んだお椀型または円筒状の三次元の面を表すモデルを、カメラ画モデルSとして生成する。
なお、実施形態では、三次元の面を表すモデルであれば、上述した第1面S1および第2面S2とは異なる形状の面を含んだモデルがカメラ画モデルSとして生成されてもよい。たとえば、実施形態では、上述した第1面S1と、当該第1面S1の外側から当該第1面S1に対して垂直または徐々に立ち上がる第2面と、の組み合わせによって構成されたモデルが、カメラ画モデルSとして生成されてもよい。
そして、画像生成部402は、過去位置P1での撮像により得られた撮像画像をカメラ画モデルSに貼り付けることで、モデル画像を生成する。より具体的に、実施形態において、画像生成部402は、過去位置P1を原点とするワールド座標系で表されるカメラ画モデルS内の点(以下、貼付点と言う)の座標(以下、三次元座標と言う)と、当該三次元座標の貼付点に貼り付ける撮像画像内の点(以下、カメラ画点と言う)の座標(以下、カメラ画座標と言う)と、を対応付ける座標テーブルを予め作成する。そして、画像生成部402は、撮像画像内のカメラ画点を、座標テーブルにおいて当該カメラ画点のカメラ画座標と対応付けられる三次元座標の貼付点に貼り付けることで、モデル画像を生成する。なお、座標テーブルは、車両1の内燃機関やモータなどがスタートされる度に作成される。
そして、画像生成部402は、上記のように生成したモデル画像と、車両1の三次元形状を表す車両画像CG(図5参照)と、に基づいて、以下の図7に示されるような仮想空間Aを構成し、当該仮想空間A内の所定の注視点P3を所定の仮想視点P4から見た表示画像Gを生成する。
図7は、実施形態にかかる仮想空間Aの一例を示した例示的かつ模式的な図である。
実施形態において、画像生成部402は、モデル画像における車両1の現在位置P2(図5参照)に車両画像CGを配置した空間を、仮想空間Aとして構成する。仮想空間Aを構成すると、画像生成部402は、車両画像CGの前端から第1面S1に対して垂直に下した点(図5参照)を注視点P3として設定する。そして、画像生成部402は、所定の仮想視点P4から注視点P3を見た表示画像Gを生成する。このような表示画像Gによれば、車両1の周囲の状況を表す画像を立体的な車両画像CGと同時に視認することが可能になるので、車両1と当該車両1の周囲の状況(空間)との関係を視覚的に容易に把握することが可能になる。なお、車両画像CGは、表示画像G内で車両1の周囲の状況を透視することが可能なように透過表示される。
ところで、前述したように、実施形態は、車両1の周囲の状況把握の利便性をより向上させるため、車両1の舵角に応じて仮想視点P4(車両1の周囲の状況把握を行うための視線の方向)を変化させることを可能にする。
したがって、実施形態において、画像生成部402は、車両1の舵角を変化させるための操舵部4の操作に応じて、仮想視点P4の位置を(連続的に)移動させる。より具体的に、画像生成部402は、車両1の乗員により操舵部4の操作が実施されると、その操作によって実現される舵角に対応した車両1の進行方向の領域がより明確に表示画像Gに写り込むように、仮想視点P4を、車両画像CGの車幅方向(左右方向)の成分を含む方向に移動させる。この際、仮想視点P4の移動量は、操舵部4の操作によって実現される車両1の舵角の大きさ(舵角の検出値の絶対値)に応じて変化するように、たとえば車両1の舵角が小さいほど小さくなるように設定されてもよい。
図8は、実施形態にかかる仮想視点P4が車両画像CGの車幅方向の成分を含む方向に移動する様子を示した例示的かつ模式的な図である。図8に示されるように、画像生成部402は、操舵部4によって車両1の進行方向を右に向ける操作が実施されると、車両1の右側の状況がより明確に表示画像Gに写り込むように、仮想視点P4の位置を、中央Cから位置X0および位置X1を経由して位置X2へと、曲線状(円弧状、放物線状)の線分L0に沿って、車両画像CGの左側に連続的に移動させる。これにより、操舵部4を操作するだけで、車両1の周囲(進行方向)の状況をより明確に把握可能な位置にある仮想視点P4からの表示画像Gが生成される(そしてディスプレイ8に出力される)ので、車両1の進行方向の状況把握の利便性をより向上させることができる。
なお、図8には図示されていないが、実施形態において、車両1の進行方向を左に向けるような操舵部4の操作が実施された場合、車両1の左側の状況が表示画像Gに写り込むように仮想視点P4が車両画像CGの右側に移動することは言うまでもない。
また、実施形態において、画像生成部402は、車両画像CGの車幅方向(左右方向)における仮想視点P4の位置を移動させる場合、当該移動に連動するように、車両画像CGの高さ方向(上下方向)における仮想視点P4の位置も移動させる。より具体的に、画像生成部402は、仮想視点P4が車両画像CGの車幅方向における中央から離れるに従って、当該仮想視点P4の高さ位置を低く移動させる。
図9は、実施形態にかかる仮想視点P4が車両画像CGの高さ方向の成分を含む方向に移動する様子を示した例示的かつ模式的な図である。図9は、図8をZ方向から見た図に対応する。図9に示されるように、画像生成部402は、操舵部4によって車両1の進行方向を右に向ける操作が実施されると、車両1の右側の状況がより明確に表示画像Gに写り込むように、仮想視点P4の位置を、中央Cから位置X0および位置X1を経由して位置X2へと、曲線状(円弧状、放物線状)の線分L0に沿って、車両画像CGの下側に連続的に移動させる。これにより、操舵部4を操作するだけで、車両1の進行方向の状況をより明確に把握可能な高さ位置にある仮想視点P4からの表示画像Gが生成される(そしてディスプレイ8に出力される)ので、車両1の進行方向の状況把握の利便性をより向上させることができる。
なお、上記の説明では、車両画像CGの車幅方向(左右方向)における仮想視点P4の移動と、車両画像CGの高さ方向(上下方向)における仮想視点P4の移動と、が連動する構成を例示したが、実施形態では、両者が連動していなくてもよい。すなわち、実施形態は、操舵部4の操作が実施された場合、車両画像CGの車幅方向(左右方向)における仮想視点P4の移動のみが実現される構成であってもよい。
ここで、車両1の舵角がゼロから少しでも変化したら仮想視点P4を移動させるといった構成を採用すると、仮想視点P4の移動が頻繁に起こり、車両1の進行方向の状況把握の利便性がかえって損なわれる場合も考えられる。したがって、実施形態は、車両1の舵角の大きさが所定の第1角度を下回る場合、つまり操舵部4としてのステアリングホイールの操作量(回転角度)が第1閾値を下回る場合に、仮想視点P4の移動を制限して仮想視点P4を固定するような構成であってもよい。
また、車両1の舵角の大きさが上記の第1角度から最大角度に達するまでは仮想視点P4を移動させ続けるような構成を採用すると、操舵部4としてのステアリングホイールの操作量(回転角度)が最大になるまで、車両1の進行方向の状況を最大限に把握可能な仮想視点P4(図8および図9に示される位置X2参照)が実現されないので、この場合も利便性が損なわれる。したがって、実施形態は、車両1の舵角の大きさが上記の第1角度よりも大きい第2角度を上回る場合、つまり操舵部4としてのステアリングホイールの操作量(回転角度)が上記の第1閾値よりも大きい第2閾値を上回る場合に、仮想視点P4の移動を制限して仮想視点P4を固定するような構成であってもよい。この構成においては、車両1の舵角の大きさが第2角度に達した場合、つまり操舵部4としてのステアリングホイールの操作量(回転角度)が第2閾値に達した場合に、車両1の進行方向の状況を最大限に把握可能な仮想視点P4が実現される。
図10は、実施形態にかかる操舵部4の操作量と仮想視点P4の移動の有無との関係を示した例示的かつ模式的な図である。図10に示される例では、仮想視点P4の移動は、操舵部4としてのステアリングホイールの操作量(回転角度)の大きさが所定の範囲(90°〜360°の範囲)内にある場合にのみ、仮想視点P4の移動が実施され、それ以外の場合、仮想視点P4は移動せずに固定される。なお、90°や360°といった数値は、あくまで例として挙げたものであり、実際には、90°〜360°以外の範囲で仮想視点P4の移動が実施されてもよい。
ところで、上述したような構成では、操舵部4を操作する以外の他の方法によっても仮想視点P4の移動を実現することができれば、乗員にとっての利便性がさらに向上する。他の方法としては、たとえば、表示画像G上に所定のGUI(グラフィカルユーザインターフェース)を設け、当該GUIに対するタッチパネル10を介した操作に応じて仮想視点P4の移動を実現することが考えられる。しかしながら、操舵部4の操作に応じた仮想視点P4の移動と、タッチパネル10を介した操作に応じた仮想視点P4の移動と、が同時に実行されると、操作が混乱し、利便性が損なわれるおそれがある。
そこで、実施形態において、画像生成部402は、操舵部4とは異なる操作入力部(たとえばタッチパネル10)を介して任意の方向へ仮想視点P4を移動させる操作が行われた場合、操舵部4の操作に応じて仮想視点P4を自動で移動させる第1モード(自動モード)を終了し、操舵部4の操作によらずタッチパネル10の操作に応じて仮想視点P4を手動で移動させる第2モード(手動モード)を実行する。
そして、画像生成部402は、第2モードの実行中に所定の条件が成立した場合に、第2モードを終了し、第1モードを実行する。所定の条件は、タッチパネル10の操作が最後に行われてから所定時間が経過したことと、ディスプレイ8に出力される画像が表示画像Gから当該表示画像Gとは異なる別画像に遷移した後に当該別画像から再び表示画像Gに遷移したことと、仮想視点P4を移動させる操作とは別の所定の操作が行われたことと、のうちいずれか一つを含むように設定される。このように設定すれば、適切なタイミングで第2モードから第1モードへの移行を実施することができる。
以下、操舵部4の操作またはタッチパネル10を介した操作に応じて実現される仮想視点P4の移動について、ディスプレイ8に出力される表示画像Gの具体例とともに説明する。
図11は、実施形態にかかる表示画像Gの一例を示した例示的かつ模式的な図である。この図11に示される表示画像Gの仮想視点P4は、図8および図9に示される中央Cに対応する。
画像生成部402は、たとえば、仮想視点P4を移動させるための上記の2種類の操作のいずれもがまだ実行されていない場合に、図11に示される表示画像Gを生成する。そして、画像生成部402は、仮想視点P4の移動を含む操作を受け付けるためのGUIとして、仮想視点P4を左側に移動させるための左ボタンB1と、仮想視点P4を右側に移動させるための右ボタンB2と、仮想視点P4からの視野角を広げるためのマイナスボタンB3と、仮想視点P4からの視野角を狭めるためのプラスボタンB4と、を表示画像Gに重畳する。
そして、画像生成部402は、図11に示される表示画像Gが表示された状態で、操舵部4としてのステアリングホイールの左回りの回転操作、またはタッチパネル10を介した左ボタンB1の操作が検出されると、仮想視点P4の位置を連続的に移動させ、次の図12に示されるような表示画像Gを生成する。
図12は、実施形態において、図11に示される表示画像Gに対して仮想視点P4の移動が発生した状態の一例を示した例示的かつ模式的な図である。この図12に示される表示画像Gの仮想視点P4は、図8および図9に示される位置X0に対応する。
ここで、図12に示される表示画像Gには、車両1の走行経路の目安となるガイド線L1およびL2が表示されている。ガイド線L1は、現状の舵角で車両1が走行した場合に車両1の左側の前端部が辿ると想定される軌跡を表し、ガイド線L2は、現状の舵角で車両1が走行した場合に車両1の左側の後輪が辿ると想定される軌跡を表す。このようなガイド線L1およびL2は、仮想視点P4の移動が実際に発生した場合にのみ表示される。したがって、実施形態において、前述したような仮想視点P4の移動の制限、より具体的には車両1の舵角の大きさが第1角度を下回る際における仮想視点P4の移動の制限が実施される場合、ガイド線L1およびL2は、車両1の舵角の大きさが第1角度以上の場合にのみ表示される。
画像生成部402は、図12に示される表示画像Gが表示された状態で、操舵部4としてのステアリングホイールの左回りのさらなる回転操作、またはタッチパネル10を介した左ボタンB1のさらなる操作が検出されると、仮想視点P4の位置をさらに連続的に移動させ、次の図13および図14に示されるような表示画像Gを順次生成する。
図13は、実施形態において、図12に示される表示画像Gに対して仮想視点P4の移動が発生した状態の一例を示した例示的かつ模式的な図である。この図13に示される表示画像Gの仮想視点P4は、図8および図9に示される位置X1に対応する。また、図14は、実施形態において、図13に示される表示画像Gに対して仮想視点P4の移動が発生した状態の一例を示した例示的かつ模式的な図である。この図14に示される表示画像Gの仮想視点P4は、図8および図9に示される位置X2に対応する。
前述したように、実施形態では、車両画像CGの車幅方向における仮想視点P4の移動が発生すると、それに連動して、車両画像CGの高さ方向における仮想視点P4の移動も発生する。より具体的に、実施形態では、仮想視点P4は、車両画像CGの車幅方向の中央C(図8および図9参照)から離れるほど、車両画像CGの高さ方向において低くなる。したがって、図11〜図14に示される例では、図11〜図14へと表示画像Gが遷移するに伴い、仮想視点P4の高さが徐々に低くなっている。
なお、図11〜図14に示される表示画像Gは、たとえば停車からの発進時や低速走行中など、車両1の速度が所定以下の状況で手動または自動で車両1の周辺監視機能がオンになり、図4に示される周辺監視装置400がECU24内に実現された場合にディスプレイ8に出力される。
次に、実施形態において実行される処理の流れについて説明する。
図15は、実施形態にかかる周辺監視装置400が表示画像Gを出力する際に実行する処理の流れを示した例示的かつ模式的なフローチャートである。この図15に示される処理フローは、車両1の速度が所定以下の状況で手動または自動で車両1の周辺監視機能がオンになった場合に繰り返し実行される。
図15に示される処理フローでは、まず、S1501において、周辺監視装置400は、撮像部15によって撮像された撮像画像を取得する。この撮像画像は、車両1の周辺の状況を表す画像である。
そして、S1502において、周辺監視装置400は、S1501で取得された撮像画像をカメラ画モデルSに貼り付けることで構成されるモデル画像と、車両1の外観を三次元で表した車両画像CGと、に基づいて、画像生成部402を用いて表示画像Gを生成する。
そして、S1503において、周辺監視装置400は、S1502で生成された表示画像Gを、画像出力部403を用いてディスプレイ8に出力する。そして、処理が終了する。
図16は、実施形態にかかる周辺監視装置400が表示画像Gの出力後に実行する処理の流れを示した例示的かつ模式的なフローチャートである。この図16に示される処理フローは、表示画像Gがディスプレイ8に出力されている間繰り返し実行される。
図16に示される処理フローでは、まず、S1601において、周辺監視装置400は、操舵部4やタッチパネル10などといった各種の操作入力部を介した車両1の乗員による操作の入力を、入力受付部401を用いて受け付ける。
そして、S1602において、周辺監視装置400は、操舵部4の操作が検出されたか否か、より具体的にはS1601で受け付けられた操作が操舵部4を用いた仮想視点P4を移動させるための操作に該当するか否かを判断する。
S1602において、操舵部4の操作が検出されたと判断された場合、S1603に処理が進む。そして、S1603において、周辺監視装置400は、操舵部4の操作によらずタッチパネル10の操作に応じて仮想視点P4を手動で移動させる第2モードが既に実行中か否かを判断する。
S1603において、第2モードが既に実行中であると判断された場合、そのまま処理が終了する。一方、S1603において、第2モードが実行中でないと判断された場合、S1604に処理が進む。
S1604において、周辺監視装置400は、操舵部4の操作に応じて仮想視点P4を自動で移動させる第1モードを実行する。つまり、周辺監視装置400は、S1601で受け付けられた操舵部4の操作量に応じて、表示画像Gの仮想視点P4を連続的に移動させる。そして、処理が終了する。
一方、S1602において、操舵部4の操作が検出されていないと判断された場合、つまりS1601で受け付けられた操作が操舵部4の操作ではないと判断された場合、S1605に処理が進む。そして、S1605において、周辺監視装置400は、タッチパネル10の操作が検出されたか否か、より具体的にはS1601で受け付けられた操作がタッチパネル10を用いた仮想視点P4を移動させるための操作に該当するか否かを判断する。
S1605において、タッチパネル10の操作が検出されていないと判断された場合、S1601で受け付けられた操作は仮想視点P4を移動させるための操作に該当しないため、そのまま処理が終了する。一方、S1605において、タッチパネル10の操作が検出されたと判断された場合、S1606に処理が進む。
S1606において、周辺監視装置400は、操舵部4の操舵によらずタッチパネル10の操作に応じて仮想視点P4を手動で移動させる第2モードを実行する。つまり、周辺監視装置400は、S1601で受け付けられたタッチパネル10の操作に応じて、表示画像Gの仮想視点P4を移動させる。
そして、S1607において、周辺監視装置400は、第2モードを終了して第1モードを実行するか否かの判断基準となる所定の条件が満たされたか否かを判断する。前述したように、所定の条件は、タッチパネル10の操作が最後に行われてから所定時間が経過したことと、ディスプレイ8に出力される画像が表示画像Gから当該表示画像Gとは異なる別画像に遷移した後に当該別画像から再び表示画像Gに遷移したことと、仮想視点P4を移動させる操作とは別の所定の操作が行われたことと、のうちいずれか一つを含むように設定される。
S1607において、所定の条件が満たされたと判断された場合、S1604に処理が進み、第1モードへの移行が実施される。そして、S1604において、周辺監視装置400は、第1モードを実行し、処理が終了する。
なお、S1607において、所定の条件が満たされていないと判断された場合、第1モードへの移行は実施されることなく第2モードがそのまま維持され、処理が終了する。
以上説明したように、実施形態にかかる周辺監視装置400は、モデル画像と車両画像CGとに基づく仮想空間A内の注視点P3を仮想視点P4から見た表示画像Gを生成する画像生成部402と、表示画像Gをディスプレイ8に出力する画像出力部403と、を有しており、画像生成部402は、車両1の舵角を変化させるための操舵部4の操作に応じて、仮想視点P4を、車両画像CGの車幅方向の成分を含む方向に移動させる。この構成によれば、操舵部4を操作して車両1の舵角を変化させるだけで、表示画像Gの仮想視点P4(車両1の周囲の状況把握を行うための視線の方向)を変化させることができるので、車両1の周囲の状況把握の利便性をより向上させることができる。
また、実施形態にかかる画像生成部402は、操舵部4の操作によって実現される車両1の舵角の大きさに応じて、仮想視点P4の位置を変化させうる。このように構成すれば、仮想視点P4から注視点P3に向かう視線(車両1の周囲の状況把握を行うための視線)の方向が舵角の大きさに応じて設定されるので、車両1の周囲の状況把握を適切に行うことができる。
また、実施形態にかかる画像生成部402は、車両1の舵角の大きさが所定の第1角度を下回る場合に、仮想視点P4の位置を固定しうる。このように構成すれば、たとえば車両1の舵角がゼロから少しでも変化したら仮想視点P4を移動させるといった構成と異なり、仮想視点P4の移動が頻繁に起こるのを抑制することができる。
また、実施形態にかかる画像生成部402は、車両1の舵角の大きさが上記の第1角度よりも大きい所定の第2角度を上回る場合にも、仮想視点P4の位置を固定しうる。このように構成すれば、仮想視点P4から注視点P3へ向かう視線の向きが車両1の舵角の大きさが第1角度を上回って最大角度に達するまでいつまでも定まらないという事態を回避することができる。特に、車両1の舵角の大きさが第2角度に達した場合に車両1の進行方向の状況を最大限に把握可能な仮想視点P4が実現される構成を採用すれば、操舵部4を最大限に操作して車両1の舵角を最大角度にしなくても、車両1の進行方向の状況を最大限に把握可能な仮想視点P4を実現することができるので、利便性を向上させることができる。
また、実施形態にかかる画像生成部402は、車両1の舵角の大きさが上記の第1角度以上の場合に、車両1の走行経路の目安となるガイド線L1およびL2を表示画像Gに重畳しうる。このように構成すれば、仮想視点P4の移動が実際に発生した場合にのみ、ガイド線L1およびL2が表示されるので、車両1の舵角が比較的小さい不要な状況でガイド線L1およびL2が表示されるのを回避することができる。
また、実施形態にかかる画像生成部402は、操舵部4とは異なる操作入力部(タッチパネル10)を介して任意の方向へ仮想視点P4を移動させる操作が行われた場合、操舵部4の操作に応じて仮想視点P4を移動させる第1モードを終了し、操舵部4の操作によらずタッチパネル10の操作に応じて仮想視点P4を移動させる第2モードを実行する。このように構成すれば、タッチパネル10を操作するだけで、仮想視点P4が操舵部4の操作に応じて自動で移動する状態から、手動でのみ仮想視点P4を調整可能な状態への移行を実現することができる。
また、実施形態にかかる画像生成部402は、第2モードの実行中に所定の条件が成立した場合に、第2モードを終了し、第1モードを実行する。このように構成すれば、手動でのみ仮想視点P4を調整可能な状態から、仮想視点P4が操舵部4の操作に応じて自動で移動する状態への移行を容易に実現することができる。
なお、上記の構成において、所定の条件は、タッチパネル10の操作が最後に行われてから所定時間が経過したことと、ディスプレイ8に出力される画像が表示画像Gから当該表示画像Gとは異なる別画像に遷移した後に当該別画像から再び表示画像Gに遷移したことと、仮想視点P4を移動させる操作とは別の所定の操作が行われたことと、のうちいずれか一つを含むように設定される。このように構成すれば、適切なタイミングで第2モードから第1モードへの移行を実施することができる。
<変形例>
上述した実施形態では、仮想視点P4のみが移動し、注視点P3は移動しない構成(図8参照)が例示されている。しかしながら、変形例として、仮想視点P4が移動することなく注視点P3のみが上述した実施形態と同様の技術的思想で移動する構成も考えられるし、以下に説明するような、仮想視点P4と注視点P3との両方が連動して移動する構成も考えられる。
図17は、変形例において仮想視点P4と注視点P3との両方が連動して移動する様子を示した例示的かつ模式的な図である。図17に示される例では、仮想視点P4は、曲線状(円弧状、放物線状)の線分L11に沿って移動し、注視点P3は、直線状の線分L12に沿って移動する。なお、操舵部4の操作などが行われる前の初期状態においては、仮想視点P4は、車両画像CGの車幅方向における線分L11の中央C1に位置し、注視点P3は、車両画像CGの車幅方向における線分L12の中央C2に位置する。
ここで、図17に示される例では、車両画像CGの車幅方向において仮想視点P4と注視点P3とが互いに逆方向に移動する。たとえば、仮想視点P4が線分L11の中央C1に対して右側の位置X11に移動した場合、注視点P3は、線分L12の中央C2に対して左側の位置X12に移動する。また、仮想視点P4が線分L11の中央C1に対して左側の端部の位置X21に移動した場合、注視点P3は、線分L12の中央C2に対して右側の端部の位置X22に移動する。
このように、変形例において、画像生成部402は、車両画像CGの車幅方向において仮想視点P4と注視点P3とが互いに逆方向に移動するように、操舵部4の操作(タッチパネル10の操作であってもよい)に応じて、仮想視点P4と注視点P3との両方を移動させうる。このように構成すれば、仮想視点P4から注視点P3へ向かう視線の方向をより少ない操作でより大きく変化させることができる。
なお、図17に示される変形例では、仮想視点P4と注視点P3とが車両画像CGの車幅方向において互いに逆方向に移動しているが、さらに他の変形例として、仮想視点P4と注視点P3とが車両画像CGの車幅方向において互いに同方向に移動する構成も考えられる。
また、上述した実施形態および変形例では、操舵部4としてのステアリングホイールの操作方向(回転方向)と、仮想視点P4から注視点P3へ向かう視線の向きの移動方向と、が一致する構成が例示されている。つまり、上述した実施形態および変形例では、操舵部4としてのステアリングホイールが右回りに操作(回転)された場合には仮想視点P4から注視点P3へ向かう視線が右を向くように移動し、操舵部4としてのステアリングホイールが左回りに操作(回転)された場合には仮想視点P4から注視点P3へ向かう視線が左を向くように移動する構成が例示されている。しかしながら、さらに他の変形例として、操舵部4としてのステアリングホイールの操作方向(回転方向)と、操舵部4の操作に応じて変化した後の仮想視点P4から注視点P3へ向かう視線の向きと、が一致しない(逆になる)構成も考えられる。この構成によれば、操舵部4を操作した場合に、当該操作によって実現される車両1の旋回の外側の状況(たとえば旋回の外側に位置するフロント側角部の周囲の状況)を確認することができる。
さらに、上述した実施形態では、過去位置P1での撮像により得られた撮像画像(過去画像)を所定のカメラ画モデルSに投影することで表示画像Gを生成する構成が例示されている(図5〜図7参照)。しかしながら、変形例として、リアルタイムの撮像により得られた画像を以下に説明するようなお椀型のカメラ画モデルS1800に投影することで表示画像Gを生成する構成も考えられる。
図18は、変形例にかかるカメラ画モデルS1800の一例を示した例示的かつ模式的な図であり、図19は、変形例にかかるカメラ画モデルS1800の一例を図18とは異なる視点から示した例示的かつ模式的な図である。図18および図19に示されるように、この変形例では、路面に沿った平坦面からなる底面S1801と、当該底面S1801の端部から曲線上に立ち上がる側面S1802と、を有したお椀型のカメラ画モデルS1800が使用される。底面S1801は、その中央に車両画像CGが配置されるように構成され、側面S1802は、底面S1801に配置された車両画像CGの周囲を取り囲むように構成される。なお、仮想視点P4および注視点P3(いずれも図18および図19には不図示)は、底面S1801および側面S1802によって囲まれた空間内の任意の位置に設定される。変形例では、このような底面S1801および側面S1802を有したカメラ画モデルS1300にリアルタイムの撮像により得られた画像が投影されることで、上述した実施形態と同様の表示画像Gが生成される。
なお、リアルタイムの撮像により得られた画像を投影するために使用されるカメラ画モデルは、図18および図19に示されるようなお椀型のカメラ画モデルS1800に制限されるものではない。他のカメラ画モデルの例として、たとえば、底面と側面との境界が無い半球状のカメラ画モデルも考えられるし、側面が底面の端部から直線状に立ち上がる円錐台状のカメラ画モデルも考えられる。
以上、本発明の実施形態および変形例を説明したが、上述した実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上述した新規な実施形態および変形例は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上述した実施形態および変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 車両
4 操舵部
8 ディスプレイ(表示部)
10 タッチパネル(操作入力部)
15 撮像部
400 周辺監視装置
402 画像生成部
403 画像出力部
A 仮想空間
CG 車両画像
G 表示画像
L1、L2 ガイド線
P3 注視点
P4 仮想視点
S、S1800 カメラ画モデル

Claims (9)

  1. 車両に搭載された撮像部により前記車両の周囲を撮像することで得られる撮像画像を前記車両の周囲に構成される三次元の仮想的な面を示すモデルに投影することで構成されるモデル画像に基づく仮想空間内の注視点を仮想視点から見た表示画像を生成する画像生成部と、
    前記表示画像を表示部に出力する画像出力部と、
    を備え、
    前記画像生成部は、前記車両の舵角を変化させるための操舵部の操作に応じて、前記仮想視点および前記注視点のうち少なくとも一方を、前記車両の車幅方向の成分を含む方向に移動させる、
    周辺監視装置。
  2. 前記画像生成部は、前記操舵部の操作によって実現される前記車両の舵角の大きさに応じて、前記仮想視点および前記注視点のうち少なくとも一方の位置を変化させる、
    請求項1に記載の周辺監視装置。
  3. 前記画像生成部は、前記車両の舵角の大きさが第1角度を下回る場合に、前記仮想視点および前記注視点のうち少なくとも一方の位置を固定する、
    請求項2に記載の周辺監視装置。
  4. 前記画像生成部は、前記車両の舵角の大きさが前記第1角度よりも大きい第2角度を上回る場合に、前記仮想視点および前記注視点のうち少なくとも一方の位置を固定する、
    請求項3に記載の周辺監視装置。
  5. 前記画像生成部は、前記車両の舵角の大きさが前記第1角度以上の場合に、前記車両の走行経路の目安となるガイド線を前記表示画像に重畳する、
    請求項3または4に記載の周辺監視装置。
  6. 前記画像生成部は、前記操舵部とは異なる操作入力部を介して任意の方向へ前記仮想視点および前記注視点のうち少なくとも一方を移動させる操作が行われた場合、前記操舵部の操作に応じて前記仮想視点および前記注視点のうち少なくとも一方を移動させる第1モードを終了し、前記操舵部の操作によらず前記操作入力部の操作に応じて前記仮想視点および前記注視点のうち少なくとも一方を移動させる第2モードを実行する、
    請求項1〜5のいずれか1項に記載の周辺監視装置。
  7. 前記画像生成部は、前記第2モードの実行中に所定の条件が成立した場合に、前記第2モードを終了し、前記第1モードを実行する、
    請求項6に記載の周辺監視装置。
  8. 前記所定の条件は、前記操作入力部の操作が最後に行われてから所定時間が経過したことと、前記表示部に出力される画像が前記表示画像から当該表示画像とは異なる別画像に遷移した後に当該別画像から再び前記表示画像に遷移したことと、前記仮想視点および前記注視点のうち少なくとも一方を移動させる操作とは別の所定の操作が行われたことと、のうちいずれか一つを含む、
    請求項7に記載の周辺監視装置。
  9. 前記画像生成部は、前記車幅方向において前記仮想視点と前記注視点とが互いに逆方向に移動するように、前記操舵部の操作に応じて、前記仮想視点と前記注視点との両方を移動させる、
    請求項1〜8のいずれか1項に記載の周辺監視装置。
JP2018005831A 2018-01-17 2018-01-17 周辺監視装置 Pending JP2019125193A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018005831A JP2019125193A (ja) 2018-01-17 2018-01-17 周辺監視装置
US16/244,589 US10789763B2 (en) 2018-01-17 2019-01-10 Periphery monitoring device
CN201910039578.0A CN110040070A (zh) 2018-01-17 2019-01-16 周边监测装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018005831A JP2019125193A (ja) 2018-01-17 2018-01-17 周辺監視装置

Publications (1)

Publication Number Publication Date
JP2019125193A true JP2019125193A (ja) 2019-07-25

Family

ID=67214068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018005831A Pending JP2019125193A (ja) 2018-01-17 2018-01-17 周辺監視装置

Country Status (3)

Country Link
US (1) US10789763B2 (ja)
JP (1) JP2019125193A (ja)
CN (1) CN110040070A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022148108A (ja) * 2021-03-24 2022-10-06 本田技研工業株式会社 画像表示システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112930557A (zh) * 2018-09-26 2021-06-08 相干逻辑公司 任何世界视图生成
JP2022089282A (ja) * 2020-12-04 2022-06-16 株式会社アイシン 周辺監視装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236403A (ja) * 2007-03-20 2008-10-02 Mazda Motor Corp 車両用運転支援装置
JP2011004201A (ja) * 2009-06-19 2011-01-06 Konica Minolta Opto Inc 周辺表示装置
JP2013055385A (ja) * 2011-09-01 2013-03-21 Toyota Motor Corp 車両周辺表示装置
JP2017220760A (ja) * 2016-06-06 2017-12-14 アイシン精機株式会社 車両用画像処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2285109B1 (en) * 2008-05-29 2018-11-28 Fujitsu Limited Vehicle image processor, and vehicle image processing system
JP5627253B2 (ja) 2009-05-29 2014-11-19 富士通テン株式会社 画像処理装置、電子装置、および、画像処理方法
JP5271154B2 (ja) 2009-05-29 2013-08-21 富士通テン株式会社 画像生成装置及び画像表示システム
JP5273068B2 (ja) 2010-02-26 2013-08-28 三菱自動車工業株式会社 車両周辺監視装置
JP5622986B2 (ja) 2010-07-27 2014-11-12 富士通テン株式会社 画像表示システム、画像処理装置及び画像表示方法
JP5658507B2 (ja) 2010-08-06 2015-01-28 富士通テン株式会社 画像表示システム、画像生成装置、及び、画像表示方法
JP6030317B2 (ja) 2012-03-13 2016-11-24 富士通テン株式会社 画像処理装置、画像表示システム、表示装置、画像処理方法及びプログラム
JP6257978B2 (ja) * 2013-09-19 2018-01-10 株式会社デンソーテン 画像生成装置、画像表示システム及び画像生成方法
JP6447060B2 (ja) * 2014-11-28 2019-01-09 アイシン精機株式会社 車両周辺監視装置
JP6613774B2 (ja) * 2015-09-30 2019-12-04 アイシン精機株式会社 周辺監視装置
EP3361721B1 (en) * 2015-10-08 2020-02-26 Nissan Motor Co., Ltd. Display assistance device and display assistance method
JP6370833B2 (ja) 2016-05-16 2018-08-08 株式会社デンソーテン 画像生成装置、画像表示システム及び画像生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236403A (ja) * 2007-03-20 2008-10-02 Mazda Motor Corp 車両用運転支援装置
JP2011004201A (ja) * 2009-06-19 2011-01-06 Konica Minolta Opto Inc 周辺表示装置
JP2013055385A (ja) * 2011-09-01 2013-03-21 Toyota Motor Corp 車両周辺表示装置
JP2017220760A (ja) * 2016-06-06 2017-12-14 アイシン精機株式会社 車両用画像処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022148108A (ja) * 2021-03-24 2022-10-06 本田技研工業株式会社 画像表示システム
JP7228614B2 (ja) 2021-03-24 2023-02-24 本田技研工業株式会社 画像表示システム

Also Published As

Publication number Publication date
US10789763B2 (en) 2020-09-29
CN110040070A (zh) 2019-07-23
US20190221028A1 (en) 2019-07-18

Similar Documents

Publication Publication Date Title
US9925919B2 (en) Parking assistance device
JP6507626B2 (ja) 車両周辺監視装置
JP6060910B2 (ja) 周辺監視装置、及びプログラム
JP6094266B2 (ja) 駐車支援装置、駐車支援方法およびプログラム
JP6380002B2 (ja) 周辺監視装置
US20170032681A1 (en) Parking assistance device
CN107791951B (zh) 显示控制装置
JP2020120327A (ja) 周辺表示制御装置
CN107925746B (zh) 周边监控装置
WO2018070298A1 (ja) 表示制御装置
WO2018150642A1 (ja) 周辺監視装置
JP2014004930A (ja) 駐車支援装置、駐車支援方法、及び駐車支援プログラム
WO2018061261A1 (ja) 表示制御装置
CN112492262A (zh) 图像处理装置
US11477373B2 (en) Periphery monitoring device
JP2019125193A (ja) 周辺監視装置
JP7283514B2 (ja) 表示制御装置
US11475676B2 (en) Periphery monitoring device
JP2014004931A (ja) 駐車支援装置、駐車支援方法、及び駐車支援プログラム
CN110546047A (zh) 停车辅助装置
CN111034188B (zh) 周边监控装置
JP6930202B2 (ja) 表示制御装置
JP7130923B2 (ja) 表示制御装置
JP7314514B2 (ja) 表示制御装置
JP2017069846A (ja) 表示制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220315