JP2016042704A - Image display system, image processing device, and image display method - Google Patents

Image display system, image processing device, and image display method Download PDF

Info

Publication number
JP2016042704A
JP2016042704A JP2015184346A JP2015184346A JP2016042704A JP 2016042704 A JP2016042704 A JP 2016042704A JP 2015184346 A JP2015184346 A JP 2015184346A JP 2015184346 A JP2015184346 A JP 2015184346A JP 2016042704 A JP2016042704 A JP 2016042704A
Authority
JP
Japan
Prior art keywords
image
display
overhead
vehicle
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015184346A
Other languages
Japanese (ja)
Other versions
JP6073433B2 (en
Inventor
彬翔 元廣
Akinari Motohiro
彬翔 元廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015184346A priority Critical patent/JP6073433B2/en
Publication of JP2016042704A publication Critical patent/JP2016042704A/en
Application granted granted Critical
Publication of JP6073433B2 publication Critical patent/JP6073433B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To facilitate judgment of a distance between a vehicle body and an obstacle when confirming the clearance between the vehicle body and the obstacle on the basis of images captured by vehicle-mounted cameras.SOLUTION: An image display system 120 comprises: composite image generation means 32 which generates a composite image viewed from a virtual view point on the basis of the images captured with cameras 51 to 53 arranged on a vehicle 9; display means 20 which displays the composite image on a display screen; acceptance means 21 which accepts first designation input designating a partial area of an overhead image surrounding the vehicle 9 generated by the composite image generation means 32 and displayed on the display screen; and display control means 12 which displays an expanded image of the designated area on the display screen as full-screen display when the first designation input is accepted.SELECTED DRAWING: Figure 1

Description

本明細書で論じられる実施態様は、車両において画像を表示する技術に関する。   Embodiments discussed herein relate to techniques for displaying images in a vehicle.

従来より、自動車などの車両に搭載され、車載カメラで車両の周辺を撮影して得られた画像を車室内のディスプレイに表示する画像表示システムが知られている。この画像表示システムを利用することにより、ユーザ(代表的にはドライバ)は車両の周辺の様子をほぼリアルタイムに把握することができる。   2. Description of the Related Art Conventionally, there is known an image display system that is mounted on a vehicle such as an automobile and displays an image obtained by photographing the periphery of the vehicle with an in-vehicle camera on a display in the vehicle interior. By using this image display system, a user (typically a driver) can grasp the situation around the vehicle almost in real time.

例えば、運転席の逆側となるフロントフェンダの外側領域は運転席から死角となりやすく、車体と障害物との間のクリアランスをユーザが把握しにくい。これに対して、画像表示システムを利用すれば、車載カメラの撮影によりフロントフェンダの外側領域を示す画像が取得され、その画像が車室内のディスプレイに表示される。これにより、車両の幅寄せを行う場合などにおいて、運転席の逆側の車体と障害物との間のクリアランスをユーザが容易に確認できることとなる。   For example, the outer region of the front fender that is on the opposite side of the driver's seat is likely to be a blind spot from the driver's seat, and it is difficult for the user to grasp the clearance between the vehicle body and the obstacle. On the other hand, if the image display system is used, an image showing the outer region of the front fender is acquired by photographing with the in-vehicle camera, and the image is displayed on the display in the vehicle interior. As a result, the user can easily confirm the clearance between the vehicle body on the opposite side of the driver's seat and the obstacle, for example, when the vehicle is brought close.

なお、複数のカメラにより撮られた各映像に基づいて車両の周辺の俯瞰映像をディスプレイに表示する俯瞰映像表示手段と、俯瞰映像において車両の周囲を複数の領域に分割しそれぞれを撮像領域として規定する撮像領域規定手段と、撮像領域のいずれかがディスプレイ上でユーザにより選択されたことを検出し且つ検出された撮像領域を選択領域として設定する選択領域設定手段と、選択領域に対応する対象映像をディスプレイに拡大表示する拡大表示手段を備える車両周辺表示装置が提案されている。   An overhead video display means for displaying an overhead video around the vehicle on the display based on each video taken by a plurality of cameras, and the surrounding of the vehicle in the overhead video is divided into a plurality of areas and each is defined as an imaging area An imaging area defining means for performing detection, a selection area setting means for detecting that one of the imaging areas is selected by the user on the display, and setting the detected imaging area as a selection area, and a target video corresponding to the selection area There has been proposed a vehicle periphery display device provided with an enlarged display means for enlarging and displaying the image on a display.

また、車両周辺表示装置において、前方カメラや後方カメラの選択画像をモニタの表示画面の全体に拡大表示することが提案されている。   Further, in the vehicle periphery display device, it has been proposed to enlarge and display the selected images of the front camera and the rear camera on the entire display screen of the monitor.

特開2009−239674号公報JP 2009-239664 A 特開2010−147516号公報JP 2010-147516 A

車体と障害物との間のクリアランスを把握する際に車載カメラの撮影画像により注視したい箇所は、ユーザによって異なる。したがって固定された視点から撮影された画像そのものよりも、複数の車載カメラの画像から合成した俯瞰画像やその拡大画像の方がユーザの利便性が高い。   When the clearance between the vehicle body and the obstacle is grasped, the location to be watched by the captured image of the in-vehicle camera differs depending on the user. Therefore, the user's convenience is higher in the bird's-eye view image synthesized from the images of the plurality of in-vehicle cameras and the enlarged image than in the image taken from the fixed viewpoint.

しかしながら、従来の画像表示システムは、車両の周辺全体の俯瞰画像やその拡大画像を、ディスプレイ装置の表示画面上の一部分の小さな表示エリア内に表示するものであった。このためユーザは車両と障害物との間の正確な距離感を掴むことが難しかった。   However, the conventional image display system displays an overhead image of the entire periphery of the vehicle and an enlarged image thereof in a small display area on a part of the display screen of the display device. For this reason, it has been difficult for the user to grasp an accurate sense of distance between the vehicle and the obstacle.

実施態様に係る装置及び方法は、車載カメラで車両の周辺を撮影して得られた画像に基づいて車体と障害物との間のクリアランスを確認する際に、障害物との間の距離感の判断を容易にすることを目的とする。   The apparatus and method according to the embodiment provides a sense of distance between the obstacle and the obstacle when the clearance between the vehicle body and the obstacle is confirmed based on an image obtained by photographing the periphery of the vehicle with the in-vehicle camera. The purpose is to facilitate judgment.

1つの実施形態によれば、車両に搭載される画像表示システムが与えられる。画像表示システムは、車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た合成画像を生成する合成画像生成手段と、合成画像生成手段により生成された合成画像を表示画面に表示する表示手段と、合成画像生成手段により生成され表示画面に表示された車両周辺の俯瞰画像の一部の領域を指定する第1の指定入力を受け付ける受付手段と、第1の指定入力を受け付けた場合に、指定された領域の拡大画像を表示画面に全画面表示する表示制御手段を備える。   According to one embodiment, an image display system mounted on a vehicle is provided. The image display system generates a composite image generated from a virtual viewpoint based on a captured image obtained by a camera disposed on a vehicle, and displays the composite image generated by the composite image generation unit on a display screen. Receiving means for accepting the first designation input for designating a partial area of the bird's-eye view image around the vehicle generated by the composite image generation means and displayed on the display screen, and accepting the first designation input In such a case, a display control means for displaying an enlarged image of the designated area on the display screen in a full screen is provided.

他の実施形態による画像表示システムは、車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た合成画像を生成する合成画像生成手段と、合成画像生成手段により生成された合成画像及び前記撮影画像を表示画面に表示する表示手段と、合成画像生成手段により生成され前記表示画面に表示された前記車両周辺の俯瞰画像の一部の領域を指定する指定入力を受け付ける受付手段と、指定入力を受け付けた場合に、前記指定された領域の拡大画像を前記表示画面に表示する表示制御手段を備える。表示制御手段によって制御される表示画面の1以上の表示モードには、カメラにより得られる撮影画像を表示画面に表示する状態を含み、撮影画像の表示中に指定入力を受け付けたとき、表示制御手段は、合成画像生成手段により生成される、撮影画像から俯瞰画像まで変化する第1のアニメーション及び俯瞰画像から拡大画像まで変化する第2のアニメーションを表示する。   An image display system according to another embodiment includes a composite image generation unit that generates a composite image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in a vehicle, and a composite image generated by the composite image generation unit And a display means for displaying the photographed image on a display screen; a receiving means for receiving a designation input for designating a partial area of the overhead image around the vehicle generated by the composite image generation means and displayed on the display screen; When a designation input is received, display control means is provided for displaying an enlarged image of the designated area on the display screen. The one or more display modes of the display screen controlled by the display control means include a state in which a photographed image obtained by the camera is displayed on the display screen. When a designation input is received during display of the photographed image, the display control means Displays a first animation that is generated by the composite image generation means and changes from the captured image to the overhead image and a second animation that changes from the overhead image to the enlarged image.

本件開示の装置又は方法によれば、車両周辺の任意の箇所を拡大して示す俯瞰画像を、表示画面に全画面表示することが可能となる。このため、ユーザが車体と障害物との間のクリアランスを確認する際に、障害物との間の距離感を掴みやすくなる。   According to the device or method of the present disclosure, it is possible to display a bird's-eye view image that enlarges an arbitrary portion around the vehicle on a full screen. For this reason, when the user confirms the clearance between the vehicle body and the obstacle, it is easy to grasp the sense of distance between the obstacle.

ディスプレイの表示を俯瞰画像の一部の拡大画像に直接切り替えると、ユーザは、どこが拡大表示されているかを見失い自分の意図通りに操作が受け付けられたか否かに不安を覚えることになる。   When the display on the display is directly switched to a part of the enlarged image of the overhead view image, the user loses sight of the enlarged display and feels anxious about whether or not the operation is accepted as intended.

カメラの撮影画像から俯瞰画像まで、俯瞰画像から拡大画像まで変化するアニメーションを表示すれば、ユーザは、自分が意図したとおりに表示が行われていることを確認しやすくなる。   If animations that change from a camera image to a bird's-eye view image and from a bird's-eye view image to an enlarged image are displayed, the user can easily confirm that the display is performed as intended.

画像表示システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of an image display system. 車載カメラが車両に配置される位置の例を示す図である。It is a figure which shows the example of the position where a vehicle-mounted camera is arrange | positioned at a vehicle. 合成画像を生成する手法の一例の説明図である。It is explanatory drawing of an example of the method of producing | generating a synthesized image. (A)〜(C)は、合成画像生成部によって生成される俯瞰画像の拡大画像の例の説明図である。(A)-(C) are explanatory drawings of the example of the enlarged image of the bird's-eye view image produced | generated by the synthesized image production | generation part. 表示モードの状態遷移図の第1例の説明図である。It is explanatory drawing of the 1st example of the state transition diagram of a display mode. ナビモードにおける表示内容の例を示す図である。It is a figure which shows the example of the display content in navigation mode. バックモード用2画面表示状態における表示内容の例を示す図である。It is a figure which shows the example of the display content in the 2 screen display state for back modes. (A)及び(B)は、第1バックカメラ画像表示状態及び第2バックカメラ画像表示状態における表示内容の例を示す図である。(A) And (B) is a figure which shows the example of the display content in a 1st back camera image display state and a 2nd back camera image display state. フロントモード用2画面表示状態における表示内容の例を示す図である。It is a figure which shows the example of the display content in the 2 screen display state for front modes. (A)及び(B)は、フロントカメラ画像表示状態及びサイドカメラ映像表示状態における表示内容の例を示す図である。(A) And (B) is a figure which shows the example of the display content in a front camera image display state and a side camera image display state. 周囲確認モードにおける表示内容の例を示す図である。It is a figure which shows the example of the display content in surrounding confirmation mode. 2画面表示状態における表示切替処理の第1例のフローチャートである。It is a flowchart of the 1st example of the display switching process in a 2 screen display state. 2画面表示状態における表示切替処理の第1例の説明図である。It is explanatory drawing of the 1st example of the display switching process in a 2 screen display state. 拡大俯瞰画像の表示状態を示す図(その1)である。It is FIG. (1) which shows the display state of an enlarged bird's-eye view image. (A)〜(C)は、第2領域R2の表示の変化例の説明図である。(A)-(C) is explanatory drawing of the example of a change of a display of 2nd area | region R2. (A)はアニメーションの表示処理のフローチャートであり、(B)はアニメーション表示における中間画像の表示処理のフローチャートである。(A) is a flowchart of an animation display process, and (B) is a flowchart of an intermediate image display process in animation display. 2画面表示状態における表示切替処理の第2例のフローチャートである。It is a flowchart of the 2nd example of the display switching process in a 2 screen display state. (A)及び(B)は、2画面表示状態における表示切替処理の第2例の説明図である。(A) And (B) is explanatory drawing of the 2nd example of the display switching process in a 2 screen display state. (A)〜(C)は、拡大俯瞰画像の視点の位置を変更する方法の第1例の説明図である。(A)-(C) is explanatory drawing of the 1st example of the method of changing the position of the viewpoint of an enlarged bird's-eye view image. (A)〜(C)は、拡大俯瞰画像の視点の位置を変更する方法の第2例の説明図である。(A)-(C) are explanatory drawings of the 2nd example of the method of changing the position of the viewpoint of an enlarged bird's-eye view image. 表示モードの状態遷移図の第2例の説明図である。It is explanatory drawing of the 2nd example of the state transition diagram of a display mode. 全画面俯瞰表示状態における表示内容の例を示す図である。It is a figure which shows the example of the display content in a full-screen bird's-eye view display state. 全画面俯瞰表示状態における表示切替処理のフローチャートである。It is a flowchart of the display switching process in a full screen overhead view display state. (A)及び(B)は、全画面俯瞰表示状態における表示切替処理の説明図である。(A) And (B) is explanatory drawing of the display switching process in a full-screen bird's-eye view display state.

以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.システム構成>
図1は、画像表示システム120の構成例を示すブロック図である。この画像表示システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両の周辺を撮影して画像を生成して車室内に表示する機能を有している。画像表示システム120のユーザ(代表的にはドライバ)は、この画像表示システム120を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できるようになっている。なお、以下の説明において使用される用語「画像」は、静止画像及び動画のいずれの意味も含む。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<1. System configuration>
FIG. 1 is a block diagram illustrating a configuration example of the image display system 120. This image display system 120 is mounted on a vehicle (in this embodiment, an automobile), and has a function of photographing the periphery of the vehicle, generating an image, and displaying the image in the passenger compartment. By using this image display system 120, a user (typically a driver) of the image display system 120 can grasp the state around the vehicle in almost real time. The term “image” used in the following description includes both the meanings of still images and moving images.

図1に示すように、画像表示システム120は、車両の周辺の様子を示す画像を生成する画像処理装置100と、車両に乗車するユーザに対して各種情報を表示するナビゲーション装置20とを主に備えている。画像処理装置100で生成された画像は、ナビゲーション装置20において表示される。   As shown in FIG. 1, the image display system 120 mainly includes an image processing device 100 that generates an image showing a state around a vehicle, and a navigation device 20 that displays various types of information to a user who gets on the vehicle. I have. An image generated by the image processing apparatus 100 is displayed on the navigation apparatus 20.

ナビゲーション装置20は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行うハードスイッチなどで構成される操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション装置20は車両のインストルメントパネルなどに設置される。ユーザの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM及びROMなどを備えたコンピュータで構成され、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。   The navigation device 20 provides navigation guidance to the user, and controls the display 21 such as a liquid crystal provided with a touch panel function, an operation unit 22 including a hard switch that is operated by the user, and the entire device. And a control unit 23. The navigation device 20 is installed on an instrument panel or the like of the vehicle so that the screen of the display 21 is visible from the user. Various user instructions are received by the operation unit 22 and the display 21 as a touch panel. The control unit 23 is configured by a computer including a CPU, a RAM, a ROM, and the like, and various functions including a navigation function are realized by the CPU performing arithmetic processing according to a predetermined program.

ナビゲーション装置20は、画像処理装置100と通信可能に接続され、画像処理装置100との間で各種の制御信号の送受信や、画像処理装置100で生成された画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常はナビゲーション装置20単体の機能に基づく画像が表示されるが、動作モードを変更することで画像処理装置100で生成された車両の周辺の様子を示す画像が表示される。これにより、ナビゲーション装置20は、画像処理装置100で生成された画像を受信して表示する表示装置としても機能する。   The navigation apparatus 20 is communicably connected to the image processing apparatus 100, and can transmit and receive various control signals to and from the image processing apparatus 100 and receive images generated by the image processing apparatus 100. An image based on the function of the navigation device 20 alone is normally displayed on the display 21 under the control of the control unit 23, but the state around the vehicle generated by the image processing device 100 by changing the operation mode is displayed. The image shown is displayed. Thereby, the navigation device 20 also functions as a display device that receives and displays the image generated by the image processing device 100.

画像処理装置100は、その本体部10が画像を生成する機能を有するECU(Electronic Control Unit)として構成され、車両の所定の位置に配置される。画像処理装置100は、車両の周辺を撮影する撮影部5を備えており、この撮影部5で車両の周辺を撮影して得られる撮影画像に基づいて仮想視点から見た合成画像を生成する画像生成装置として機能する。   The image processing apparatus 100 is configured as an ECU (Electronic Control Unit) whose main body 10 has a function of generating an image, and is arranged at a predetermined position of the vehicle. The image processing apparatus 100 includes a photographing unit 5 that photographs the periphery of the vehicle, and an image that generates a composite image viewed from a virtual viewpoint based on a photographed image obtained by photographing the periphery of the vehicle with the photographing unit 5. Functions as a generator.

撮影部5は、本体部10に電気的に接続され、本体部10からの信号に基づいて動作する。撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52、及び、サイドカメラ53を備えている。各車載カメラ51〜53は、レンズと撮像素子とを備えており電子的に画像を取得する。   The photographing unit 5 is electrically connected to the main body unit 10 and operates based on a signal from the main body unit 10. The photographing unit 5 includes a front camera 51, a back camera 52, and a side camera 53 that are in-vehicle cameras. Each of the in-vehicle cameras 51 to 53 includes a lens and an image sensor and electronically acquires an image.

これらの複数の車載カメラ51〜53は、車両の異なる位置にそれぞれ配置される。図2は、車載カメラ51〜53が車両9に配置される位置の例を示す図である。   The plurality of in-vehicle cameras 51 to 53 are respectively arranged at different positions of the vehicle. FIG. 2 is a diagram illustrating an example of positions where the in-vehicle cameras 51 to 53 are disposed on the vehicle 9.

図2に示すように、フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向に向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向に向けられている。これらフロントカメラ51やバックカメラ52の取付位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。また、サイドカメラ53は左右のドアミラー93にそれぞれ設けられ、その光軸53aは車両9の左右方向(直進方向に直交する方向)に沿って車両9の外側に向けられている。   As shown in FIG. 2, the front camera 51 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 9, and its optical axis 51 a is directed in the straight traveling direction of the vehicle 9. The back camera 52 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 9, and its optical axis 52 a is directed in the direction opposite to the straight traveling direction of the vehicle 9. The mounting positions of the front camera 51 and the back camera 52 are preferably substantially at the center of the left and right, but may be slightly shifted from the center of the left and right in the left and right direction. The side cameras 53 are provided on the left and right door mirrors 93, respectively, and the optical axis 53a thereof is directed to the outside of the vehicle 9 along the left-right direction of the vehicle 9 (direction orthogonal to the straight traveling direction).

これらの車載カメラ51〜53のレンズとしては魚眼レンズなどが採用されており、車載カメラ51〜53は180度以上の画角θを有している。このため、4つの車載カメラ51〜53を利用することで、車両9の全周囲の撮影が可能となっている。   A fish-eye lens or the like is adopted as the lens of these in-vehicle cameras 51 to 53, and the in-vehicle cameras 51 to 53 have an angle of view θ of 180 degrees or more. For this reason, the surroundings of the vehicle 9 can be image | photographed by utilizing the four vehicle-mounted cameras 51-53.

図1に戻り、画像処理装置100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の画像を生成する画像生成部3と、ナビゲーション装置20との間で通信を行うナビ通信部42とを主に備えている。   Returning to FIG. 1, the main body unit 10 of the image processing apparatus 100 includes a control unit 1 that controls the entire apparatus, an image generation unit 3 that processes a captured image acquired by the imaging unit 5 and generates an image for display. The navigation communication unit 42 that communicates with the navigation device 20 is mainly provided.

ナビゲーション装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部42によって受け付けられて制御部1に入力される。これにより、画像処理装置100は、ナビゲーション装置20に対するユーザの操作に応答した動作が可能となっている。   Various instructions from the user received by the operation unit 22 or the display 21 of the navigation device 20 are received by the navigation communication unit 42 as control signals and input to the control unit 1. As a result, the image processing apparatus 100 can operate in response to a user operation on the navigation apparatus 20.

画像生成部3は、各種の画像処理が可能なハードウエア回路として構成されており、撮影画像調整部31、及び、合成画像生成部32を主な機能として備えている。   The image generation unit 3 is configured as a hardware circuit capable of various image processing, and includes a captured image adjustment unit 31 and a composite image generation unit 32 as main functions.

撮影画像調整部31は、撮影部5で取得された撮影画像を対象とした調整を行うものである。具体的には、撮影画像調整部31は、撮影画像に対して明るさ補正などの画像処理を行う。   The captured image adjustment unit 31 performs adjustment for the captured image acquired by the imaging unit 5. Specifically, the captured image adjustment unit 31 performs image processing such as brightness correction on the captured image.

合成画像生成部32は、撮像部5の複数の車載カメラ51〜53で取得されて撮影画像調整部31によって調整された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた車両の周辺の様子を示す合成画像を生成する。合成画像生成部32が合成画像を生成する手法については後述する。   The composite image generation unit 32 is a vehicle viewed from an arbitrary virtual viewpoint around the vehicle based on the plurality of captured images acquired by the plurality of on-board cameras 51 to 53 of the imaging unit 5 and adjusted by the captured image adjustment unit 31. A composite image showing the state of the surrounding area is generated. A method by which the composite image generation unit 32 generates a composite image will be described later.

合成画像生成部32により生成された合成画像は、ナビ通信部42によってナビゲーション装置20に出力される。これにより、車両の周辺の少なくとも一部の領域を示す合成画像がナビゲーション装置20のディスプレイ21に表示されることになる。   The composite image generated by the composite image generation unit 32 is output to the navigation device 20 by the navigation communication unit 42. Thereby, a composite image showing at least a part of the area around the vehicle is displayed on the display 21 of the navigation device 20.

制御部1は、CPU、RAM及びROMなどを備えたコンピュータとして構成され、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す、画像制御部11及び表示制御部12は、このようにして実現される制御部1の機能のうちの一部を示している。   The control unit 1 is configured as a computer including a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a predetermined program. An image control unit 11 and a display control unit 12 shown in the drawing show some of the functions of the control unit 1 realized in this way.

画像制御部11は、画像生成部3によって実行される画像処理に係る制御を行う。例えば、画像制御部11は、合成画像生成部32が生成する合成画像の生成に必要な各種パラメータなどを指示する。表示制御部12は、ナビゲーション装置20のディスプレイ21に表示する表示内容に係る制御を行う。表示制御部12の具体的な処理内容については後述する。   The image control unit 11 performs control related to image processing executed by the image generation unit 3. For example, the image control unit 11 instructs various parameters necessary for generating a composite image generated by the composite image generation unit 32. The display control unit 12 performs control related to display contents displayed on the display 21 of the navigation device 20. Specific processing contents of the display control unit 12 will be described later.

また、画像処理装置100の本体部10は、不揮発性メモリ40、及びカード読取部44をさらに備えており、これらは制御部1に接続されている。   The main body 10 of the image processing apparatus 100 further includes a nonvolatile memory 40 and a card reading unit 44, which are connected to the control unit 1.

不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、視点データ4aが記憶されている。視点データ4aは、合成画像の仮想視点を定める際に利用される。   The nonvolatile memory 40 is configured by a flash memory or the like that can maintain stored contents even when the power is turned off. The nonvolatile memory 40 stores viewpoint data 4a. The viewpoint data 4a is used when determining the virtual viewpoint of the composite image.

カード読取部44は、可搬性の記録媒体であるメモリカードMCの読み取りを行う。カード読取部44は、メモリカードMCの着脱が可能なカードスロットを備えており、そのカードスロットに装着されたメモリカードMCに記憶されたデータを読み取る。カード読取部44で読み取られたデータは、制御部1に入力される。   The card reading unit 44 reads a memory card MC that is a portable recording medium. The card reading unit 44 includes a card slot in which the memory card MC can be attached and detached, and reads data stored in the memory card MC installed in the card slot. Data read by the card reading unit 44 is input to the control unit 1.

メモリカードMCは、種々のデータを記憶可能なフラッシュメモリなどで構成されており、画像処理装置100はメモリカードMCに記憶された種々のデータを利用できる。例えば、メモリカードMCにプログラムを記憶させ、これを読み出すことで、制御部1の機能を実現するプログラム(ファームウエア)を更新することが可能である。   The memory card MC is configured by a flash memory or the like capable of storing various data, and the image processing apparatus 100 can use various data stored in the memory card MC. For example, a program (firmware) that realizes the function of the control unit 1 can be updated by storing a program in the memory card MC and reading the program.

<2.画像合成処理>
次に、画像生成部3の合成画像生成部32が、撮像部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。図3は、合成画像を生成する手法の一例の説明図である。
<2. Image composition processing>
Next, a method in which the composite image generation unit 32 of the image generation unit 3 generates a composite image that shows a state in which the periphery of the vehicle 9 is viewed from an arbitrary virtual viewpoint based on a plurality of captured images obtained by the imaging unit 5. explain. FIG. 3 is an explanatory diagram of an example of a technique for generating a composite image.

撮影部5のフロントカメラ51、バックカメラ52及びサイドカメラ53で同時に撮影が行われると、車両9の前方、後方、左側方、及び、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両の全周囲を示す情報が含まれていることになる。   When the front camera 51, the back camera 52, and the side camera 53 of the photographing unit 5 are simultaneously photographed, four photographed images P1 to P4 that respectively indicate the front, rear, left side, and right side of the vehicle 9 are acquired. The That is, the four captured images P1 to P4 acquired by the capturing unit 5 include information indicating the entire periphery of the vehicle at the time of capturing.

次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SPに投影される。立体曲面SPは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9が存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、この立体曲面SPの各画素の位置とは予め対応関係が定められている。このため、立体曲面SPの各画素の値は、この対応関係と撮影画像P1からP4に含まれる各画素の値とに基づいて決定できる。   Next, each pixel of the four captured images P1 to P4 is projected onto a three-dimensional curved surface SP in a virtual three-dimensional space. The three-dimensional curved surface SP has, for example, a substantially hemispherical shape (a bowl shape), and a center portion (a bottom portion of the bowl) is determined as a position where the vehicle 9 exists. The correspondence between the positions of the pixels included in the captured images P1 to P4 and the positions of the pixels of the solid curved surface SP is determined in advance. For this reason, the value of each pixel of the three-dimensional curved surface SP can be determined based on this correspondence and the value of each pixel included in the captured images P1 to P4.

撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51〜53の配置(相互間距離、地上高さ、光軸角度等)に依存する。この対応関係を示すテーブルデータは、不揮発性メモリ40に予め記憶されている。   The correspondence between the positions of the pixels of the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface SP is the arrangement of the four in-vehicle cameras 51 to 53 in the vehicle 9 (inter-distance, ground height, optical axis angle, etc. ). Table data indicating the correspondence is stored in advance in the nonvolatile memory 40.

また、不揮発性メモリ40に予め記憶された車体の形状やサイズを示すデータが利用され、車両9の三次元形状を示すポリゴンのモデルが仮想的に構成される。構成された車両9のモデルは、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。   Further, data indicating the shape and size of the vehicle body stored in advance in the nonvolatile memory 40 is used, and a polygon model indicating the three-dimensional shape of the vehicle 9 is virtually configured. The configured model of the vehicle 9 is arranged in a substantially hemispherical central portion determined as the position of the vehicle 9 in the three-dimensional space in which the three-dimensional curved surface SP is set.

さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。   Further, the virtual viewpoint VP is set by the control unit 1 for the three-dimensional space where the solid curved surface SP exists. The virtual viewpoint VP is defined by the viewpoint position and the visual field direction, and is set to an arbitrary visual field position corresponding to the periphery of the vehicle 9 in this three-dimensional space toward an arbitrary visual field direction.

そして、設定された仮想視点VPに応じて、立体曲面SPにおける必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ40等に予め記憶されている。一方で、設定された仮想視点VPに応じてポリゴンのモデルに関してレンダリングがなされ、その結果となる二次元の車両の像が、切り出された画像に対して重畳される。これにより、車両9及びその車両9の周辺を任意の仮想視点VPからみた様子を示す合成画像が生成されることになる。   Then, according to the set virtual viewpoint VP, a necessary area on the three-dimensional curved surface SP is cut out as an image. The relationship between the virtual viewpoint VP and a necessary area in the three-dimensional curved surface SP is determined in advance, and is stored in advance in the nonvolatile memory 40 or the like as table data. On the other hand, rendering is performed on a polygon model according to the set virtual viewpoint VP, and the resulting two-dimensional vehicle image is superimposed on the cut-out image. Thereby, the composite image which shows a mode that the vehicle 9 and the periphery of the vehicle 9 were seen from arbitrary virtual viewpoints VP will be produced | generated.

例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VPaを設定した場合は、車両9の略直上から車両9を見下ろすように、車両9及び車両9の周辺の領域を示す俯瞰画像の合成画像CPaが生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向が車両9における略前方とした仮想視点VPbを設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9及び車両9の周辺の領域を示す合成画像CPbが生成される。更に、仮想視点VPaの位置を車両に近づけると拡大した合成画像が生成され、仮想視点VPaの位置を車両から遠ざけると縮小した、即ち車両の周囲を広範囲に映す合成画像が生成される。   For example, when the virtual viewpoint VPa is set such that the viewpoint position is a position just above the center of the vehicle 9 and the viewing direction is a direction immediately below, the vehicle 9 and the vehicle 9 A composite image CPa of the bird's-eye view showing the area around the vehicle 9 is generated. Also, as shown in the figure, when a virtual viewpoint VPb in which the viewpoint position is the left rear of the position of the vehicle 9 and the visual field direction is substantially in front of the vehicle 9 is set, the entire periphery from the left rear of the vehicle 9 is set. As seen, a composite image CPb indicating the vehicle 9 and the area around the vehicle 9 is generated. Furthermore, an enlarged composite image is generated when the position of the virtual viewpoint VPa is close to the vehicle, and a reduced composite image that reflects the surroundings of the vehicle is generated when the position of the virtual viewpoint VPa is moved away from the vehicle.

合成画像生成部32は、車両9及び車両9の周辺の領域を示す俯瞰画像の一部分を拡大した部分拡大画像を生成することもできる。図4の(A)の俯瞰画像の合成画像CP1は、図3の合成画像CPaと同様に車両9及び車両9の周辺の領域を示す。   The composite image generation unit 32 can also generate a partially enlarged image in which a part of the bird's-eye view image showing the vehicle 9 and the area around the vehicle 9 is enlarged. A composite image CP1 of the bird's-eye view image in FIG. 4A shows the vehicle 9 and a region around the vehicle 9 in the same manner as the composite image CPa in FIG.

例えば、視点位置を車両9の位置の左前方の上方、かつ車両9に近づけた位置とし、視野方向が略直下方向に仮想視点を設定すると、図4の(B)の拡大画像の合成画像CP2が生成される。拡大画像CP2は、図4の(A)の俯瞰画像CP1の領域60の部分を拡大する拡大画像である。また、例えば視点位置を車両9の位置の左後方の上方、かつ車両9に近づけた位置とし、視野方向が略直下方向とした仮想視点を設定すると、図4の(C)の拡大画像の合成画像CP3が生成される。拡大画像CP3は、図4の(A)の俯瞰画像CP1の領域61の部分を拡大する拡大画像である。   For example, if the viewpoint position is set to the upper left position of the position of the vehicle 9 and close to the vehicle 9, and the virtual viewpoint is set so that the visual field direction is substantially directly below, the composite image CP2 of the enlarged image in FIG. Is generated. The enlarged image CP2 is an enlarged image in which the portion of the region 60 of the overhead image CP1 in FIG. Further, for example, when a virtual viewpoint is set in which the viewpoint position is a position on the upper left of the position of the vehicle 9 and close to the vehicle 9 and the visual field direction is substantially directly below, the composition of the enlarged image in FIG. An image CP3 is generated. The enlarged image CP3 is an enlarged image in which a portion of the region 61 of the overhead image CP1 in FIG.

なお、実際に合成画像を生成する場合においては、立体曲面SPの全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。   In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface SP, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint VP are photographed. By determining based on the images P1 to P4, the processing speed can be improved.

画像表示システム120では、このような合成画像生成部32の機能を利用することで、車両9及び車両9の周辺全体を俯瞰して示す合成画像や、車両9の周辺の一部の周辺領域のみを示す合成画像などを生成し、ディスプレイ21に表示することができる。   In the image display system 120, by using such a function of the composite image generation unit 32, only the composite image showing the vehicle 9 and the entire periphery of the vehicle 9 as an overhead view, or only a part of the peripheral region around the vehicle 9. Can be generated and displayed on the display 21.

<3.表示モード>
画像表示システム120は、ナビモードや、撮影部5で取得された撮影画像や合成画像生成部32が合成した合成画像を表示するための複数の表示モードを有している。これらの表示モードは、車両9の走行状態やシフトレバーの位置、操作部22、ディスプレイ21のタッチパネルなどを介したユーザの操作に基づいて表示制御部12の制御により切り替えられる。以下、表示制御部12による表示モードの切替処理の各実施例について説明する。
<3. Display mode>
The image display system 120 has a plurality of display modes for displaying a navigation mode, a captured image acquired by the imaging unit 5 and a composite image synthesized by the composite image generation unit 32. These display modes are switched by the control of the display control unit 12 based on the traveling state of the vehicle 9, the position of the shift lever, the user's operation via the operation unit 22, the touch panel of the display 21, and the like. Hereinafter, each embodiment of the display mode switching process by the display control unit 12 will be described.

<4.第1の実施例>
図5は、表示制御部12により切り替わる表示モードの状態遷移図の第1例の説明図である。ナビモードST10は、ナビゲーション装置20の機能により、ナビゲーション案内用の地図画像などをディスプレイ21に表示する動作モードである。ナビモードST10では、図6に示すような経路案内のためのナビゲーション表示Dnがディスプレイ21上に表示される。
<4. First Example>
FIG. 5 is an explanatory diagram of a first example of a state transition diagram of the display mode switched by the display control unit 12. The navigation mode ST <b> 10 is an operation mode in which a map image for navigation guidance is displayed on the display 21 by the function of the navigation device 20. In the navigation mode ST10, a navigation display Dn for route guidance as shown in FIG.

図5を参照する。例えば、シフトレバーの位置が「R」ポジションとなると、表示制御部12は、表示モードをバックモードST20へ遷移させる。シフトレバーの位置が「R」ポジション以外になると、表示制御部12は、表示モードをナビモードST10へ復帰させる。   Please refer to FIG. For example, when the position of the shift lever reaches the “R” position, the display control unit 12 changes the display mode to the back mode ST20. When the position of the shift lever is other than the “R” position, the display control unit 12 returns the display mode to the navigation mode ST10.

また、例えばシフトレバーの位置が「R」ポジション以外のポジションであり、かつ車両9の速度が所定速度V1未満であるとき、表示制御部12は、表示モードをフロントモードST30へ遷移させる。車両9の速度が所定速度V1以上であるとき、表示制御部12は、表示モードをナビモードST10へ復帰させる。   For example, when the position of the shift lever is a position other than the “R” position and the speed of the vehicle 9 is less than the predetermined speed V1, the display control unit 12 changes the display mode to the front mode ST30. When the speed of the vehicle 9 is equal to or higher than the predetermined speed V1, the display control unit 12 returns the display mode to the navigation mode ST10.

なお、フロントモードST30中にシフトレバーの位置が「R」ポジションになったとき、表示制御部12は、表示モードをバックモードST20へ直接遷移させてもよい。また、バックモードST20中にシフトレバーの位置が「R」ポジション以外のポジションになり、かつ車両9の速度が所定速度V1未満であるとき、表示制御部12は、表示モードをフロントモードST30へ直接遷移させてもよい。   When the position of the shift lever becomes the “R” position during the front mode ST30, the display control unit 12 may directly transition the display mode to the back mode ST20. Further, when the position of the shift lever is a position other than the “R” position during the back mode ST20 and the speed of the vehicle 9 is less than the predetermined speed V1, the display control unit 12 directly changes the display mode to the front mode ST30. You may make a transition.

また、例えばシフトレバーの位置が「R」ポジション以外のポジションであり、操作部22がユーザから所定の操作を受け付けたとき、表示制御部12は、表示モードを周囲確認モードST40へ遷移させる。所定の操作は、例えばハードスイッチの長押しであってよい。以下の説明及び図面において、ハードスイッチを「ハードSW」と表記することがある。   For example, when the position of the shift lever is a position other than the “R” position and the operation unit 22 receives a predetermined operation from the user, the display control unit 12 transitions the display mode to the surrounding confirmation mode ST40. The predetermined operation may be a long press of a hard switch, for example. In the following description and drawings, the hard switch may be referred to as “hard SW”.

また、操作部22がユーザから所定の復帰操作を受け付けたとき、表示制御部12は、表示モードをナビモードST10へ復帰させる。例えば、所定の復帰操作もハードSWの長押しであってよい。   When the operation unit 22 receives a predetermined return operation from the user, the display control unit 12 returns the display mode to the navigation mode ST10. For example, the predetermined return operation may also be a long press of the hard SW.

バックモードST20又はフロントモードST30中に、操作部22がユーザから所定の操作を受け付けたとき、表示制御部12は、表示モードを周囲確認モードST40へ遷移させてよい。このとき表示制御部12は、遷移元の表示モードを記憶する。操作部22がユーザから所定の復帰操作を受け付けたとき、表示制御部12は、表示モードを元の表示モードへ復帰させる。   When the operation unit 22 receives a predetermined operation from the user during the back mode ST20 or the front mode ST30, the display control unit 12 may change the display mode to the surrounding confirmation mode ST40. At this time, the display control unit 12 stores the display mode of the transition source. When the operation unit 22 receives a predetermined return operation from the user, the display control unit 12 returns the display mode to the original display mode.

続いて、各モードST20、ST30及びST40における表示内容について説明する。バックモードST20は、バックモード用2画面表示状態ST21、第1バックカメラ画像表示状態ST22及び第2バックカメラ画像表示状態ST23の表示モードを有する。   Next, display contents in each mode ST20, ST30, and ST40 will be described. The back mode ST20 has display modes of a back mode two-screen display state ST21, a first back camera image display state ST22, and a second back camera image display state ST23.

操作部22のハードSWやディスプレイ21のタッチパネルに設定されたソフトスイッチ等として設けられた所定のカメラスイッチが操作されると、表示制御部12は、表示モードを状態ST21〜ST23間で遷移させる。以下の説明及び図面において、カメラスイッチを「カメラSW」と表記することがある。   When a predetermined camera switch provided as a hard switch of the operation unit 22 or a soft switch set on the touch panel of the display 21 is operated, the display control unit 12 changes the display mode between the states ST21 to ST23. In the following description and drawings, the camera switch may be referred to as “camera SW”.

図7は、バックモード用2画面表示状態ST21における表示内容の例を示す図である。参照符号V0は、ディスプレイ21上に所定の全画面表示を行う際の表示範囲を示す。以下の説明において、所定の全画面表示を行う際の表示範囲V0を、「全画面V0」を表記することがある。全画面V0は、ディスプレイ21の表示画面全体であってよい。また、所定の全画面表示においてディスプレイ21の表示画面全体の内側に所定のマージンを設けて全画面V0を表示する等の場合のように、全画面V0は、ディスプレイ21の表示画面全体よりもやや小さい領域であってもよい。バックモード用2画面表示Dtbは、全画面V0内に第1領域R1及び第2領域R2を有する。表示制御部12は、第1領域R1に、車両9の周辺全体の俯瞰画像CPwの合成画像を表示する。   FIG. 7 is a diagram illustrating an example of display contents in the back-mode two-screen display state ST21. Reference numeral V0 indicates a display range when a predetermined full screen display is performed on the display 21. In the following description, the display range V0 when performing a predetermined full screen display may be expressed as “full screen V0”. The full screen V0 may be the entire display screen of the display 21. In addition, the full screen V0 is slightly more than the entire display screen of the display 21 as in the case of displaying the full screen V0 with a predetermined margin inside the entire display screen of the display 21 in the predetermined full screen display. It may be a small area. The back mode two-screen display Dtb has a first region R1 and a second region R2 in the entire screen V0. The display control unit 12 displays a composite image of the overhead image CPw of the entire periphery of the vehicle 9 in the first region R1.

また、表示制御部12は、バックカメラ52の撮影画像もしくは車両9の周辺全体の俯瞰画像の部分画像を第2領域R2に表示する。図7に示す表示例では、バックカメラ52の撮影画像Pb1が第2領域R2に表示されている。表示制御部12によって実行される、第2領域R2内における表示内容の切替処理については後述する。   In addition, the display control unit 12 displays a captured image of the back camera 52 or a partial image of the bird's-eye view image of the entire periphery of the vehicle 9 in the second region R2. In the display example shown in FIG. 7, the captured image Pb1 of the back camera 52 is displayed in the second region R2. The display content switching process in the second region R2 executed by the display control unit 12 will be described later.

図8の(A)及び図8の(B)は、それぞれ第1バックカメラ画像表示状態ST22、及び第2バックカメラ画像表示状態ST23における表示内容の例を示す図である。第1バックカメラ画像表示状態ST22における画面表示(以下、「第1バックカメラ画像表示」と表記することがある)Db1は、ディスプレイ21上の全画面V0に表示されるバックカメラ52の撮影画像Pb1の全画面表示を含む。   FIGS. 8A and 8B are diagrams illustrating examples of display contents in the first back camera image display state ST22 and the second back camera image display state ST23, respectively. A screen display (hereinafter sometimes referred to as “first back camera image display”) Db1 in the first back camera image display state ST22 is a captured image Pb1 of the back camera 52 displayed on the full screen V0 on the display 21. Including full screen display.

第2バックカメラ画像表示状態ST23における画面表示(以下、「第2バックカメラ画像表示」と表記することがある)Db2は、全画面V0に表示されるバックカメラ52の撮影画像Pb2の全画面表示を含む。画像Pb1と画像Pb2とは画角が相違する。   The screen display (hereinafter sometimes referred to as “second back camera image display”) Db2 in the second back camera image display state ST23 is a full screen display of the captured image Pb2 of the back camera 52 displayed on the full screen V0. including. The angle of view is different between the image Pb1 and the image Pb2.

図5を参照する。フロントモードST30は、フロントモード用2画面表示状態ST31、フロントカメラ画像表示状態ST32及びサイドカメラ画像表示状態ST33の表示モードを有する。カメラSWが操作されると、表示制御部12は、表示モードを状態ST31〜ST33間で遷移させる。   Please refer to FIG. The front mode ST30 has display modes of a front mode two-screen display state ST31, a front camera image display state ST32, and a side camera image display state ST33. When the camera SW is operated, the display control unit 12 changes the display mode between the states ST31 to ST33.

図9は、フロントモード用2画面表示状態ST31における表示内容の例を示す図である。フロントモード用2画面表示Dtfは、全画面V0内に第1領域R1及び第2領域R2を有する。表示制御部12は、第1領域R1に、車両9の周辺全体の俯瞰画像CPwの合成画像を表示する。   FIG. 9 is a diagram showing an example of display contents in the front mode two-screen display state ST31. The front mode two-screen display Dtf has a first region R1 and a second region R2 in the entire screen V0. The display control unit 12 displays a composite image of the overhead image CPw of the entire periphery of the vehicle 9 in the first region R1.

また、表示制御部12は、フロントカメラ51の撮影画像もしくは車両9の周辺全体の俯瞰画像の部分画像を第2領域R2に表示する。図9に示す表示例では、フロントカメラ51により撮影されたブラインドコーナーモニタ(BCM: Blind Corner Monitor)画像Pf1が第2領域R2に表示されている。表示制御部12によって実行される、第2領域R2内における表示内容の切替処理については後述する。   In addition, the display control unit 12 displays a captured image of the front camera 51 or a partial image of an overhead image of the entire periphery of the vehicle 9 in the second region R2. In the display example shown in FIG. 9, a blind corner monitor (BCM: Blind Corner Monitor) image Pf1 photographed by the front camera 51 is displayed in the second region R2. The display content switching process in the second region R2 executed by the display control unit 12 will be described later.

図10の(A)及び図10の(B)は、フロントカメラ画像表示状態ST32及びサイドカメラ映像表示状態ST33における表示内容の例を示す図である。フロントカメラ画像表示状態ST32における画面表示(以下、「フロントカメラ画像表示」と表記することがある)Dfは、BCM画像Pf1と、車両9の後方の任意の仮想視点から車両9の周辺全体を見渡す合成画像Pf2の表示を含む。   FIGS. 10A and 10B are diagrams illustrating examples of display contents in the front camera image display state ST32 and the side camera video display state ST33. The screen display (hereinafter sometimes referred to as “front camera image display”) Df in the front camera image display state ST32 overlooks the entire periphery of the vehicle 9 from the BCM image Pf1 and an arbitrary virtual viewpoint behind the vehicle 9. Including the display of the composite image Pf2.

サイドカメラ画像表示状態ST33における画面表示(以下、「サイドカメラ画像表示」と表記することがある)Dsは、左右のサイドカメラ53によりそれぞれ撮影された画像Ps1及びPs2の表示を含む。   The screen display (hereinafter sometimes referred to as “side camera image display”) Ds in the side camera image display state ST33 includes displays of images Ps1 and Ps2 captured by the left and right side cameras 53, respectively.

続いて、周囲確認モードST40における表示内容を説明する。図11に、周囲確認モードST40における表示内容の例を示す。周囲確認モードST40における画面表示(以下、「全周囲確認表示」と表記することがある)Dcは、車両9の周囲の風景を含めた立体的俯瞰映像の表示を含む。   Next, display contents in the surrounding confirmation mode ST40 will be described. FIG. 11 shows an example of display contents in the surrounding confirmation mode ST40. The screen display (hereinafter sometimes referred to as “all-around confirmation display”) Dc in the surrounding confirmation mode ST <b> 40 includes display of a stereoscopic bird's-eye view image including the scenery around the vehicle 9.

次に、バックモード用2画面表示状態ST21及びフロントモード用2画面表示状態ST31における、第2領域R2の表示の切り替えについて説明する。図12は、バックモード用2画面表示状態ST21における表示切替処理の第1例のフローチャートである。   Next, switching of the display of the second region R2 in the back mode two-screen display state ST21 and the front mode two-screen display state ST31 will be described. FIG. 12 is a flowchart of a first example of the display switching process in the back-mode two-screen display state ST21.

なお、他の実施態様においては、下記のオペレーションAA〜AGの各オペレーションはステップであってもよい。オペレーションAAにおいて表示制御部12は、バックモード用2画面表示Dtbをディスプレイ21に表示する。表示されたバックモード用2画面表示Dtbを図13に示す。   In other embodiments, the following operations AA to AG may be steps. In operation AA, the display control unit 12 displays the back mode two-screen display Dtb on the display 21. The displayed back mode two-screen display Dtb is shown in FIG.

第1領域R1に表示される俯瞰画像CPwは、複数の区画の領域A0〜A8に分割されている。なお、図13において点線で示した各領域を示す境界線は、ディスプレイ21に実際に表示してもしなくてもよい。他の実施例についても同様である。   The overhead image CPw displayed in the first region R1 is divided into a plurality of partitioned regions A0 to A8. Note that the boundary lines indicating the regions indicated by dotted lines in FIG. 13 may or may not be actually displayed on the display 21. The same applies to the other embodiments.

図12を参照する。オペレーションABにおいて表示制御部12は、カメラSWのタッチによるユーザの入力があったか否かを判定する。カメラSWがタッチされた場合(オペレーションAB:Y)、処理はオペレーションAGへ移行する。オペレーションAGにおいて表示制御部12は、表示モードを第1バックカメラ画像表示状態ST22へ遷移させて処理を終了する。   Please refer to FIG. In operation AB, the display control unit 12 determines whether or not there is a user input by touching the camera SW. When the camera SW is touched (operation AB: Y), the process proceeds to operation AG. In operation AG, the display control unit 12 changes the display mode to the first back camera image display state ST22 and ends the process.

カメラSWがタッチされていない場合(オペレーションAB:N)、処理はオペレーションACへ移行する。オペレーションACにおいて表示制御部12は、ディスプレイ21のタッチパネルの操作により、第1領域R1をタッチするユーザの入力があったか否かを判定する。   If the camera SW has not been touched (operation AB: N), the process proceeds to operation AC. In operation AC, the display control unit 12 determines whether or not there is an input from the user who touches the first region R1 by operating the touch panel of the display 21.

第1領域R1がタッチされた場合(オペレーションAC:Y)、処理はオペレーションADへ移行する。第1領域R1がタッチされていない場合(オペレーションAC:N)、処理はオペレーションABへ戻る。   When the first region R1 is touched (operation AC: Y), the process proceeds to operation AD. If the first region R1 is not touched (operation AC: N), the processing returns to operation AB.

表示制御部12は、図13に示す第1領域R1内の各領域A0〜A8のいずれをユーザがタッチしたかに応じて、第2領域R2内の表示画像を切り替える。ユーザがタッチした領域と第2領域R2内の表示画像の対応関係を以下に示す。   The display control unit 12 switches the display image in the second region R2 according to which of the regions A0 to A8 in the first region R1 illustrated in FIG. 13 is touched by the user. The correspondence relationship between the area touched by the user and the display image in the second area R2 is shown below.

領域A0:バックモード用2画面表示状態ST21へ遷移時にデフォルト表示するように指定された画像(例えば、バックカメラ52の撮影画像Pb1であってよい)
車両左前方の領域A1:車両左前方を真上から拡大して見た拡大俯瞰画像の合成画像
車両前方の領域A2:車両前方を真上から拡大して見た拡大俯瞰画像の合成画像
車両右前方の領域A3:車両右前方を真上から拡大して見た拡大俯瞰画像の合成画像
車両左側方の領域A4:車両左側方を真上から拡大して見た拡大俯瞰画像の合成画像
車両右側方の領域A5:車両右側方を真上から拡大して見た拡大俯瞰画像の合成画像
車両左後方の領域A6:車両左後方を真上から拡大して見た拡大俯瞰画像の合成画像
車両後方の領域A7:車両後方を真上から拡大して見た拡大俯瞰画像の合成画像
車両右後方の領域A8:車両右後方を真上から拡大して見た拡大俯瞰画像の合成画像
Area A0: an image designated to be displayed by default at the time of transition to the back mode two-screen display state ST21 (for example, it may be a captured image Pb1 of the back camera 52)
Vehicle left front area A1: Composite image of enlarged overhead view seen from right above the vehicle left front area Vehicle front area A2: Composite image of enlarged bird's eye view seen from right above the vehicle right Front area A3: a composite image of an enlarged overhead image viewed from right above the vehicle right front area A4: a composite image of an enlarged overhead image viewed from the vehicle left side A4: right side of the vehicle right side of the vehicle Area A5: a composite image of an enlarged overhead image viewed from right above the vehicle right side area A6: a composite image of an enlarged overhead image viewed from right above the vehicle left rear area A6: vehicle rear Region A7: Composite image of an enlarged overhead view seen from right above the vehicle rear region A8: Composite image of an enlarged overhead image seen right above the vehicle right rear region A8:

図12を参照する。オペレーションADにおいて表示制御部12は、タッチされた領域が、デフォルト表示画像を指定する領域であったか否かを判定する。本例では表示制御部12は、タッチされた領域が、領域A0であるか否かを判定する。タッチされた領域が、デフォルト表示画像を指定する領域でない場合(オペレーションAD:N)、処理はオペレーションAEへ移行する。そうでない場合(オペレーションAD:Y)には、処理はオペレーションAFへ移行する。   Please refer to FIG. In operation AD, the display control unit 12 determines whether the touched area is an area for designating a default display image. In this example, the display control unit 12 determines whether or not the touched area is the area A0. If the touched area is not an area for designating a default display image (operation AD: N), the process proceeds to operation AE. Otherwise (operation AD: Y), the process proceeds to operation AF.

オペレーションAEにおいて合成画像生成部32は、タッチされた領域に応じて上記の対応関係に基づき定まる拡大俯瞰画像を生成する。表示制御部12は、合成画像生成部32が生成した拡大俯瞰画像を第2領域R2へ表示する。その後処理はオペレーションABへ戻る。   In operation AE, the composite image generation unit 32 generates an enlarged overhead image determined based on the correspondence relationship according to the touched area. The display control unit 12 displays the enlarged overhead image generated by the composite image generation unit 32 in the second region R2. Thereafter, the processing returns to operation AB.

拡大俯瞰画像が第2領域R2へ表示された状態を図14に示す。本例では、ユーザが車両左後方の領域A6をタッチしたことに応答して、車両左後方を真上から見た拡大俯瞰画像CP6が第2領域R2へ表示される。   FIG. 14 shows a state where the enlarged overhead image is displayed in the second region R2. In this example, in response to the user touching the area A6 on the left rear side of the vehicle, an enlarged bird's-eye view image CP6 as seen from directly above the left rear side of the vehicle is displayed in the second area R2.

なお、合成画像生成部32は、拡大俯瞰画像CP6内に、拡大俯瞰画像における実物の大きさを示す寸法線70を挿入してよい。寸法線70を表示することにより、ユーザが車体と障害物との間の距離感を掴み易くする。なお、後述の他の実施例においても拡大俯瞰画像に寸法線を入れてもよい。   Note that the composite image generation unit 32 may insert a dimension line 70 indicating the actual size of the enlarged overhead image into the enlarged overhead image CP6. By displaying the dimension line 70, the user can easily grasp the sense of distance between the vehicle body and the obstacle. In other examples described later, dimension lines may be inserted in the enlarged overhead view image.

図12を参照する。オペレーションAFにおいて表示制御部12は、バックモード用2画面表示状態ST21へ遷移時にデフォルト表示するように指定された画像を第2領域R2へ表示する。本例では表示制御部12は、バックカメラ52の撮影画像Pb1を第2領域R2へ表示する。その後処理はオペレーションABへ戻る。   Please refer to FIG. In operation AF, the display control unit 12 displays, in the second region R2, an image designated to be displayed by default at the time of transition to the back mode two-screen display state ST21. In this example, the display control unit 12 displays the captured image Pb1 of the back camera 52 in the second region R2. Thereafter, the processing returns to operation AB.

次に、図12に示す処理において第2領域R2内の表示を切り替える際のアニメーション表示について説明する。例えば、第2領域R2の表示画像を、デフォルト表示されていたバックカメラ52の撮影画像Pb1から、車両左後方の拡大俯瞰画像CP6へ切り替える場合について検討する。   Next, animation display when switching the display in the second region R2 in the process shown in FIG. 12 will be described. For example, consider a case where the display image of the second region R2 is switched from the captured image Pb1 of the back camera 52 that has been displayed by default to the enlarged overhead image CP6 on the left rear side of the vehicle.

撮影画像Pb1から拡大俯瞰画像CP6へ直接表示を切り替えると、ユーザは、車両9の周辺のどこが拡大表示されているかを見失うことが考えられる。この場合にユーザは、自分の意図通りに操作が受け付けられたか否かに不安を覚えることになる。   If the display is switched directly from the captured image Pb1 to the enlarged overhead image CP6, the user may lose sight of what is enlarged and displayed around the vehicle 9. In this case, the user is anxious about whether or not the operation is accepted as intended.

そこで本実施例では、第2領域R2内の表示画像を切り替える場合には、切替前の画像から車両周辺全体の俯瞰画像CPwまで視点位置が連続的に変化するアニメーションを表示した後に、俯瞰画像CPwから切替後の画像まで視点位置が連続的に変化するアニメーションを表示する。   Therefore, in this embodiment, when the display image in the second region R2 is switched, an overhead image CPw is displayed after displaying an animation in which the viewpoint position continuously changes from the image before the switching to the overhead image CPw of the entire vehicle periphery. The animation in which the viewpoint position continuously changes from the image to the image after switching is displayed.

このように、いったん車両周辺全体の俯瞰画像CPwまで連続的に視点を変えてから、切替後の画像へ連続的に変化することにより、ユーザは何処が拡大されているか容易に理解できるようになる。このため、自分の意図通りに表示処理が実行されることが把握しやすくなる。   As described above, once the viewpoint is continuously changed to the bird's-eye view image CPw of the entire vehicle periphery and then continuously changed to the image after switching, the user can easily understand where the image is enlarged. . For this reason, it becomes easy to grasp that the display process is executed as intended.

図15の(A)〜図15の(C)は、第2領域R2の表示の変化例の説明図である。いま、第2領域R2の表示切り替え前の状態において、図15の(A)に示すようなバックカメラ52の撮影画像Pb1が第2領域R2内に表示されている場合を想定する。   FIG. 15A to FIG. 15C are explanatory diagrams of a display change example of the second region R2. Now, it is assumed that the captured image Pb1 of the back camera 52 as shown in FIG. 15A is displayed in the second region R2 in the state before the display switching of the second region R2.

表示制御部12が、第2領域R2の表示画像を拡大俯瞰画像CP6へ切り替える場合、ディスプレイ21には、図15の(A)に示す撮影画像Pb1から、図15の(B)に示す車両周辺全体の俯瞰画像CPwまで連続的に変化するアニメーションが表示される。その後、ディスプレイ21には、俯瞰画像CPwから図15の(C)に示す拡大俯瞰画像CP6まで連続的に変化するアニメーションが表示される。   When the display control unit 12 switches the display image of the second region R2 to the enlarged overhead view image CP6, the display 21 displays the surroundings of the vehicle shown in FIG. 15B from the captured image Pb1 shown in FIG. An animation that continuously changes to the entire overhead view image CPw is displayed. After that, the display 21 displays an animation that continuously changes from the overhead image CPw to the enlarged overhead image CP6 shown in FIG.

図16の(A)は、アニメーションの表示処理のフローチャートである。なお、他の実施態様においては、下記のオペレーションBA及びBBの各オペレーションはステップであってもよい。   FIG. 16A is a flowchart of an animation display process. In other embodiments, the following operations BA and BB may be steps.

オペレーションBAにおいて合成画像生成部32は、バックカメラ52の撮影画像Pb1の視点から見た画像から、車両周辺全体の俯瞰画像CPwの仮想視点から見た画像まで連続的に変化するアニメーションの各中間画像を生成する。表示制御部12は、合成画像生成部32により生成された中間画像を順次表示する。   In operation BA, the composite image generation unit 32 continuously displays each intermediate image of the animation that continuously changes from the image viewed from the viewpoint of the captured image Pb1 of the back camera 52 to the image viewed from the virtual viewpoint of the overhead image CPw of the entire vehicle periphery. Is generated. The display control unit 12 sequentially displays the intermediate images generated by the composite image generation unit 32.

オペレーションBBにおいて合成画像生成部32は、車両周辺全体の俯瞰画像CPwの仮想視点から見た画像から、拡大俯瞰画像CP6の仮想視点からみた画像まで連続的に変化するアニメーションの各中間画像を生成する。表示制御部12は、合成画像生成部32により生成された中間画像を順次表示する。   In operation BB, the composite image generation unit 32 generates each intermediate image of an animation that continuously changes from the image viewed from the virtual viewpoint of the overhead image CPw of the entire vehicle periphery to the image viewed from the virtual viewpoint of the enlarged overhead image CP6. . The display control unit 12 sequentially displays the intermediate images generated by the composite image generation unit 32.

図16の(B)は、仮想視点をある起点から終点まで移動させたときの合成画像のアニメーションの中間画像を表示する処理のフローチャートである。なお、他の実施態様においては、下記のオペレーションCA〜CEの各オペレーションはステップであってもよい。   FIG. 16B is a flowchart of processing for displaying an intermediate image of the animation of the composite image when the virtual viewpoint is moved from a certain starting point to an ending point. In other embodiments, the operations CA to CE described below may be steps.

オペレーションCAにおいて画像制御部11は、移動の起点における仮想視点の視点位置Vpp、視野方向Opを合成画像生成部32に設定する。オペレーションCBにおいて画像制御部11は、移動の終点における仮想視点の視点位置Vfp、視野方向Ofを合成画像生成部32に設定する。   In operation CA, the image control unit 11 sets the viewpoint position Vpp and the visual field direction Op of the virtual viewpoint at the movement start point in the composite image generation unit 32. In operation CB, the image control unit 11 sets the viewpoint position Vfp and the visual field direction Of of the virtual viewpoint at the end point of the movement in the composite image generation unit 32.

オペレーションCAにおいて合成画像生成部32は、移動の途中点における仮想視点の視点位置Vpm、視野方向Omを決定する。例えば、途中点における仮想視点の決定は以下の通りであってよい。   In operation CA, the composite image generating unit 32 determines the viewpoint position Vpm and the visual field direction Om of the virtual viewpoint at the midpoint of movement. For example, the determination of the virtual viewpoint at the midpoint may be as follows.

本実施例では、視点Vpmの座標を、車両9に相対的に固定される3次元直交座標系によって表現する。起点位置Vppの座標を(Xp,Yp,Zp)とし、終点位置Vfpの座標を(Xf,Yf,Zf)とする。また、視点位置の移動にかける時間をT(秒)とし、フレームレートをF(fps)とする。合成画像生成部32は、各フレームにおける中間点の仮想視点の座標を、以下のように起点及び終点間の補間処理によって決定する。   In this embodiment, the coordinates of the viewpoint Vpm are expressed by a three-dimensional orthogonal coordinate system that is relatively fixed to the vehicle 9. The coordinates of the start position Vpp are (Xp, Yp, Zp), and the coordinates of the end position Vfp are (Xf, Yf, Zf). Also, the time taken to move the viewpoint position is T (seconds), and the frame rate is F (fps). The composite image generation unit 32 determines the coordinates of the virtual viewpoint at the intermediate point in each frame by interpolation between the start point and the end point as follows.

合成画像生成部32は、仮想視点のX軸方向、Y軸方向及びZ軸方向のそれぞれの移動距離Dx、Dy及びDzを次式によって算出する。   The composite image generation unit 32 calculates the movement distances Dx, Dy, and Dz of the virtual viewpoint in the X-axis direction, the Y-axis direction, and the Z-axis direction by the following equations.

Dx=Xf−Xp
Dy=Yf−Yp
Dz=Zf−Zp
Dx = Xf-Xp
Dy = Yf−Yp
Dz = Zf-Zp

合成画像生成部32は、X軸方向、Y軸方向及びZ軸方向の1フレーム当たりのそれぞれの平均移動量mx、my及びmzを次式によって算出する。   The composite image generation unit 32 calculates the average movement amounts mx, my, and mz per frame in the X-axis direction, the Y-axis direction, and the Z-axis direction by the following equations.

mx=Dx/(F×T)
my=Dy/(F×T)
mz=Dz/(F×T)
mx = Dx / (F × T)
my = Dy / (F × T)
mz = Dz / (F × T)

合成画像生成部32は、移動途中の視点位置VpmのX座標Xn、Y座標Yn及びZ座標Znを次式によって算出する。   The composite image generation unit 32 calculates the X coordinate Xn, the Y coordinate Yn, and the Z coordinate Zn of the viewpoint position Vpm during the movement by the following expression.

Xn=Xn-1+α×mx
Yn=Yn-1+α×my
Zn=Zn-1+α×mz
Xn = X n-1 + α × mx
Yn = Y n-1 + α × my
Zn = Z n-1 + α × mz

上式のXn-1、Yn-1及びZn-1は、それぞれ1フレーム前の視点位置VpmのX座標、Y座標及びZ座標である。またαは、仮想視点の移動速度の係数である。 X n−1 , Y n−1 and Z n−1 in the above expression are the X coordinate, Y coordinate and Z coordinate of the viewpoint position Vpm one frame before, respectively. Α is a coefficient of the moving speed of the virtual viewpoint.

移動の途中点における仮想視点の視野方向Omについても、同様の補間処理によって決定することができる。   The viewing direction Om of the virtual viewpoint at the midpoint of movement can also be determined by the same interpolation process.

オペレーションCDにおいて合成画像生成部32は、オペレーションCCで決定された仮想視点から見た合成画像を生成する。表示制御部12は、合成画像生成部32により生成された画像を順次表示する。   In operation CD, the composite image generation unit 32 generates a composite image viewed from the virtual viewpoint determined in operation CC. The display control unit 12 sequentially displays the images generated by the composite image generation unit 32.

オペレーションCEにおいて、合成画像生成部32はオペレーションCCで算出した途中点が終点に至ったか否かを判定する。途中点が終点に至った場合(オペレーションCE:Y)、処理は終了する。途中点が終点に至らない場合(オペレーションCE:N)、処理はオペレーションCCへ戻る。   In operation CE, the composite image generation unit 32 determines whether the midpoint calculated in operation CC has reached the end point. When the midpoint reaches the end point (operation CE: Y), the process ends. When the midpoint does not reach the end point (operation CE: N), the processing returns to operation CC.

なお、第2領域R2内の表示画像を拡大俯瞰画像からバックカメラ52の撮影画像Pb1へ切り替える際にも、上記と同様に、車両周辺全体の俯瞰画像CPwを経由して変化するアニメーションを表示してもよい。さらに、第2領域R2内の表示画像をある拡大俯瞰画像から他の拡大俯瞰画像へ切り替える際にも、上記と同様に俯瞰画像CPwを経由して変化するアニメーションを表示してもよい。   In addition, when switching the display image in the second region R2 from the enlarged bird's-eye view image to the captured image Pb1 of the back camera 52, an animation that changes via the bird's-eye view image CPw of the entire vehicle periphery is displayed as described above. May be. Furthermore, when switching the display image in the second region R2 from one enlarged overhead image to another enlarged overhead image, an animation that changes via the overhead image CPw may be displayed in the same manner as described above.

以上、バックモード用2画面表示状態ST21における第2領域R2の表示の切り替えについて説明した。フロントモード用2画面表示状態ST31における第2領域R2の表示の切り替えも、上記説明と同様であってよい。   The switching of the display of the second region R2 in the back mode two-screen display state ST21 has been described above. The switching of the display of the second region R2 in the front mode two-screen display state ST31 may be the same as described above.

<5.第2の実施例>
続いて、バックモード用2画面表示状態ST21において、第1領域R1に表示された俯瞰画像CPwがタッチされた場合の表示処理の他の実施例を説明する。本実施例では、俯瞰画像CPwがタッチされた場合に、拡大俯瞰画像を全画面V0に全画面表示する。
<5. Second Embodiment>
Next, another example of the display process when the overhead image CPw displayed in the first region R1 is touched in the back mode two-screen display state ST21 will be described. In this embodiment, when the bird's-eye view image CPw is touched, the enlarged bird's-eye view image is displayed on the full screen V0 on the full screen.

図17は、バックモード用2画面表示状態ST21における表示切替処理の第2例のフローチャートである。なお、フロントモード用2画面表示状態ST31における処理も同様であってよい。また、他の実施態様においては、下記のオペレーションDA〜DHの各オペレーションはステップであってもよい。   FIG. 17 is a flowchart of a second example of the display switching process in the back-mode two-screen display state ST21. The process in the front mode two-screen display state ST31 may be the same. In other embodiments, the following operations DA to DH may be steps.

オペレーションDAにおいて表示制御部12は、バックモード用2画面表示Dtbをディスプレイ21に表示する。表示されたバックモード用2画面表示Dtbを図18の(A)に示す。図18の(A)の表示内容は、図13を参照して説明したバックモード用2画面表示Dtbと同様である。本例では、状態ST21に遷移した直後には、デフォルト表示するように指定されたバックカメラ52の撮影画像Pb1が第2領域R2に表示されている。   In operation DA, the display control unit 12 displays the back mode two-screen display Dtb on the display 21. The displayed back mode two-screen display Dtb is shown in FIG. The display content of FIG. 18A is the same as the back-mode two-screen display Dtb described with reference to FIG. In this example, immediately after the transition to the state ST21, the photographed image Pb1 of the back camera 52 designated to be displayed by default is displayed in the second region R2.

図17を参照する。オペレーションDBにおいて表示制御部12は、カメラSWのタッチによるユーザの入力があったか否かを判定する。カメラSWがタッチされた場合(オペレーションDB:Y)、処理はオペレーションDHへ移行する。オペレーションDHにおいて表示制御部12は、表示モードを第1バックカメラ画像表示状態ST22へ遷移させて処理を終了する。   Refer to FIG. In the operation DB, the display control unit 12 determines whether or not there is a user input by touching the camera SW. When the camera SW is touched (operation DB: Y), the process proceeds to operation DH. In operation DH, the display control unit 12 changes the display mode to the first back camera image display state ST22 and ends the process.

カメラSWがタッチされていない場合(オペレーションDB:N)、処理はオペレーションDCへ移行する。オペレーションDCにおいて表示制御部12は、ディスプレイ21のタッチパネルの操作により、第1領域R1をタッチするユーザの入力があったか否かを判定する。   If the camera SW is not touched (operation DB: N), the process proceeds to operation DC. In operation DC, the display control unit 12 determines whether or not there is an input from the user who touches the first region R1 by operating the touch panel of the display 21.

第1領域R1がタッチされた場合(オペレーションDC:Y)、処理はオペレーションDDへ移行する。第1領域R1がタッチされていない場合(オペレーションDC:N)、処理はオペレーションDBへ戻る。   When the first region R1 is touched (operation DC: Y), the process proceeds to operation DD. If the first region R1 is not touched (operation DC: N), the process returns to the operation DB.

オペレーションDDにおいて合成画像生成部32は、第1領域R1内の分割領域A0〜A8のうちユーザによりタッチされた領域を真上から拡大して見た拡大俯瞰画像を生成する。表示制御部12は、合成画像生成部32が生成した拡大俯瞰画像を全画面表示する。   In operation DD, the composite image generation unit 32 generates an enlarged overhead image obtained by enlarging an area touched by the user from among the divided areas A0 to A8 in the first area R1. The display control unit 12 displays the enlarged overhead image generated by the composite image generation unit 32 in full screen.

拡大俯瞰画像がディスプレイ21の全画面V0に、全画面表示された状態を図18の(B)に示す。本例では、ユーザが車両左後方の領域A6をタッチしたことに応答して、車両左後方を真上から見た拡大俯瞰画像CP6が全画面表示される。また、後述する「戻るボタン」71も全画面V0内に表示されている。   FIG. 18B shows a state where the enlarged overhead image is displayed on the full screen V0 of the display 21. In this example, in response to the user touching the area A6 on the left rear side of the vehicle, an enlarged overhead image CP6 obtained by viewing the left rear side of the vehicle from directly above is displayed in full screen. A “return button” 71 described later is also displayed in the full screen V0.

図17を参照する。オペレーションDEにおいて表示制御部12は、タッチパネルにタッチするユーザの入力があったか否かを判定する。タッチパネルがタッチされた場合(オペレーションDE:Y)、処理はオペレーションDFへ移行する。タッチパネルがタッチされない場合(オペレーションDE:N)、処理はオペレーションDEへ戻る。   Refer to FIG. In operation DE, the display control unit 12 determines whether or not there is an input from the user who touches the touch panel. When the touch panel is touched (operation DE: Y), the process proceeds to operation DF. If the touch panel is not touched (operation DE: N), the process returns to operation DE.

オペレーションDFにおいて表示制御部12は、タッチされた箇所が戻るボタン71であったか否かを判定する。戻るボタン71がタッチされた場合(オペレーションDF:Y)、処理はオペレーションDAへ戻る。タッチされた箇所が戻るボタン71でない場合(オペレーションDF:N)、処理はオペレーションDGへ移る。   In operation DF, the display control unit 12 determines whether or not the touched portion is the return button 71. When the return button 71 is touched (operation DF: Y), the processing returns to operation DA. If the touched location is not the return button 71 (operation DF: N), the process proceeds to operation DG.

オペレーションDGにおいて合成画像生成部32は、タッチされた拡大俯瞰画像上の位置に応じて、全画面表示する拡大俯瞰画像の視点の位置を変更する。その後処理は、オペレーションDEへ戻る。   In operation DG, the composite image generation unit 32 changes the position of the viewpoint of the enlarged overhead image displayed on the full screen according to the touched position on the enlarged overhead image. Thereafter, the processing returns to operation DE.

本実施例によれば、車両周辺の任意の箇所を拡大して示す俯瞰画像を、表示画面に全画面表示することが可能となる。このため、ユーザが車体と障害物との間のクリアランスを確認する際に、障害物との間の距離感を掴みやすくなる。   According to the present embodiment, it is possible to display a bird's-eye view image showing an arbitrary portion around the vehicle in full screen on the display screen. For this reason, when the user confirms the clearance between the vehicle body and the obstacle, it is easy to grasp the sense of distance between the obstacle.

続いて、図17に示す表示処理においてオペレーションDGにおける拡大俯瞰画像の視点の位置を変更する処理について説明する。図19の(A)〜図19の(C)は、拡大俯瞰画像の視点の位置を変更する方法の第1例の説明図である。   Next, a process of changing the viewpoint position of the enlarged overhead image in the operation DG in the display process shown in FIG. 17 will be described. FIGS. 19A to 19C are explanatory diagrams of a first example of a method for changing the position of the viewpoint of the enlarged overhead image.

図19の(A)の状態では、車両9の左後方の領域A6を示す拡大俯瞰画像CP6が全画面V0に表示されている。全画面表示された拡大俯瞰画像CP6は、全画面V0の中心Cの周りに配置された複数の部分領域ALU、ARU、ALD及びARDを含む。   In the state of FIG. 19A, an enlarged overhead view image CP6 showing a left rear region A6 of the vehicle 9 is displayed on the full screen V0. The enlarged overhead view image CP6 displayed on the full screen includes a plurality of partial areas ALU, ARU, ALD, and ARD arranged around the center C of the full screen V0.

ユーザにより部分領域ALU、ARU、ALD及びARDがタッチされたことが検出されると、表示制御部12は、タッチされた領域と現在表示中の拡大俯瞰画像の視点の位置に応じて変更後の拡大俯瞰画像の視点の位置を決定する。   When it is detected that the partial areas ALU, ARU, ALD, and ARD are touched by the user, the display control unit 12 changes the position according to the touched area and the position of the viewpoint of the enlarged overhead image currently displayed. The position of the viewpoint of the enlarged overhead image is determined.

例えば、拡大俯瞰画像CP6の表示中に左上領域ALUがタッチされたときに表示される拡大俯瞰画像を図19の(B)に示す。拡大俯瞰画像CP6の表示中に左上領域ALUがタッチされると、視点は前方へ移動し、車両左側方の領域A4の拡大俯瞰画像CP4が全画面表示される。   For example, FIG. 19B shows an enlarged overhead image that is displayed when the upper left area ALU is touched during the display of the enlarged overhead image CP6. When the upper left area ALU is touched during the display of the enlarged overhead image CP6, the viewpoint moves forward, and the enlarged overhead image CP4 of the area A4 on the left side of the vehicle is displayed in full screen.

なお、拡大俯瞰画像CP4の表示中に左上領域ALUがタッチされると、視点は前方へ移動し、車両左前方の領域A1の拡大俯瞰画像が全画面表示される。また拡大俯瞰画像CP4の表示中に左下領域ALDがタッチされると、視点は下方へ移動し、車両左後方の領域A6の拡大俯瞰画像CP6が全画面表示される。   When the upper left area ALU is touched during the display of the enlarged overhead image CP4, the viewpoint moves forward, and the enlarged overhead image of the area A1 on the left front side of the vehicle is displayed in full screen. Further, when the lower left area ALD is touched during the display of the enlarged overhead image CP4, the viewpoint moves downward, and the enlarged overhead image CP6 of the area A6 on the left rear side of the vehicle is displayed on the full screen.

また例えば、拡大俯瞰画像CP6の表示中に右下領域ARDがタッチされたときに表示される拡大俯瞰画像を図19の(C)に示す。拡大俯瞰画像CP6の表示中に右下領域ARDがタッチされると、視点は右へ移動し、車両後方の領域A7の拡大俯瞰画像CP7が全画面表示される。   For example, FIG. 19C shows an enlarged overhead view image that is displayed when the lower right area ARD is touched while the enlarged overhead view image CP6 is displayed. When the lower right area ARD is touched during the display of the enlarged overhead image CP6, the viewpoint moves to the right, and the enlarged overhead image CP7 of the area A7 behind the vehicle is displayed on the full screen.

なお、拡大俯瞰画像CP7の表示中に左上領域ALUがタッチされると、視点は左前方へ移動し、車両左側方の領域A4の拡大俯瞰画像CP4が全画面表示される。拡大俯瞰画像CP7の表示中に右上領域ARUがタッチされると、視点は右前方へ移動し、車両右側方の領域A5の拡大俯瞰画像が全画面表示される。   If the upper left area ALU is touched during the display of the enlarged overhead image CP7, the viewpoint moves to the left front, and the enlarged overhead image CP4 of the area A4 on the left side of the vehicle is displayed on the full screen. When the upper right area ARU is touched during the display of the enlarged overhead image CP7, the viewpoint moves rightward and the enlarged overhead image of the area A5 on the right side of the vehicle is displayed in full screen.

なお、拡大俯瞰画像CP7の表示中に左下領域ALDがタッチされると、視点は左へ移動し、車両左後方の領域A6の拡大俯瞰画像CP6が全画面表示される。拡大俯瞰画像CP7の表示中に右下領域ARDがタッチされると、視点は右へ移動し、車両右後方の領域A8の拡大俯瞰画像が全画面表示される。   If the lower left area ALD is touched during display of the enlarged overhead image CP7, the viewpoint moves to the left, and the enlarged overhead image CP6 of the area A6 on the left rear side of the vehicle is displayed on the full screen. If the lower right area ARD is touched during the display of the enlarged overhead image CP7, the viewpoint moves to the right, and the enlarged overhead image of the area A8 on the right rear side of the vehicle is displayed in full screen.

なお、上記の部分領域の配置方法及び視点の移動方向の例は、あくまで説明のための一例であり、様々な配置方法及び移動方向を採用することができる。   In addition, the example of the arrangement method of the partial area and the movement direction of the viewpoint is merely an example for description, and various arrangement methods and movement directions can be employed.

合成画像生成部32は、表示制御部12により決定された視点の位置から見た拡大俯瞰画像を生成する。表示制御部12は、生成された拡大俯瞰画像を表示する。これにより、拡大俯瞰画像の表示範囲がスライドする。   The composite image generation unit 32 generates an enlarged overhead image viewed from the viewpoint position determined by the display control unit 12. The display control unit 12 displays the generated enlarged overhead image. Thereby, the display range of the enlarged overhead image slides.

なお、拡大俯瞰画像の視点を変更するとき、合成画像生成部32は、視点の高さを同じ状態に保ったまま、変更後の視点位置まで拡大俯瞰画像が連続的にスライドするアニメーションを生成してもよい。   When changing the viewpoint of the enlarged overhead image, the composite image generating unit 32 generates an animation in which the enlarged overhead image continuously slides to the changed viewpoint position while keeping the height of the viewpoint in the same state. May be.

拡大俯瞰画像を全画面表示すると、車両周辺全体の俯瞰画像を表示するスペースがなくなる。このため、拡大俯瞰画像により何処を拡大すべきかを指定する際に、車両周辺全体の俯瞰画像を用いることができなくなる。したがって、ユーザが視点の変更を指示する手段を提供することが必要である。   When the enlarged overhead view image is displayed on the full screen, there is no space for displaying the overhead view image of the entire vehicle periphery. For this reason, when designating where to enlarge with the enlarged overhead view image, it is impossible to use the overhead view image of the entire vehicle periphery. Therefore, it is necessary to provide a means for the user to instruct a change of viewpoint.

本実施例によれば、拡大俯瞰画像を全画面表示した場合における拡大俯瞰画像の視点の変更手段が提供される。さらに、本実施例によれば、タッチパネルを用いた直感的な操作によって拡大俯瞰画像の視点を変更することができるためユーザの利便性が向上する。   According to the present embodiment, means for changing the viewpoint of the enlarged overhead image when the enlarged overhead image is displayed on the full screen is provided. Furthermore, according to the present embodiment, since the viewpoint of the enlarged overhead image can be changed by an intuitive operation using the touch panel, the convenience for the user is improved.

本実施例によれば、現在の拡大俯瞰画像から隣接する拡大俯瞰画像への移動がワンタッチで可能となる。特に、本実施例のように車両周辺の画像を表示する場合には、ユーザが注視する障害物と車両との相対位置関係は、車両の移動に伴って連続的に変化することが多い。   According to the present embodiment, it is possible to move from the current enlarged overhead image to the adjacent enlarged overhead image with one touch. In particular, when an image around the vehicle is displayed as in the present embodiment, the relative positional relationship between the obstacle watched by the user and the vehicle often changes continuously as the vehicle moves.

本実施例では、隣接する拡大俯瞰画像への視点の移動がワンタッチでできるので、車両の周りを連続的に相対移動する障害物を追跡することが容易になる。   In the present embodiment, since the viewpoint can be moved to the adjacent enlarged bird's-eye view image with one touch, it becomes easy to track an obstacle that relatively continuously moves around the vehicle.

続いて、拡大俯瞰画像の視点の位置を変更する他の方法の実施例を説明する。図20の(A)〜図20の(C)は、拡大俯瞰画像の視点の位置を変更する方法の第2例の説明図である。図20の(A)の状態では、車両9の左後方の領域を示す拡大俯瞰画像CP6がディスプレイ21の全画面V0に表示されている。   Subsequently, an example of another method for changing the position of the viewpoint of the enlarged overhead image will be described. 20A to 20C are explanatory diagrams of a second example of a method for changing the position of the viewpoint of the enlarged overhead image. In the state of FIG. 20A, an enlarged overhead view image CP <b> 6 showing the left rear region of the vehicle 9 is displayed on the full screen V <b> 0 of the display 21.

拡大俯瞰画像を全画面表示したとき、合成画像生成部32は、ユーザによる視点の変更方向指示を受け付ける矢印表示80を画像に挿入する。ユーザにより矢印表示80がタッチされると、合成画像生成部32はタッチされた矢印の方向に存在する拡大俯瞰画像を生成する。表示制御部12は、この拡大俯瞰画像をディスプレイに表示させ視点の位置をスライドする。拡大俯瞰画像の視点を変更するとき、合成画像生成部32は、拡大俯瞰画像が連続的にスライドするアニメーションを生成してもよい。   When the enlarged bird's-eye view image is displayed on the full screen, the composite image generation unit 32 inserts an arrow display 80 for receiving an instruction to change the viewpoint by the user into the image. When the arrow display 80 is touched by the user, the composite image generation unit 32 generates an enlarged overhead view image that exists in the direction of the touched arrow. The display control unit 12 displays the enlarged overhead view image on the display and slides the position of the viewpoint. When changing the viewpoint of the enlarged overhead image, the composite image generation unit 32 may generate an animation in which the enlarged overhead image slides continuously.

合成画像生成部32は、上下左右の4方向や斜め方向を加えた8方向を常に示す固定の矢印表示を画像に挿入してよい。これに代えて、表示可能な他の拡大俯瞰画像が存在する方向を示す矢印表示のみを画像に挿入してもよい。   The composite image generation unit 32 may insert a fixed arrow display that always indicates eight directions including four directions (up, down, left, and right) and an oblique direction into the image. Instead of this, only an arrow display indicating the direction in which another magnified overhead image that can be displayed is present may be inserted into the image.

この場合、表示制御部12は、現在表示中の拡大俯瞰画像の位置から見て、表示可能な他の拡大俯瞰画像が存在する方向を判定する。拡大俯瞰画像CP6の場合、車両9の左側方の領域A4を示す拡大俯瞰画像と、車両9の後方の領域A7を示す拡大俯瞰画像が表示可能である。   In this case, the display control unit 12 determines the direction in which another magnified overhead image that can be displayed exists, as viewed from the position of the magnified overhead image currently being displayed. In the case of the enlarged overhead image CP6, an enlarged overhead image showing the area A4 on the left side of the vehicle 9 and an enlarged overhead image showing the area A7 behind the vehicle 9 can be displayed.

表示制御部12により、表示可能な他の拡大俯瞰画像が存在する方向が判定されると、合成画像生成部32はこの方向を示す矢印表示80を現在表示中の画像に挿入する。図20の(A)の状態では、車両9の左側方の領域A4を示す拡大俯瞰画像が存在する方向である「前方」を示す矢印81と、車両9の後方の領域A7を示す拡大俯瞰画像が存在する方向である「右」を示す矢印82が表示される。   When the display control unit 12 determines a direction in which another magnified overhead image that can be displayed is present, the composite image generation unit 32 inserts an arrow display 80 indicating this direction into the currently displayed image. In the state of FIG. 20A, an arrow 81 indicating “front”, which is a direction in which an enlarged bird's-eye image showing a region A4 on the left side of the vehicle 9 exists, and an enlarged bird's-eye image showing a region A7 behind the vehicle 9. An arrow 82 indicating “right”, which is a direction in which “” exists, is displayed.

矢印81及び82のいずれかがユーザによりタッチされると、合成画像生成部32は、タッチされた矢印の方向に存在する拡大俯瞰画像を生成する。例えば、拡大俯瞰画像CP6の表示中に前方を示す矢印81がタッチされたときに表示される拡大俯瞰画像を図20の(B)に示す。拡大俯瞰画像CP6の表示中に矢印81がタッチされると、視点は前方へ移動し、車両左側方の領域A4の拡大俯瞰画像CP4が全画面表示される。   When either of the arrows 81 and 82 is touched by the user, the composite image generation unit 32 generates an enlarged overhead view image that exists in the direction of the touched arrow. For example, FIG. 20B shows an enlarged overhead view image that is displayed when the arrow 81 indicating the front is touched during the display of the enlarged overhead view image CP6. When the arrow 81 is touched during the display of the enlarged overhead image CP6, the viewpoint moves forward, and the enlarged overhead image CP4 of the region A4 on the left side of the vehicle is displayed on the full screen.

なお、拡大俯瞰画像CP4が表示された状態では、車両9の左前方の領域A1を示す拡大俯瞰画像が存在する方向である「前方」を示す矢印81と、車両9の右側方の領域A5を示す拡大俯瞰画像が存在する方向である「右」を示す矢印82と、車両9の左後方の領域A6を示す拡大俯瞰画像が存在する方向である「後方」を示す矢印83が表示される。   In the state in which the enlarged overhead image CP4 is displayed, an arrow 81 indicating “front”, which is a direction in which the enlarged overhead image indicating the left front area A1 of the vehicle 9 exists, and an area A5 on the right side of the vehicle 9 are displayed. An arrow 82 indicating “right”, which is the direction in which the enlarged bird's-eye view image is present, and an arrow 83 indicating “rear”, which is the direction in which the enlarged bird's-eye image indicating the left rear region A6 of the vehicle 9 is present, are displayed.

また例えば、拡大俯瞰画像CP6の表示中に「右」を示す矢印82がタッチされたときに表示される拡大俯瞰画像を図20の(C)に示す。拡大俯瞰画像CP6の表示中に矢印82がタッチされると、視点は右方へ移動し、車両後方の領域A7の拡大俯瞰画像CP7が全画面表示される。   Further, for example, FIG. 20C shows an enlarged bird's-eye view image that is displayed when the arrow 82 indicating “right” is touched during the display of the enlarged bird's-eye view image CP6. When the arrow 82 is touched during the display of the enlarged overhead image CP6, the viewpoint moves to the right, and the enlarged overhead image CP7 of the area A7 behind the vehicle is displayed on the full screen.

なお、拡大俯瞰画像CP7が表示された状態では、車両9の前方の領域A2を示す拡大俯瞰画像が存在する方向である「前方」を示す矢印81と、車両9の右後方の領域A8を示す拡大俯瞰画像が存在する方向である「右」を示す矢印82と、車両9の左後方の領域A6を示す拡大俯瞰画像が存在する方向である「左」を示す矢印84が表示される。   In the state where the enlarged bird's-eye view image CP7 is displayed, an arrow 81 indicating “front”, which is a direction in which the enlarged bird's-eye image showing the area A2 in front of the vehicle 9 exists, and a region A8 on the right rear of the vehicle 9 are shown. An arrow 82 indicating “right”, which is the direction in which the enlarged overhead image exists, and an arrow 84 indicating “left”, which is the direction in which the enlarged overhead image indicating the left rear area A6 of the vehicle 9 exists, are displayed.

本実施例によっても、拡大俯瞰画像を全画面表示した場合における拡大俯瞰画像の視点の変更手段が提供される。さらに、本実施例によれば、タッチパネルを用いた直感的な操作によって拡大俯瞰画像の視点を変更することでき、ユーザの利便性が向上する。   This embodiment also provides a means for changing the viewpoint of the enlarged overhead image when the enlarged overhead image is displayed on the full screen. Furthermore, according to the present embodiment, the viewpoint of the enlarged overhead image can be changed by an intuitive operation using the touch panel, and the convenience for the user is improved.

また、本実施例によっても、現在の拡大俯瞰画像から隣接する拡大俯瞰画像への移動がワンタッチで可能となる。   Also according to this embodiment, it is possible to move from the current enlarged overhead image to the adjacent enlarged overhead image with one touch.

<6.第3の実施例>
続いて、表示制御部12による表示モードの他の切り替え処理の実施例について説明する。図21は、表示モードの状態遷移図の第2例の説明図である。図5に示す状態遷移図と同一の部分については同じ参照符号を付している。
<6. Third Example>
Next, an example of another display mode switching process by the display control unit 12 will be described. FIG. 21 is an explanatory diagram of a second example of the state transition diagram of the display mode. The same parts as those in the state transition diagram shown in FIG.

ナビモードST10、バックモードST20、フロントモードST30及び周囲確認モードST40のそれぞれのモード間の遷移方法は、図5を参照して上述した方法と同様であってよい。   The transition method between the navigation mode ST10, the back mode ST20, the front mode ST30, and the surrounding confirmation mode ST40 may be the same as the method described above with reference to FIG.

本実施例では、バックモードST20は、全画面俯瞰表示状態ST24を備える。バックモードST20においてカメラスイッチが操作されると、表示制御部12は、表示モードを状態ST24、ST21〜ST23間で遷移させる。   In this embodiment, the back mode ST20 includes a full-screen overhead display state ST24. When the camera switch is operated in the back mode ST20, the display control unit 12 changes the display mode between the states ST24 and ST21 to ST23.

図22は、全画面俯瞰表示状態ST24における表示内容の例を示す図である。全画面俯瞰表示状態ST24における画面表示(以下、「全画面俯瞰表示」と表記することがある)Dwwは、ディスプレイ21上の全画面V0に表示される車両9の周辺全体の全画面俯瞰画像CPwwの合成画像を表示する。   FIG. 22 is a diagram illustrating an example of display contents in the full-screen overhead display state ST24. The screen display (hereinafter, may be referred to as “full screen overhead view display”) Dww in the full screen overhead view state ST24 is a full screen overhead image CPww of the entire periphery of the vehicle 9 displayed on the full screen V0 on the display 21. The composite image of is displayed.

上述したバックモード用2画面表示Dtbにて表示される俯瞰画像CPwと比較すると、全画面俯瞰画像CPwwは、視点の位置を高くすることにより画角がより広く、車両9周囲のより広い範囲を表示する俯瞰画像になっている。   Compared with the overhead view image CPw displayed in the above-described back mode two-screen display Dtb, the full-screen overhead view CPww has a wider angle of view by increasing the position of the viewpoint, and a wider range around the vehicle 9. It is a bird's-eye view image to be displayed.

図21を参照する。フロントモードST30も、全画面俯瞰表示状態ST34を備える。フロントモードST20においてカメラスイッチが操作されると、表示制御部12は、表示モードを状態ST34、ST31〜ST33間で遷移させる。全画面俯瞰表示状態ST34における表示内容は、全画面俯瞰表示状態ST24の表示内容と同様であってよい。   Refer to FIG. The front mode ST30 also includes a full screen overhead view display state ST34. When the camera switch is operated in the front mode ST20, the display control unit 12 changes the display mode between the states ST34 and ST31 to ST33. The display content in the full-screen overhead display state ST34 may be the same as the display content in the full-screen overhead display state ST24.

図23は、全画面俯瞰表示状態ST24における表示切替処理のフローチャートである。全画面俯瞰表示状態ST34における処理も同様であってよい。また、他の実施態様においては、下記のオペレーションEA〜EHの各オペレーションはステップであってもよい。   FIG. 23 is a flowchart of the display switching process in the full-screen overhead display state ST24. The processing in the full-screen overhead display state ST34 may be the same. In another embodiment, each of the following operations EA to EH may be a step.

オペレーションEAにおいて表示制御部12は、全画面俯瞰表示Dwwをディスプレイ21に表示する。表示された全画面俯瞰表示Dwwを図24の(A)に示す。全画面表示された全画面俯瞰画像CPwwは、複数の区画の領域A11〜A18に分割されている。なお、図24において点線で示した各領域を示す境界線は、ディスプレイ21に実際に表示してもしなくてもよい。   In operation EA, the display control unit 12 displays the full screen overhead view Dww on the display 21. The displayed full screen overhead view Dww is shown in FIG. The full-screen overhead image CPwww displayed on the full screen is divided into a plurality of sections of areas A11 to A18. Note that the boundary lines indicating the regions indicated by dotted lines in FIG. 24 may or may not be actually displayed on the display 21.

図23を参照する。オペレーションEBにおいて表示制御部12は、カメラSWのタッチによるユーザの入力があったか否かを判定する。カメラSWがタッチされた場合(オペレーションEB:Y)、処理はオペレーションEHへ移行する。オペレーションEHにおいて表示制御部12は、表示モードをバックモード用2画面表示状態ST21へ遷移させて処理を終了する。   Refer to FIG. In operation EB, the display control unit 12 determines whether or not there is a user input by touching the camera SW. When the camera SW is touched (operation EB: Y), the process proceeds to operation EH. In operation EH, the display control unit 12 changes the display mode to the back-screen two-screen display state ST21 and ends the process.

カメラSWがタッチされていない場合(オペレーションEB:N)、処理はオペレーションECへ移行する。オペレーションECにおいて表示制御部12は、タッチパネルにタッチするユーザの入力があったか否かを判定する。タッチパネルがタッチされた場合(オペレーションEC:Y)、処理はオペレーションEDへ移行する。タッチパネルがタッチされない場合(オペレーションEC:N)、処理はオペレーションEBへ戻る。   If the camera SW is not touched (operation EB: N), the process proceeds to operation EC. In operation EC, the display control unit 12 determines whether or not there is an input from the user who touches the touch panel. When the touch panel is touched (operation EC: Y), the process proceeds to operation ED. If the touch panel is not touched (operation EC: N), the processing returns to operation EB.

オペレーションEDにおいて表示制御部12は、全画面俯瞰画像CPwwの各領域A11〜A18のいずれをユーザがタッチしたかに応じて、全画面V0に全画面表示する拡大俯瞰画像を選択する。ユーザがタッチした領域と表示画像の対応関係を以下に示す。   In operation ED, the display control unit 12 selects an enlarged overhead image to be displayed on the full screen V0 in accordance with which of the areas A11 to A18 of the full screen overhead image CPww is touched by the user. The correspondence between the area touched by the user and the display image is shown below.

車両左前方の領域A11:車両左前方を真上から拡大して見た拡大俯瞰画像の合成画像 車両前方の領域A12:車両前方を真上から拡大して見た拡大俯瞰画像の合成画像
車両右前方の領域A13:車両右前方を真上から拡大して見た拡大俯瞰画像の合成画像 車両左側方の領域A14:車両左側方を真上から拡大して見た拡大俯瞰画像の合成画像 車両右側方の領域A15:車両右側方を真上から拡大して見た拡大俯瞰画像の合成画像 車両左後方の領域A16:車両左後方を真上から拡大して見た拡大俯瞰画像の合成画像 車両後方の領域A17:車両後方を真上から拡大して見た拡大俯瞰画像の合成画像
車両右後方の領域A18:車両右後方を真上から拡大して見た拡大俯瞰画像の合成画像
Area A11 in front of the left side of the vehicle: Composite image of an enlarged bird's-eye view obtained by magnifying the left front of the vehicle from directly above. Area A12 in front of the vehicle: Composite image of an enlarged bird's-eye view in which the front of the vehicle is enlarged from directly above. Front area A13: Composite image of enlarged overhead view seen from right above vehicle right front area A14: Composite image of enlarged overhead view seen from right side of vehicle A14: Right side of vehicle right side of vehicle Area A15: a composite image of an enlarged overhead image viewed from right above the vehicle right side area A16: a composite image of an enlarged overhead image viewed from right above the vehicle left rear area A16: vehicle rear Region A17: Composite image of an enlarged overhead view seen from right above the vehicle rear region A18: Composite image of an enlarged overhead view seen from right above the vehicle right rear region A18

合成画像生成部32は、タッチされた領域に応じて上記の対応関係に基づき定まる拡大俯瞰画像を生成する。表示制御部12は、合成画像生成部32が生成した拡大俯瞰画像を全画面表示する。   The composite image generation unit 32 generates an enlarged overhead image that is determined based on the correspondence relationship according to the touched region. The display control unit 12 displays the enlarged overhead image generated by the composite image generation unit 32 in full screen.

拡大俯瞰画像が全画面表示された状態を図24の(B)に示す。本例では、ユーザが車両左後方の領域A16をタッチしたことに応答して、車両左後方を真上から見た拡大俯瞰画像CP16が全画面表示される。   FIG. 24B shows a state where the enlarged overhead image is displayed on the full screen. In this example, in response to the user touching the area A16 on the left rear side of the vehicle, an enlarged overhead image CP16 in which the left rear side of the vehicle is viewed from directly above is displayed on the full screen.

図23を参照する。オペレーションEEにおいて表示制御部12は、タッチパネルにタッチするユーザの入力があったか否かを判定する。タッチパネルがタッチされた場合(オペレーションEE:Y)、処理はオペレーションEFへ移行する。タッチパネルがタッチされない場合(オペレーションEE:N)、処理はオペレーションEEへ戻る。   Refer to FIG. In operation EE, the display control unit 12 determines whether or not there is an input from the user who touches the touch panel. When the touch panel is touched (operation EE: Y), the process proceeds to operation EF. If the touch panel is not touched (operation EE: N), the process returns to operation EE.

オペレーションEFにおいて表示制御部12は、タッチされた箇所が戻るボタン71であったか否かを判定する。戻るボタン71がタッチされた場合(オペレーションEF:Y)、処理はオペレーションEAへ戻る。タッチされた箇所が戻るボタン71でない場合(オペレーションEF:N)、処理はオペレーションEGへ移る。   In operation EF, the display control unit 12 determines whether or not the touched portion is the return button 71. When the return button 71 is touched (operation EF: Y), the processing returns to operation EA. If the touched location is not the return button 71 (operation EF: N), the process proceeds to operation EG.

オペレーションEGにおいて合成画像生成部32は、タッチされた拡大俯瞰画像上の位置に応じて、全画面表示する拡大俯瞰画像の視点の位置を変更する。その後処理は、オペレーションEEへ戻る。拡大俯瞰画像の視点の位置の変更処理は、図19の(A)〜図19の(C)及び図20の(A)〜図20の(C)を参照して説明した処理と同様であってよい。   In operation EG, the composite image generation unit 32 changes the position of the viewpoint of the enlarged overhead image displayed on the full screen in accordance with the touched position on the enlarged overhead image. Thereafter, the processing returns to operation EE. The process of changing the viewpoint position of the enlarged overhead image is the same as the process described with reference to FIGS. 19A to 19C and FIGS. 20A to 20C. It's okay.

本実施例により、車両9の周辺の比較的広い範囲を表す全画面俯瞰画像CPww内の所望の位置をワンタッチすることにより、拡大俯瞰画像の全画面表示に容易に切り替える事ができる。また拡大俯瞰画像内に挿入された戻るボタン71をタッチすることにより、全画面俯瞰画像CPwwへ容易に切り替えることができる。   According to the present embodiment, it is possible to easily switch to the full-screen display of the enlarged bird's-eye view image by one-touching a desired position in the full-screen bird's-eye view image CPww representing a relatively wide range around the vehicle 9. Further, the user can easily switch to the full-screen overhead image CPwww by touching the return button 71 inserted in the enlarged overhead view image.

このように、全画面俯瞰画像CPwwと拡大俯瞰画像との間をワンタッチで切り替えることができることにより、ユーザが車体と障害物との間のクリアランスを確認する際の利便性を向上することができる。   As described above, since it is possible to switch between the full-view bird's-eye view image CPww and the enlarged bird's-eye view image with one touch, it is possible to improve convenience when the user confirms the clearance between the vehicle body and the obstacle.

例えば、全画面俯瞰画像CPwwは比較的広い範囲を表すため、例えば駐車場などにおいて比較的遠くから駐車スペースの白線を確認することができる。このため、駐車スペースへの方向を遠方から判断し、近づいたらワンタッチで拡大俯瞰画像に切り替えて障害物との相対距離を正確に把握する、等の使用が可能となる。
以上の実施例においては、俯瞰画像を複数の領域に分割し、タッチされた領域の拡大俯瞰画像を生成し表示するようにした。換言すれば、各領域の中心の真上近傍に視点位置が存在する。この場合、隣接する領域の境界に障害物が存在する場合に障害物が確認しづらくなる可能性がある。そこで、変形例として俯瞰画像を複数の領域に分割するのではなく、俯瞰画像上でタッチされた点を中心とした拡大俯瞰画像を生成、表示してもよい。即ち、俯瞰画像上でタッチされた点を視点位置として拡大俯瞰画像を生成する。このようにすれば、確認したい箇所を中心とした拡大俯瞰画像表示が可能となるため障害物を確認し易くなる。
For example, since the full-screen overhead image CPww represents a relatively wide range, for example, a white line of a parking space can be confirmed from a relatively long distance in a parking lot or the like. For this reason, the direction to the parking space can be determined from a distance, and when approached, it can be switched to an enlarged bird's-eye view image with a single touch to accurately grasp the relative distance from the obstacle.
In the above embodiment, the overhead image is divided into a plurality of regions, and an enlarged overhead image of the touched region is generated and displayed. In other words, the viewpoint position exists in the vicinity immediately above the center of each region. In this case, when there is an obstacle at the boundary between adjacent regions, it may be difficult to check the obstacle. Therefore, as a modification, instead of dividing the overhead image into a plurality of regions, an enlarged overhead image centered on a point touched on the overhead image may be generated and displayed. That is, an enlarged overhead image is generated with the point touched on the overhead image as a viewpoint position. In this way, since it is possible to display an enlarged bird's-eye view image centered on a location to be confirmed, it is easy to confirm an obstacle.

20 ナビゲーション装置
21 ディスプレイ
22 操作部
11 画像制御部
12 表示制御部
31 合成画像生成部
51 フロントカメラ
52 バックカメラ
53 サイドカメラ
120 画像表示システム
DESCRIPTION OF SYMBOLS 20 Navigation apparatus 21 Display 22 Operation part 11 Image control part 12 Display control part 31 Composite image generation part 51 Front camera 52 Back camera 53 Side camera 120 Image display system

Claims (14)

車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た俯瞰画像を生成する合成画像生成手段と、
前記合成画像生成手段により生成された俯瞰画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成して前記表示画面に全画面表示する表示制御手段と、
を備え、
前記表示制御手段によって制御される前記表示画面の1以上の表示モードには、前記俯瞰画像が全画面表示される状態を少なくとも含み、
前記表示制御手段は、全画面表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成して前記表示画面に全画面表示することを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Synthetic image generation means for generating an overhead image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image generated by the composite image generation means on a display screen;
Display control means for generating an enlarged overhead view image centered on the touched point and displaying it on the display screen when the overhead view image displayed on the display screen is touched;
With
One or more display modes of the display screen controlled by the display control means include at least a state in which the overhead image is displayed on a full screen,
When the overhead image displayed on the full screen is touched, the display control unit generates an enlarged overhead image centered on the touched point and displays the entire screen on the display screen. Image display system.
車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た俯瞰画像を生成する合成画像生成手段と、
前記合成画像生成手段により生成された俯瞰画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成して前記表示画面に全画面表示する表示制御手段と、
を備え、
前記表示制御手段によって制御される前記表示画面の1以上の表示モードには、前記カメラにより得られる撮影画像を前記表示画面に表示する状態を含み、
前記表示制御手段は、前記撮影画像の表示中に前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記撮影画像から前記俯瞰画像まで変化する第1のアニメーションと、前記俯瞰画像から前記拡大俯瞰画像まで変化する第2のアニメーションと、を表示することを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Synthetic image generation means for generating an overhead image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image generated by the composite image generation means on a display screen;
Display control means for generating an enlarged overhead view image centered on the touched point and displaying it on the display screen when the overhead view image displayed on the display screen is touched;
With
One or more display modes of the display screen controlled by the display control means include a state of displaying a captured image obtained by the camera on the display screen,
The display control means includes a first animation that changes from the captured image to the overhead image when the overhead image displayed on the display screen is touched during display of the captured image, and the overhead image. An image display system for displaying a second animation that changes to the enlarged overhead view image.
車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た俯瞰画像を生成する合成画像生成手段と、
前記合成画像生成手段により生成された俯瞰画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成して前記表示画面に全画面表示する表示制御手段と、
を備え、
前記表示制御手段は、前記拡大俯瞰画像が表示されているときに、前記拡大俯瞰画像を分割した複数領域のいずれかが指定された場合に、指定された領域に応じて前記拡大俯瞰画像の視野の位置を変更することを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Synthetic image generation means for generating an overhead image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image generated by the composite image generation means on a display screen;
Display control means for generating an enlarged overhead view image centered on the touched point and displaying it on the display screen when the overhead view image displayed on the display screen is touched;
With
The display control means, when the enlarged overhead view image is displayed, when any of a plurality of areas obtained by dividing the enlarged overhead image is designated, the field of view of the enlarged overhead image according to the designated area An image display system characterized by changing the position of the screen.
車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た俯瞰画像を生成する合成画像生成手段と、
前記合成画像生成手段により生成された俯瞰画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成して前記表示画面に全画面表示する表示制御手段と、
を備え、
前記表示制御手段は、前記拡大俯瞰画像が表示されているときに、前記表示画面に表示された矢印表示を指定する指定入力を受けた場合に、指定された矢印に応じて前記拡大俯瞰画像の視野の位置を変更することを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Synthetic image generation means for generating an overhead image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image generated by the composite image generation means on a display screen;
Display control means for generating an enlarged overhead view image centered on the touched point and displaying it on the display screen when the overhead view image displayed on the display screen is touched;
With
The display control means receives the designation input designating the arrow display displayed on the display screen when the enlarged overhead view image is displayed, and displays the enlarged overhead view image according to the designated arrow. An image display system characterized by changing a position of a visual field.
前記表示制御手段によって制御される前記表示画面の1以上の表示モードには、第1領域と第2領域とを少なくとも有する2画面表示状態が含まれ、
前記表示制御手段は、前記2画面表示状態において前記第1領域に表示された前記俯瞰画像のタッチを受け付けることを特徴とする請求項2〜4のいずれか一項に記載の画像表示システム。
The one or more display modes of the display screen controlled by the display control means include a two-screen display state having at least a first area and a second area,
5. The image display system according to claim 2, wherein the display control unit receives a touch of the overhead image displayed in the first area in the two-screen display state.
前記合成画像生成手段は、前記拡大俯瞰画像中に寸法線を挿入する請求項1〜5のいずれか一項に記載の画像表示システム。   The image display system according to claim 1, wherein the composite image generation unit inserts a dimension line into the enlarged overhead view image. 車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た俯瞰画像を生成する合成画像生成手段と、
前記合成画像生成手段により生成された俯瞰画像及び前記撮影画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成して前記表示画面に表示する表示制御手段と、
を備え、
前記表示制御手段は、前記撮影画像の表示中に前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記撮影画像から前記俯瞰画像まで変化する第1のアニメーションと、前記俯瞰画像から前記拡大俯瞰画像まで変化する第2のアニメーションと、を表示することを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Synthetic image generation means for generating an overhead image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image generated by the composite image generation means and the captured image on a display screen;
Display control means for generating an enlarged overhead image centered on the touched point and displaying it on the display screen when the overhead image displayed on the display screen is touched;
With
The display control means includes a first animation that changes from the captured image to the overhead image when the overhead image displayed on the display screen is touched during display of the captured image, and the overhead image. An image display system for displaying a second animation that changes to the enlarged overhead view image.
車両に搭載される表示装置に表示させる画像を生成する画像処理装置であって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た俯瞰画像を生成する合成画像生成手段と、
前記合成画像生成手段により生成された俯瞰画像を前記表示装置の表示画面に表示する表示手段と、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成して前記表示画面に全画面表示する表示制御手段と、
を備え、
前記表示制御手段によって制御される前記表示画面の1以上の表示モードには、前記カメラにより得られる撮影画像を前記表示画面に表示する状態を含み、
前記表示制御手段は、前記撮影画像の表示中に前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記撮影画像から前記俯瞰画像まで変化する第1のアニメーションと、前記俯瞰画像から前記拡大俯瞰画像まで変化する第2のアニメーションと、を表示することを特徴とする画像処理装置。
An image processing device for generating an image to be displayed on a display device mounted on a vehicle,
Synthetic image generation means for generating an overhead image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image generated by the composite image generation means on a display screen of the display device;
Display control means for generating an enlarged overhead view image centered on the touched point and displaying it on the display screen when the overhead view image displayed on the display screen is touched;
With
One or more display modes of the display screen controlled by the display control means include a state of displaying a captured image obtained by the camera on the display screen,
The display control means includes a first animation that changes from the captured image to the overhead image when the overhead image displayed on the display screen is touched during display of the captured image, and the overhead image. An image processing apparatus that displays a second animation that changes to the enlarged overhead view image.
車両に搭載される表示装置に表示させる画像を生成する画像処理装置であって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た俯瞰画像を生成する合成画像生成手段と、
前記合成画像生成手段により生成された俯瞰画像及び前記撮影画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成して前記表示画面に表示する表示制御手段と、
を備え、
前記表示制御手段は、前記撮影画像の表示中に前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記撮影画像から前記俯瞰画像まで変化する第1のアニメーションと、前記俯瞰画像から前記拡大俯瞰画像まで変化する第2のアニメーションと、を表示することを特徴とする画像処理装置。
An image processing device for generating an image to be displayed on a display device mounted on a vehicle,
Synthetic image generation means for generating an overhead image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image generated by the composite image generation means and the captured image on a display screen;
Display control means for generating an enlarged overhead image centered on the touched point and displaying it on the display screen when the overhead image displayed on the display screen is touched;
With
The display control means includes a first animation that changes from the captured image to the overhead image when the overhead image displayed on the display screen is touched during display of the captured image, and the overhead image. An image processing apparatus that displays a second animation that changes to the enlarged overhead view image.
車両において画像を表示する画像表示方法であって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た前記車両周辺の俯瞰画像を生成し、
前記俯瞰画像を表示画面に表示し、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成し、
前記拡大俯瞰画像を前記表示画面に全画面表示し、
前記撮影画像の表示中に前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記撮影画像から前記俯瞰画像まで変化する第1のアニメーションと、前記俯瞰画像から前記拡大俯瞰画像まで変化する第2のアニメーションと、を生成し、
前記第1及び第2のアニメーションを前記表示画面に表示することを特徴とする画像表示方法。
An image display method for displaying an image in a vehicle,
Generating an overhead image around the vehicle viewed from a virtual viewpoint based on a captured image obtained by a camera arranged in the vehicle;
Displaying the overhead image on a display screen;
When the overhead view image displayed on the display screen is touched, an enlarged overhead view image centered on the touched point is generated,
The enlarged overhead view image is displayed in full screen on the display screen,
When the overhead image displayed on the display screen is touched while the captured image is displayed, a first animation that changes from the captured image to the overhead image and a change from the overhead image to the enlarged overhead image Generating a second animation, and
An image display method for displaying the first and second animations on the display screen.
車両において画像を表示する画像表示方法であって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た前記車両周辺の俯瞰画像を生成し、
前記俯瞰画像と前記撮影画像とを表示画面に表示し、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記撮影画像から前記俯瞰画像まで変化する第1のアニメーションと、前記俯瞰画像から前記タッチされた点を中心とした拡大俯瞰画像まで変化する第2のアニメーションと、を生成し、
前記第1及び第2のアニメーションを前記表示画面に表示することを特徴とする画像表示方法。
An image display method for displaying an image in a vehicle,
Generating an overhead image around the vehicle viewed from a virtual viewpoint based on a captured image obtained by a camera arranged in the vehicle;
Displaying the overhead image and the captured image on a display screen;
When the overhead image displayed on the display screen is touched, a first animation that changes from the captured image to the overhead image and an enlarged overhead image centered on the touched point from the overhead image A second animation that changes, and
An image display method for displaying the first and second animations on the display screen.
車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た俯瞰画像を生成する合成画像生成手段と、
前記合成画像生成手段により生成された俯瞰画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成して前記表示画面に表示する表示制御手段と、
を備えることを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Synthetic image generation means for generating an overhead image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image generated by the composite image generation means on a display screen;
Display control means for generating an enlarged overhead image centered on the touched point and displaying it on the display screen when the overhead image displayed on the display screen is touched;
An image display system comprising:
車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た俯瞰画像を生成する合成画像生成手段と、
前記合成画像生成手段により生成された俯瞰画像を表示画面に表示する表示手段と、
前記撮影画像の表示中に前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記撮影画像から前記俯瞰画像まで変化する第1のアニメーションと、前記俯瞰画像から前記前記タッチされた点を中心とした拡大俯瞰画像まで変化する第2のアニメーションと、を表示する表示制御手段と、
を備えることを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Synthetic image generation means for generating an overhead image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image generated by the composite image generation means on a display screen;
A first animation that changes from the captured image to the overhead image when the overhead image displayed on the display screen is touched during display of the captured image, and the touched point from the overhead image Display control means for displaying a second animation that changes to an enlarged overhead view image centered on
An image display system comprising:
車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像に基づいて仮想視点から見た俯瞰画像を生成する合成画像生成手段と、
前記合成画像生成手段により生成された俯瞰画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記俯瞰画像がタッチされた場合に、前記タッチされた点を中心とした拡大俯瞰画像を生成して前記表示画面に表示する表示制御手段と、
を備え、
前記表示制御手段は、前記拡大俯瞰画像が表示されているときに、前記俯瞰拡大画像の視野の位置を変更する指示を受けた場合に、前記拡大俯瞰画像の視野の位置を変更することを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Synthetic image generation means for generating an overhead image viewed from a virtual viewpoint based on a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image generated by the composite image generation means on a display screen;
Display control means for generating an enlarged overhead image centered on the touched point and displaying it on the display screen when the overhead image displayed on the display screen is touched;
With
The display control means changes the position of the field of view of the magnified overhead image when receiving an instruction to change the position of the field of view of the magnified overhead image while the magnified overhead image is displayed. Image display system.
JP2015184346A 2015-09-17 2015-09-17 Image display system, image processing apparatus, and image display method Active JP6073433B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015184346A JP6073433B2 (en) 2015-09-17 2015-09-17 Image display system, image processing apparatus, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015184346A JP6073433B2 (en) 2015-09-17 2015-09-17 Image display system, image processing apparatus, and image display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010271940A Division JP5813944B2 (en) 2010-12-06 2010-12-06 Image display system, image processing apparatus, and image display method

Publications (2)

Publication Number Publication Date
JP2016042704A true JP2016042704A (en) 2016-03-31
JP6073433B2 JP6073433B2 (en) 2017-02-01

Family

ID=55592245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015184346A Active JP6073433B2 (en) 2015-09-17 2015-09-17 Image display system, image processing apparatus, and image display method

Country Status (1)

Country Link
JP (1) JP6073433B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018039476A (en) * 2016-09-09 2018-03-15 株式会社タダノ Image display system
JP2020042441A (en) * 2018-09-07 2020-03-19 アイシン精機株式会社 Display controller
JP2020525945A (en) * 2017-06-30 2020-08-27 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method of generating at least one synthetic bird's-eye view image of a motor vehicle and an environmental area of the motor vehicle, camera system and motor vehicle
US11780369B2 (en) 2021-02-10 2023-10-10 Toyota Jidosha Kabushiki Kaisha Vehicular image processing system, vehicle, and image transmission method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209835A (en) * 2002-01-11 2003-07-25 Clarion Co Ltd Monitoring device for surrounding of vehicle
JP2006171849A (en) * 2004-12-13 2006-06-29 Nissan Motor Co Ltd Image processor
JP2009100180A (en) * 2007-10-16 2009-05-07 Denso Corp Vehicular rear monitoring device
JP2009239674A (en) * 2008-03-27 2009-10-15 Mitsubishi Motors Corp Vehicular periphery display device
JP2009253460A (en) * 2008-04-02 2009-10-29 Denso Corp Parking support system
JP2010147516A (en) * 2008-12-16 2010-07-01 Mitsubishi Motors Corp Vehicle periphery monitoring device
WO2010137685A1 (en) * 2009-05-29 2010-12-02 富士通テン株式会社 Image generation device and image display system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209835A (en) * 2002-01-11 2003-07-25 Clarion Co Ltd Monitoring device for surrounding of vehicle
JP2006171849A (en) * 2004-12-13 2006-06-29 Nissan Motor Co Ltd Image processor
JP2009100180A (en) * 2007-10-16 2009-05-07 Denso Corp Vehicular rear monitoring device
JP2009239674A (en) * 2008-03-27 2009-10-15 Mitsubishi Motors Corp Vehicular periphery display device
JP2009253460A (en) * 2008-04-02 2009-10-29 Denso Corp Parking support system
JP2010147516A (en) * 2008-12-16 2010-07-01 Mitsubishi Motors Corp Vehicle periphery monitoring device
WO2010137685A1 (en) * 2009-05-29 2010-12-02 富士通テン株式会社 Image generation device and image display system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018039476A (en) * 2016-09-09 2018-03-15 株式会社タダノ Image display system
JP2020525945A (en) * 2017-06-30 2020-08-27 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method of generating at least one synthetic bird's-eye view image of a motor vehicle and an environmental area of the motor vehicle, camera system and motor vehicle
JP2020042441A (en) * 2018-09-07 2020-03-19 アイシン精機株式会社 Display controller
JP7119798B2 (en) 2018-09-07 2022-08-17 株式会社アイシン display controller
US11780369B2 (en) 2021-02-10 2023-10-10 Toyota Jidosha Kabushiki Kaisha Vehicular image processing system, vehicle, and image transmission method

Also Published As

Publication number Publication date
JP6073433B2 (en) 2017-02-01

Similar Documents

Publication Publication Date Title
JP5813944B2 (en) Image display system, image processing apparatus, and image display method
JP6413207B2 (en) Vehicle display device
US7554461B2 (en) Recording medium, parking support apparatus and parking support screen
CA3069114C (en) Parking assistance method and parking assistance device
JP5321267B2 (en) Vehicular image display device and overhead image display method
JP6275396B2 (en) System and method for interactively controlling a virtual camera
JP5697512B2 (en) Image generation apparatus, image display system, and image display apparatus
WO2010137685A1 (en) Image generation device and image display system
JP5622986B2 (en) Image display system, image processing apparatus, and image display method
JP2005311868A (en) Vehicle periphery visually recognizing apparatus
JP2011015174A (en) Device for generating image, and system for displaying image
JP6073433B2 (en) Image display system, image processing apparatus, and image display method
JP5724446B2 (en) Vehicle driving support device
US20120249796A1 (en) Image processing device, image processing system, and image processing method
US20160212384A1 (en) Image generation apparatus
JP6084097B2 (en) Image generation apparatus, image display system, and image generation method
JP5914114B2 (en) Parking assistance device and parking assistance method
JP2020068515A (en) Image processing apparatus
JP2018144554A (en) Head-up display device for vehicle
JPWO2011013813A1 (en) In-vehicle device and image processing program
JP2008162308A (en) Vehicular imaging device and vehicular image processing device
JP2008213647A (en) Parking assist method and parking assist system
JP4059309B2 (en) In-vehicle camera image display control method and apparatus
JP5709460B2 (en) Driving support system, driving support method, and driving support program
JP6370833B2 (en) Image generation apparatus, image display system, and image generation method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170104

R150 Certificate of patent or registration of utility model

Ref document number: 6073433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250