JP2014069629A - Image processor, and image processing system - Google Patents

Image processor, and image processing system Download PDF

Info

Publication number
JP2014069629A
JP2014069629A JP2012215602A JP2012215602A JP2014069629A JP 2014069629 A JP2014069629 A JP 2014069629A JP 2012215602 A JP2012215602 A JP 2012215602A JP 2012215602 A JP2012215602 A JP 2012215602A JP 2014069629 A JP2014069629 A JP 2014069629A
Authority
JP
Japan
Prior art keywords
image
line
image processing
viewpoint
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012215602A
Other languages
Japanese (ja)
Other versions
JP6105244B2 (en
Inventor
Masahiro Yamada
正博 山田
Takeyoshi Iino
将嘉 伊井野
Chiharu Yamamoto
智春 山本
Minoru Maehata
実 前畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2012215602A priority Critical patent/JP6105244B2/en
Publication of JP2014069629A publication Critical patent/JP2014069629A/en
Application granted granted Critical
Publication of JP6105244B2 publication Critical patent/JP6105244B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of easily grasping at which position, from which direction and within which range an image is seen even in a case of continuously displaying images around a vehicle.SOLUTION: An image processor includes: image acquisition means for acquiring a photographed images of a camera mounted on an own vehicle; generation means for generating a peripheral image showing a periphery of the own vehicle seen from a virtual viewpoint, and an auxiliary image showing an area of the peripheral image on the basis of the photographed images; and output means for outputting the peripheral image and the auxiliary image to a display device and displaying the peripheral image and the auxiliary image on the display device.

Description

本発明は、車両に搭載されたカメラの画像を処理する技術に関する。   The present invention relates to a technique for processing an image of a camera mounted on a vehicle.

従来より、自動車などの車両の周辺を示す画像を取得し、この画像を車両に設けられる表示装置に表示する画像表示システムが知られている。このような画像表示システムを利用することにより、ユーザ(代表的には運転者)は、車両の周辺の様子を確認することができる。   2. Description of the Related Art Conventionally, an image display system that acquires an image showing the periphery of a vehicle such as an automobile and displays the image on a display device provided in the vehicle is known. By using such an image display system, a user (typically a driver) can check the situation around the vehicle.

例えば、車両の前後左右の各領域を示す画像を表示する画像表示システムを利用すれば、各画像を連続して表示することで、ユーザは車両の周囲の状況を把握することができる。車両の周囲の画像を連続的に表示する技術として、例えば特許文献1がある。   For example, if an image display system that displays images showing respective front, rear, left, and right regions of the vehicle is used, the user can grasp the situation around the vehicle by displaying each image continuously. As a technique for continuously displaying images around a vehicle, for example, Patent Document 1 is available.

特開2011-66763号公報JP 2011-66763 A

しかしながら、車両の周囲の画像を連続的に表示すると、視覚方向が移動するため、どの位置をどの方向からどの範囲で見た画像であるかを把握しにくい場合がある。また、視点をユーザの好みに応じて設定することが望まれるが、容易に設定できる方法が実現されていない。   However, when images around the vehicle are continuously displayed, the visual direction moves, so it may be difficult to grasp which position is viewed from which direction and in which range. Further, although it is desired to set the viewpoint according to the user's preference, a method that can be easily set has not been realized.

本発明は、上記課題に鑑みてなされたものであり、車両周囲の画像を連続的に表示する場合であっても、どの位置をどの方向からどの範囲で見た画像であるかが容易に把握できる技術、及び視点をユーザの好みに応じて容易に設定可能な技術を提供することを目的とする。   The present invention has been made in view of the above problems, and even when continuously displaying images around a vehicle, it is easy to grasp which position is viewed from which direction and in which range. It is an object of the present invention to provide a technique that can be easily set according to user preferences.

上記課題を解決するため、請求項1の発明は、画像を処理する画像処理装置であって、自車両に搭載されたカメラの撮影画像を取得する画像取得手段と、前記撮影画像に基づいて、仮想視点から見た自車両の周辺を示す周辺画像、及び、前記周辺画像の領域を示す補助画像を生成する生成手段と、前記周辺画像及び補助画像を表示装置に出力して前記表示装置に表示させる出力手段と、を備えている。   In order to solve the above-mentioned problem, the invention of claim 1 is an image processing device for processing an image, based on image acquisition means for acquiring a captured image of a camera mounted on the own vehicle, and the captured image, Generation means for generating a peripheral image showing the periphery of the host vehicle viewed from a virtual viewpoint and an auxiliary image indicating a region of the peripheral image, and the peripheral image and the auxiliary image are output to a display device and displayed on the display device Output means.

また、請求項2の発明は、請求項1に記載の画像処理装置において、前記出力手段は、前記周辺画像を第1の表示装置に出力して該第1の表示装置に表示させ、前記補助画像を第2の表示装置に出力して該第2の表示装置に表示させる。   The invention according to claim 2 is the image processing apparatus according to claim 1, wherein the output means outputs the peripheral image to a first display device and causes the first display device to display the auxiliary image. The image is output to the second display device and displayed on the second display device.

また、請求項3の発明は、請求項2に記載の画像処理装置において、前記第2の表示装置がタッチパネルを有し、該タッチパネルの操作に基づいて前記仮想視点における視点位置及び視線方向を設定する設定手段をさらに備えている。   According to a third aspect of the present invention, in the image processing apparatus according to the second aspect, the second display device has a touch panel, and the viewpoint position and the line-of-sight direction in the virtual viewpoint are set based on an operation of the touch panel. Setting means is further provided.

また、請求項4の発明は、請求項3に記載の画像処理装置において、前記設定手段は、前記視点位置を設定した後に、視線方向を設定する。   According to a fourth aspect of the present invention, in the image processing apparatus according to the third aspect, the setting unit sets the line-of-sight direction after setting the viewpoint position.

また、請求項5の発明は、請求項3又は4に記載の画像処理装置において、前記タッチパネルの操作が、タッチパネル上から指を離すことなく移動させる操作である場合には、前記設定手段は、視点位置及び視線方向の移動も設定する。   According to a fifth aspect of the present invention, in the image processing apparatus according to the third or fourth aspect, when the operation of the touch panel is an operation of moving without releasing a finger from the touch panel, the setting unit includes: The movement of the viewpoint position and the line-of-sight direction is also set.

また、請求項6の発明は、請求項5に記載の画像処理装置において、前記設定手段は、前記視点位置の移動のタイミングと、前記視線方向の移動のタイミングとを同期させて、前記視点位置及び視線方向を設定する。   Further, in the image processing apparatus according to claim 5, the setting unit synchronizes the timing of movement of the viewpoint position and the timing of movement of the line-of-sight direction to synchronize the viewpoint position. And the line-of-sight direction.

また、請求項7の発明は、請求項3ないし6のいずれか1項に記載の画像処理装置において、前記設定手段は、三次元空間上における視点位置及び視線方向を設定する。   According to a seventh aspect of the present invention, in the image processing apparatus according to any one of the third to sixth aspects, the setting means sets a viewpoint position and a line-of-sight direction in a three-dimensional space.

また、請求項8の発明は、請求項7に記載の画像処理装置において、前記設定手段は、水平面上の視点位置及び視線方向を設定した後に、鉛直方向の視点位置及び視線方向を設定する。   According to an eighth aspect of the present invention, in the image processing apparatus according to the seventh aspect, the setting means sets the vertical viewpoint position and line-of-sight direction after setting the viewpoint position and line-of-sight direction on a horizontal plane.

また、請求項9の発明は、請求項5ないし8のいずれか1項に記載の画像処理装置において、前記設定手段は、前記視点位置及び視線方向の移動速度も設定する。   According to a ninth aspect of the present invention, in the image processing device according to any one of the fifth to eighth aspects, the setting means also sets the viewpoint position and the movement speed in the line-of-sight direction.

また、請求項10の発明は、請求項9に記載の画像処理装置において、前記設定手段は、前記タッチパネルにおける操作位置の移動速度に応じて、前記視点位置及び視線方向の移動速度を設定する。   According to a tenth aspect of the present invention, in the image processing apparatus according to the ninth aspect, the setting means sets the viewpoint position and the movement speed in the line-of-sight direction according to the movement speed of the operation position on the touch panel.

また、請求項11の発明は、請求項9又は10に記載の画像処理装置において、前記設定手段は、前記自車両の周辺を複数の領域に分割し、領域毎に視点位置及び視線方向の移動速度を設定する。   The invention according to claim 11 is the image processing apparatus according to claim 9 or 10, wherein the setting means divides the periphery of the host vehicle into a plurality of areas, and movements in a viewpoint position and a line-of-sight direction for each area. Set the speed.

また、請求項12の発明は、請求項3ないし11のいずれか1項に記載の画像処理装置において、前記設定手段が設定した設定情報を記憶する記憶手段をさらに備え、前記記憶手段は、前記設定情報を、前記第1の表示装置又は第2の表示装置に表示されるボタンに対応付けて記憶する。   The invention according to claim 12 is the image processing device according to any one of claims 3 to 11, further comprising storage means for storing setting information set by the setting means, wherein the storage means Setting information is stored in association with buttons displayed on the first display device or the second display device.

また、請求項13の発明は、画像処理システムであって、請求項1ないし12のいずれか1項に記載の画像処理装置と、画像を表示する表示装置と、を備えている。   A thirteenth aspect of the present invention is an image processing system including the image processing apparatus according to any one of the first to twelfth aspects and a display device that displays an image.

請求項1ないし13の発明によれば、周辺画像の領域を示す補助画像を生成し、表示することから、周辺画像がいずれの仮想視点から見た車両の周辺領域であるかを容易に把握することができる。   According to the first to thirteenth aspects of the present invention, since the auxiliary image indicating the area of the peripheral image is generated and displayed, it is easy to grasp from which virtual viewpoint the peripheral image is the peripheral area of the vehicle. be able to.

また、特に請求項2の発明によれば、補助画像と周辺画像を表示する第1の表示装置とは異なる第2の表示装置に表示するため、第2の表示装置を見るだけで周辺画像の領域を把握することができる。   In particular, according to the invention of claim 2, since the auxiliary image and the peripheral image are displayed on the second display device that is different from the first display device, the peripheral image can be displayed only by looking at the second display device. The area can be grasped.

また、特に請求項3及び4の発明によれば、タッチパネルを操作することにより、仮想視点における視点位置及び視線方向を設定することができるため、ユーザの好みに応じた周辺画像の表示が可能となる。   In particular, according to the third and fourth aspects of the present invention, by operating the touch panel, the viewpoint position and the line-of-sight direction in the virtual viewpoint can be set, so that it is possible to display a peripheral image according to the user's preference. Become.

また、特に請求項5の発明によれば、タッチパネル上から指を離すことなく移動させる操作をした場合に、視点位置及び視線方向の移動も設定するため、ユーザが希望する位置や方向から見た周辺画像を動的に変化させながら表示させることが可能となり、より車両の周辺を把握し易くなる。   According to the invention of claim 5 in particular, when the operation is performed without moving the finger from the touch panel, the movement of the viewpoint position and the line-of-sight direction is also set. It is possible to display the surrounding image while dynamically changing it, making it easier to grasp the surroundings of the vehicle.

また、特に請求項6の発明によれば、異なる操作によって設定された視点位置及び視線方向を同期させることができる。また、特に請求項7及び8の発明によれば、視点位置及び視線方向を立体的に設定することができる。   In particular, according to the invention of claim 6, the viewpoint position and the line-of-sight direction set by different operations can be synchronized. In particular, according to the seventh and eighth aspects of the invention, the viewpoint position and the line-of-sight direction can be set three-dimensionally.

また、特に請求項9ないし11の発明によれば、周辺画像の表示速度をユーザの希望に応じた速度となるように簡単に設定することができる。   In particular, according to the ninth to eleventh aspects of the present invention, the display speed of the peripheral image can be easily set to be a speed according to the user's desire.

また、特に請求項12の発明によれば、設定情報を第1又は第2の表示装置に表示されるボタンに対応付けられているため、当該ボタンを操作するだけ記憶された設定情報を読み出すことが可能となる。   In particular, according to the invention of claim 12, since the setting information is associated with the button displayed on the first or second display device, the stored setting information is read only by operating the button. Is possible.

図1は、画像表示システムの概要を示す図である。FIG. 1 is a diagram showing an overview of an image display system. 図2は、4つのカメラが撮影する方向を示す図である。FIG. 2 is a diagram illustrating directions in which four cameras capture images. 図3は、画像合成部が合成画像を生成する手法を説明する図である。FIG. 3 is a diagram illustrating a method in which the image composition unit generates a composite image. 図4は、周辺画像及び補助画像の例を示す図である。FIG. 4 is a diagram illustrating an example of a peripheral image and an auxiliary image. 図5は、周辺画像及び補助画像の例を示す図である。FIG. 5 is a diagram illustrating an example of a peripheral image and an auxiliary image. 図6は、連続的に表示された周辺画像の例を示す図である。FIG. 6 is a diagram showing an example of continuously displayed peripheral images. 図7は、連続的に表示された周辺画像の例を示す図である。FIG. 7 is a diagram showing an example of continuously displayed peripheral images. 図8は、連続的に表示された周辺画像の例を示す図である。FIG. 8 is a diagram showing an example of continuously displayed peripheral images. 図9は、補助画像の例を示す図である。FIG. 9 is a diagram illustrating an example of an auxiliary image. 図10は、補助画像と操作用画像とが表示された例を示す図である。FIG. 10 is a diagram illustrating an example in which an auxiliary image and an operation image are displayed. 図11は、周辺画像及び補助画像の例を示す図である。FIG. 11 is a diagram illustrating an example of a peripheral image and an auxiliary image. 図12は、周辺画像及び補助画像の例を示す図である。FIG. 12 is a diagram illustrating an example of a peripheral image and an auxiliary image. 図13は、三次元座標を説明するための図である。FIG. 13 is a diagram for explaining the three-dimensional coordinates. 図14は、視点データの設定画面を示す図である。FIG. 14 shows a viewpoint data setting screen. 図15は、画像表示システムの処理の流れを示すフローチャートである。FIG. 15 is a flowchart showing the flow of processing of the image display system. 図16は、視点位置の設定用画面の例を示す図である。FIG. 16 is a diagram illustrating an example of a viewpoint position setting screen. 図17は、座標値の対応付けを説明するための図である。FIG. 17 is a diagram for explaining the association of coordinate values. 図18は、視線方向の設定用画面の例を示す図である。FIG. 18 is a diagram illustrating an example of a screen for setting the line-of-sight direction. 図19は、座標値の対応付けを説明するための図である。FIG. 19 is a diagram for explaining the association of coordinate values. 図20は、座標値の対応付けを説明するための図である。FIG. 20 is a diagram for explaining the association of coordinate values. 図21は、移動速度の設定用画面の例を示す図である。FIG. 21 is a diagram illustrating an example of a moving speed setting screen. 図22は、表示範囲の設定用画面の例を示す図である。FIG. 22 is a diagram illustrating an example of a display range setting screen. 図23は、視点データの設定処理の流れを示すフローチャートである。FIG. 23 is a flowchart showing the flow of viewpoint data setting processing. 図24は、視点データの設定処理の流れを示すフローチャートである。FIG. 24 is a flowchart showing the flow of viewpoint data setting processing. 図25は、周辺画像及び補助画像の例を示す図である。FIG. 25 is a diagram illustrating an example of a peripheral image and an auxiliary image.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>   <1. First Embodiment>

<1−1.構成>     <1-1. Configuration>

図1は、第1の実施の形態の画像表示システム10の構成を示す図である。この画像表示システム10は、車両(本実施の形態では、自動車)において用いられるものであり、車両の周辺の領域を示す画像を生成して車室内に表示する機能を有している。画像表示システム10のユーザ(代表的にはドライバ)は、この画像表示システム10を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できる。以下、この画像表示システム10が搭載される車両を「自車両」という。   FIG. 1 is a diagram illustrating a configuration of an image display system 10 according to the first embodiment. This image display system 10 is used in a vehicle (in this embodiment, an automobile), and has a function of generating an image showing an area around the vehicle and displaying it in the vehicle interior. By using this image display system 10, a user (typically a driver) of the image display system 10 can grasp the state around the vehicle in almost real time. Hereinafter, a vehicle on which the image display system 10 is mounted is referred to as “own vehicle”.

図1に示すように、画像表示システム10は、複数のカメラ5、画像生成装置2、メインディスプレイ3、サブディスプレイ6及び操作ボタン4を主に備えている。複数のカメラ5はそれぞれ、自車両の周辺を撮影して撮影画像を取得し、取得した撮影画像を画像生成装置2に入力する。画像生成装置2は、自車両の周辺を示す撮影画像を用いて、メインディスプレイ3に表示するための周辺画像を生成し、サブディスプレイ6に表示するための補助画像を生成する。メインディスプレイ3は、画像生成装置2で生成された周辺画像を表示し、サブディスプレイ6は、画像生成装置2で生成された補助画像を表示する。また、操作ボタン4は、ユーザの操作を受け付ける。   As shown in FIG. 1, the image display system 10 mainly includes a plurality of cameras 5, an image generation device 2, a main display 3, a sub display 6, and operation buttons 4. Each of the plurality of cameras 5 captures a captured image by capturing the periphery of the host vehicle, and inputs the acquired captured image to the image generation device 2. The image generation device 2 generates a peripheral image to be displayed on the main display 3 using a captured image indicating the periphery of the host vehicle, and generates an auxiliary image to be displayed on the sub display 6. The main display 3 displays the peripheral image generated by the image generation device 2, and the sub display 6 displays the auxiliary image generated by the image generation device 2. The operation button 4 receives a user operation.

複数のカメラ5はそれぞれ、レンズと撮像素子とを備えており、自車両の周辺を示す撮影画像を電子的に取得する。複数のカメラ5は、フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rを含んでいる。これら4つのカメラ5F,5B,5L,5Rは、自車両9において互いに異なる位置に配置され、自車両の周辺の異なる方向を撮影する。   Each of the plurality of cameras 5 includes a lens and an image sensor, and electronically obtains a photographed image showing the periphery of the host vehicle. The multiple cameras 5 include a front camera 5F, a rear camera 5B, a left side camera 5L, and a right side camera 5R. These four cameras 5F, 5B, 5L, 5R are arranged at different positions in the host vehicle 9, and photograph different directions around the host vehicle.

図2は、4つのカメラ5F,5B,5L,5Rがそれぞれ撮影する方向を示す図である。フロントカメラ5Fは、自車両9の前端に設けられ、その光軸5Faは自車両9の直進方向に向けられる。リアカメラ5Bは、自車両9の後端に設けられ、その光軸5Baは自車両9の直進方向の逆方向に向けられる。左サイドカメラ5Lは左側の左サイドミラー93Lに設けられ、その光軸5Laは自車両9の左側方(直進方向の直交方向)に向けられる。また、右サイドカメラ5Rは右側の右サイドミラー93Rに設けられ、その光軸5Raは自車両9の右側方(直進方向の直交方向)に向けられる。   FIG. 2 is a diagram illustrating directions in which the four cameras 5F, 5B, 5L, and 5R are respectively photographed. The front camera 5F is provided at the front end of the host vehicle 9, and the optical axis 5Fa is directed in the straight traveling direction of the host vehicle 9. The rear camera 5 </ b> B is provided at the rear end of the host vehicle 9, and the optical axis 5 </ b> Ba is directed in the direction opposite to the straight traveling direction of the host vehicle 9. The left side camera 5L is provided on the left side mirror 93L on the left side, and its optical axis 5La is directed to the left side of the host vehicle 9 (a direction orthogonal to the straight traveling direction). Further, the right side camera 5R is provided on the right side mirror 93R on the right side, and its optical axis 5Ra is directed to the right side of the host vehicle 9 (a direction orthogonal to the straight traveling direction).

これらのカメラ5F,5B,5L,5Rのレンズには魚眼レンズなどの広角レンズが採用され、各カメラ5F,5B,5L,5Rは180度以上の画角θを有している。このため、4つのカメラ5F,5B,5L,5Rを利用することで、自車両9の全周囲を撮影することが可能である。   A wide-angle lens such as a fisheye lens is adopted as the lens of these cameras 5F, 5B, 5L, 5R, and each camera 5F, 5B, 5L, 5R has an angle of view θ of 180 degrees or more. For this reason, it is possible to photograph the entire periphery of the host vehicle 9 by using the four cameras 5F, 5B, 5L, and 5R.

図1に戻り、メインディスプレイ3及びサブディスプレイ6は、例えば、液晶などの薄型の表示パネルを備えており、各種の情報や画像を表示する。メインディスプレイ3及びサブディスプレイ6は、ユーザがその画面を視認できるように、自車両9のインストルメントパネルなどに配置される。メインディスプレイ3は、画像生成装置2と同一のハウジング内に配置されて画像生成装置2と一体化されていてもよく、画像生成装置2とは別体の装置であってもよい。サブディスプレイは、メインディスプレイとは別の位置であって、ユーザが自車両を運転中においてもメインディスプレイより視認し易い位置に配置されている。例えば、サブディスプレイ6は、ユーザ(ドライバ)が着座する運転席の正面にあるメータパネル内又は上部に設けられている。メインディスプレイ3及びサブディスプレイ6は、表示パネルに重ねてタッチパネル31・61を備えており、ユーザの操作を受け付けることが可能である。   Returning to FIG. 1, the main display 3 and the sub display 6 include a thin display panel such as a liquid crystal display, for example, and displays various types of information and images. The main display 3 and the sub display 6 are arranged on an instrument panel or the like of the host vehicle 9 so that the user can visually recognize the screen. The main display 3 may be disposed in the same housing as the image generation device 2 and integrated with the image generation device 2, or may be a separate device from the image generation device 2. The sub display is located at a position different from the main display and is more easily visible than the main display even when the user is driving the host vehicle. For example, the sub-display 6 is provided in or on the meter panel in front of the driver's seat where the user (driver) is seated. The main display 3 and the sub display 6 are provided with touch panels 31 and 61 overlaid on the display panel, and can accept user operations.

操作ボタン4は、ユーザの操作を受け付ける操作部材である。操作ボタン4は、例えば、自車両9のステアリングホイールに設けられており、主にドライバからの操作を受け付ける。ユーザは、この操作ボタン4や、メインディスプレイ3及びサブディスプレイ6のタッチパネル31・61を介して画像表示システム10に対する各種の操作を行うことができる。操作ボタン4及びタッチパネル31・61のいずれかにユーザの操作がなされた場合は、その操作の内容を示す操作信号が画像生成装置2に入力される。   The operation button 4 is an operation member that receives a user operation. The operation button 4 is provided, for example, on the steering wheel of the host vehicle 9 and mainly receives an operation from the driver. The user can perform various operations on the image display system 10 via the operation buttons 4 and the touch panels 31 and 61 of the main display 3 and the sub display 6. When a user operation is performed on either the operation button 4 or the touch panel 31 or 61, an operation signal indicating the content of the operation is input to the image generation device 2.

画像生成装置2は、各種の画像処理が可能な電子装置であり、画像取得部21と、画像合成部22と、画像調整部23と、画像出力部24とを備えている。   The image generation device 2 is an electronic device that can perform various types of image processing, and includes an image acquisition unit 21, an image synthesis unit 22, an image adjustment unit 23, and an image output unit 24.

画像取得部21は、4つのカメラ5F,5B,5L,5Rでそれぞれ得られた撮影画像を取得する。画像取得部21は、アナログの撮影画像をデジタルの撮影画像に変換する機能などの画像処理機能を有している。画像取得部21は、取得した撮影画像に所定の画像処理を行い、処理後の撮影画像を画像合成部22及び画像調整部23に入力する。   The image acquisition unit 21 acquires captured images respectively obtained by the four cameras 5F, 5B, 5L, and 5R. The image acquisition unit 21 has an image processing function such as a function of converting an analog captured image into a digital captured image. The image acquisition unit 21 performs predetermined image processing on the acquired captured image, and inputs the processed captured image to the image composition unit 22 and the image adjustment unit 23.

画像合成部22は、合成画像を生成するための画像処理を行うハードウェア回路である。画像合成部22は、複数のカメラ5で取得された複数の撮影画像を合成して、仮想視点からみた自車両9の周辺を示す合成画像を生成する。画像合成部22は、自車両9の周辺に相当する仮想の投影面に複数の撮影画像のデータを投影し、該投影面上のデータを用いて合成画像を生成する。この合成画像を生成する手法の詳細については後述する。   The image composition unit 22 is a hardware circuit that performs image processing for generating a composite image. The image composition unit 22 composes a plurality of captured images acquired by the plurality of cameras 5 and generates a composite image showing the periphery of the host vehicle 9 viewed from the virtual viewpoint. The image composition unit 22 projects data of a plurality of photographed images on a virtual projection plane corresponding to the periphery of the host vehicle 9, and generates a composite image using the data on the projection surface. Details of the method for generating the composite image will be described later.

画像調整部23は、メインディスプレイ3に表示するための周辺画像及びサブディスプレイ6で表示するための補助画像を生成する。画像調整部23は、画像合成部22で生成された合成画像を用いてメインディスプレイに表示する周辺画像を生成する。また、画像調整部23は、サブディスプレイ6に表示する画像として、メインディスプレイ3に表示する周辺画像に対応する補助画像を作成する。   The image adjusting unit 23 generates a peripheral image to be displayed on the main display 3 and an auxiliary image to be displayed on the sub display 6. The image adjustment unit 23 generates a peripheral image to be displayed on the main display using the composite image generated by the image composition unit 22. Further, the image adjustment unit 23 creates an auxiliary image corresponding to the peripheral image displayed on the main display 3 as an image to be displayed on the sub display 6.

画像出力部24は、画像調整部23で生成された周辺画像をメインディスプレイ3に出力して、周辺画像をメインディスプレイ3に表示させる。また、画像出力部24は、画像調整部23で生成された補助画像をサブディスプレイ6に出力して、補助画像をサブディスプレイ6に表示させる。これにより、仮想視点からみた自車両9の周辺を示す周辺画像がメインディスプレイ3に表示され、メインディスプレイ3に表示された周辺画像の領域を示す補助画像がサブディスプレイ6に表示される。   The image output unit 24 outputs the peripheral image generated by the image adjustment unit 23 to the main display 3 and causes the main display 3 to display the peripheral image. Further, the image output unit 24 outputs the auxiliary image generated by the image adjustment unit 23 to the sub display 6 and causes the sub display 6 to display the auxiliary image. As a result, a peripheral image indicating the periphery of the host vehicle 9 as viewed from the virtual viewpoint is displayed on the main display 3, and an auxiliary image indicating a region of the peripheral image displayed on the main display 3 is displayed on the sub display 6.

また、画像生成装置2は、制御部20と、操作受付部25と、信号受信部26と、記憶部27とをさらに備えている。制御部20は、例えば、CPU、RAM及びROMなどを備えたマイクロコンピュータであり、画像生成装置2の全体を統括的に制御する。   The image generation device 2 further includes a control unit 20, an operation reception unit 25, a signal reception unit 26, and a storage unit 27. The control unit 20 is a microcomputer including a CPU, a RAM, a ROM, and the like, for example, and comprehensively controls the entire image generation apparatus 2.

操作受付部25は、ユーザが操作を行った場合に操作ボタン4及びタッチパネル31・61から出力される操作信号を受信する。これにより、操作受付部25はユーザの操作を受け付ける。操作受付部25は、受信した操作信号を制御部20に入力する。   The operation receiving unit 25 receives operation signals output from the operation buttons 4 and the touch panels 31 and 61 when the user performs an operation. Thereby, the operation reception part 25 receives a user's operation. The operation reception unit 25 inputs the received operation signal to the control unit 20.

信号受信部26は、画像生成装置2とは別に自車両9に設けられる他の装置からの信号を受信して、制御部20に入力する。信号受信部26は、例えば、自車両9の変速装置のシフトレバーの位置であるシフトポジションを示す信号をシフトセンサ91から受信する。この信号に基づいて、制御部20は、自車両9の進行方向が前方あるいは後方のいずれであるかを判定することができる。   The signal receiving unit 26 receives a signal from another device provided in the host vehicle 9 separately from the image generating device 2 and inputs the signal to the control unit 20. For example, the signal receiving unit 26 receives a signal indicating a shift position, which is the position of the shift lever of the transmission of the host vehicle 9, from the shift sensor 91. Based on this signal, the control unit 20 can determine whether the traveling direction of the host vehicle 9 is forward or backward.

記憶部27は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部27は、ファームウェアとしてのプログラム27aや、画像合成部22が合成画像を生成するために用いる各種のデータや、画像調整部23が周辺画像及び補助画像を生成するために用いる各種のデータを記憶する。例えば、このような周辺画像や補助画像の生成に用いるデータとして仮想視点等を含む視点データ27bが含まれる。   The storage unit 27 is, for example, a nonvolatile memory such as a flash memory, and stores various types of information. The storage unit 27 stores a program 27a as firmware, various data used by the image composition unit 22 to generate a composite image, and various data used by the image adjustment unit 23 to generate a peripheral image and an auxiliary image. Remember. For example, viewpoint data 27b including a virtual viewpoint is included as data used for generating such peripheral images and auxiliary images.

制御部20の各種の機能は、記憶部27に記憶されたプログラム27aに従ってCPUが演算処理を行うことで実現される。図中に示す画像制御部20a、視点データ設定部20b及び登録部20cは、プログラム27aに従ってCPUが演算処理を行うことで実現される機能部の一部である。   Various functions of the control unit 20 are realized by the CPU performing arithmetic processing according to the program 27 a stored in the storage unit 27. The image control unit 20a, the viewpoint data setting unit 20b, and the registration unit 20c shown in the drawing are a part of functional units realized by the CPU performing arithmetic processing according to the program 27a.

画像制御部20aは、合成画像を生成する画像合成部22と、周辺画像及び補助画像を生成する画像調整部23とを制御する。画像制御部20aは、画像合成部22及び画像調整部23を制御して、自車両9の走行状態やユーザの操作に応じた合成画像、周辺画像及び補助画像を生成させる。また、視点データ設定部20bは、合成画像、周辺画像及び補助画像を生成する際に用いる視点データを設定する。視点データ設定部20bは、ユーザが操作ボタン4やタッチパネル31・61を操作して好みの視点データを設定する際に、仮想視点等の設定を行うものである。登録部20cは、設定された視点データをプリセットボタンに対応付けて登録し、記憶部27に記憶させるものである。   The image control unit 20a controls an image composition unit 22 that generates a composite image and an image adjustment unit 23 that generates a peripheral image and an auxiliary image. The image control unit 20a controls the image composition unit 22 and the image adjustment unit 23 to generate a composite image, a peripheral image, and an auxiliary image according to the traveling state of the host vehicle 9 and the user's operation. The viewpoint data setting unit 20b sets viewpoint data used when generating a composite image, a peripheral image, and an auxiliary image. The viewpoint data setting unit 20b sets a virtual viewpoint when the user operates the operation buttons 4 and the touch panels 31 and 61 to set favorite viewpoint data. The registration unit 20 c registers the set viewpoint data in association with the preset button, and stores it in the storage unit 27.

<1−2.合成画像の生成>     <1-2. Generation of composite image>

次に、画像合成部22が、仮想視点からみた自車両9の周辺の様子を示す合成画像を生成する手法について説明する。図3は、画像合成部22が合成画像を生成する手法を説明する図である。   Next, a method will be described in which the image composition unit 22 generates a composite image that shows the surroundings of the host vehicle 9 viewed from a virtual viewpoint. FIG. 3 is a diagram illustrating a method in which the image composition unit 22 generates a composite image.

フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rのそれぞれで撮影が行われると、自車両9の前方、後方、左側方及び右側方をそれぞれ示す4つの撮影画像SF,SB,SL,SRが取得される。これら4つの撮影画像SF,SB,SL,SRには、自車両9の全周囲のデータが含まれている。   When shooting is performed with each of the front camera 5F, the rear camera 5B, the left side camera 5L, and the right side camera 5R, four captured images SF that respectively indicate the front, rear, left side, and right side of the host vehicle 9 are displayed. SB, SL, and SR are acquired. These four captured images SF, SB, SL, and SR include data around the entire vehicle 9.

画像合成部22は、まず、これら4つの撮影画像SF,SB,SL,SRに含まれるデータ(各画素の値)を、仮想的な三次元空間における投影面TSに投影する。投影面TSは、自車両9の周辺の領域に相当する仮想の立体面である。投影面TSの中心領域は、自車両9の位置となる車両領域R0として定められている。   First, the image composition unit 22 projects data (values of each pixel) included in these four captured images SF, SB, SL, and SR onto a projection plane TS in a virtual three-dimensional space. The projection surface TS is a virtual three-dimensional surface corresponding to the area around the host vehicle 9. The central area of the projection plane TS is defined as a vehicle area R0 that is the position of the host vehicle 9.

投影面TSでは、車両領域(自車両9の位置)R0には撮影画像のデータは投影されず、車両領域R0の外側の領域に撮影画像のデータが投影される。以下、投影面TSにおいて、撮影画像のデータが投影される領域(車両領域R0の外側の領域)を、「投影対象領域」という。   On the projection surface TS, the captured image data is not projected on the vehicle area (position of the host vehicle 9) R0, and the captured image data is projected on the area outside the vehicle area R0. Hereinafter, a region on the projection surface TS onto which the captured image data is projected (a region outside the vehicle region R0) is referred to as a “projection target region”.

また、車両領域R0には自車両9の三次元形状を示すポリゴンモデルである車両像PGを仮想的に備えている。構成された車両像PGは、投影面TSが設定される三次元空間において、自車両9の位置と定められた略半球状の中心部分に配置される。   The vehicle region R0 is virtually provided with a vehicle image PG that is a polygon model indicating the three-dimensional shape of the host vehicle 9. The configured vehicle image PG is arranged at a substantially hemispherical center portion defined as the position of the host vehicle 9 in the three-dimensional space where the projection plane TS is set.

投影面TSの投影対象領域における各位置は、4つの撮影画像SF,SB,SL,SRのいずれかと、テーブルデータ等の対応情報によって対応付けられている。画像合成部22は、4つの撮影画像SF,SB,SL,SRのデータをそれぞれ投影対象領域の対応する部分に投影する。   Each position in the projection target area of the projection surface TS is associated with one of the four captured images SF, SB, SL, and SR by correspondence information such as table data. The image composition unit 22 projects the data of the four captured images SF, SB, SL, and SR on the corresponding portions of the projection target area.

画像合成部22は、投影対象領域において自車両9の前方に相当する部分PFに、フロントカメラ5Fの撮影画像SFのデータを投影する。また、画像合成部22は、投影対象領域において自車両9の後方に相当する部分PBに、リアカメラ5Bの撮影画像SBのデータを投影する。さらに、画像合成部22は、投影対象領域において自車両9の左側方に相当する部分PLに左サイドカメラ5Lの撮影画像SLのデータを投影し、投影対象領域において自車両9の右側方に相当する部分PRに右サイドカメラ5Rの撮影画像SRのデータを投影する。   The image composition unit 22 projects the data of the captured image SF of the front camera 5F onto a portion PF corresponding to the front of the host vehicle 9 in the projection target area. In addition, the image composition unit 22 projects the data of the captured image SB of the rear camera 5B onto a portion PB corresponding to the rear of the host vehicle 9 in the projection target area. Furthermore, the image composition unit 22 projects the data of the captured image SL of the left side camera 5L on the portion PL corresponding to the left side of the host vehicle 9 in the projection target area, and corresponds to the right side of the host vehicle 9 in the projection target area. Data of the captured image SR of the right side camera 5R is projected onto the part PR to be performed.

このように投影面TSの投影対象領域の各部分に撮影画像のデータを投影すると、画像合成部22は、自車両9の三次元形状を示すポリゴンのモデルを仮想的に構成する。この自車両9のモデルは、投影面TSが設定される三次元空間における自車両9の位置である車両領域R0に配置される。   When the captured image data is projected onto each portion of the projection target area of the projection surface TS in this way, the image composition unit 22 virtually constructs a polygon model indicating the three-dimensional shape of the host vehicle 9. The model of the host vehicle 9 is arranged in the vehicle region R0 that is the position of the host vehicle 9 in the three-dimensional space where the projection plane TS is set.

次に、画像合成部22は、画像制御部20aの制御により、三次元空間に対して仮想視点VPを設定する。画像合成部22は、三次元空間における任意の視点位置に任意の視線方向に向けて仮想視点VPを設定できる。そして、画像合成部22は、投影面TSのうち、設定した仮想視点VPからみて所定の視野角に含まれる領域に投影されたデータを画像として切り出す。また、画像合成部22は、設定した仮想視点VPに応じて自車両9のモデルに関してレンダリングを行い、その結果となる二次元の車両像90を、切り出した画像に対して重畳する。これにより、画像合成部22は、仮想視点VPからみた自車両9及び自車両9の周辺を示す合成画像CPを生成する。   Next, the image composition unit 22 sets a virtual viewpoint VP for the three-dimensional space under the control of the image control unit 20a. The image composition unit 22 can set the virtual viewpoint VP at an arbitrary viewpoint position in the three-dimensional space in an arbitrary line-of-sight direction. Then, the image composition unit 22 cuts out, as an image, data projected on an area included in a predetermined viewing angle from the set virtual viewpoint VP in the projection surface TS. Further, the image composition unit 22 performs rendering on the model of the host vehicle 9 according to the set virtual viewpoint VP, and superimposes the two-dimensional vehicle image 90 as a result on the cut-out image. Thereby, the image composition unit 22 generates the composite image CP showing the host vehicle 9 and the periphery of the host vehicle 9 viewed from the virtual viewpoint VP.

例えば図3に示すように、視点位置を自車両9の直上、視線方向を直下とした仮想視点VPaを設定した場合には、自車両9及び自車両9の周辺の領域を俯瞰する合成画像(俯瞰画像)CPaが生成される。また、視点位置を自車両9の内部、視線方向を左前方とした仮想視点VPbを設定した場合には、自車両9の左前方の周辺を表示する合成画像CPbが生成される。同様に、視点位置を自車両9の左側面、視線方向を左方向とした仮想視点VPcを設定した場合には、自車両9の左側の周辺を表示する合成画像CPcが生成される。   For example, as shown in FIG. 3, when a virtual viewpoint VPa is set with the viewpoint position directly above the host vehicle 9 and the line-of-sight direction immediately below, a composite image (overview of the host vehicle 9 and the surrounding area of the host vehicle 9 ( Overhead image) CPa is generated. When the virtual viewpoint VPb is set with the viewpoint position inside the host vehicle 9 and the line-of-sight direction set to the left front, a composite image CPb that displays the left front periphery of the host vehicle 9 is generated. Similarly, when the virtual viewpoint VPc with the viewpoint position on the left side of the host vehicle 9 and the line-of-sight direction on the left is set, a composite image CPc that displays the periphery on the left side of the host vehicle 9 is generated.

本実施の形態では、ユーザが予め仮想視点を設定し、設定した仮想視点を含む視点データ27bを記憶部27にプリセットデータとして登録している。そして、ユーザが登録されているプリセットデータの中からいずれかの視点データ27bを選択すると、画像合成部22は、その選択された視点データ27bに基づいて自車両9及び自車両9の周辺を表示する合成画像を生成するようになっている。   In the present embodiment, a user sets a virtual viewpoint in advance, and viewpoint data 27b including the set virtual viewpoint is registered in the storage unit 27 as preset data. When the user selects any viewpoint data 27b from the registered preset data, the image composition unit 22 displays the host vehicle 9 and the surroundings of the host vehicle 9 based on the selected viewpoint data 27b. A composite image to be generated is generated.

例えば、ユーザが自車両9の内部のドライバの視点付近を視点位置とし、自車両9の左前方を視線方向とする仮想視点を含む視点データ27bを選択した場合には、仮想視点VPbが設定され、画像合成部22は、該当する領域に投影されたデータを画像として切り出すことで、ドライバ視点で左前方を表示した合成画像CPbを作成する。   For example, when the user selects the viewpoint data 27b including the virtual viewpoint in which the vicinity of the viewpoint of the driver inside the host vehicle 9 is the viewpoint position and the left front of the host vehicle 9 is the line-of-sight direction, the virtual viewpoint VPb is set. The image composition unit 22 creates a composite image CPb in which the left front is displayed from the driver viewpoint by cutting out the data projected on the corresponding area as an image.

同様に、ユーザが自車両9の左側面を視点位置とし、左方向を視線方向とする仮想視点を含む視点データ27bを選択した場合には、仮想視点VPcが設定され、画像合成部22は、該当する領域に投影されたデータを画像として切り出すことで、車両の左側面から左方向を表示した合成画像CPcを作成する。また、視点データ27bに視点位置及び視線方向が複数含まれる場合には、画像合成部22は、それらに対応する複数の合成画像を作成する。なお、このユーザによる視点データの設定処理の詳細は後述する。   Similarly, when the user selects the viewpoint data 27b including the virtual viewpoint in which the left side surface of the host vehicle 9 is the viewpoint position and the left direction is the line-of-sight direction, the virtual viewpoint VPc is set, and the image composition unit 22 By cutting out the data projected on the corresponding area as an image, a composite image CPc displaying the left direction from the left side surface of the vehicle is created. When the viewpoint data 27b includes a plurality of viewpoint positions and line-of-sight directions, the image composition unit 22 creates a plurality of composite images corresponding to them. Details of the viewpoint data setting process by the user will be described later.

<1−3.周辺画像及び補助画像>     <1-3. Peripheral image and auxiliary image>

次に、画像調整部23が周辺画像及び補助画像を生成する処理と、画像出力部24が周辺画像及び補助画像を各々メインディスプレイ3及びサブディスプレイ6に表示する処理について説明する。図4は、画像調整部23が生成する周辺画像及び補助画像の例を示す図である。図4(a)はメインディスプレイ3に表示する周辺画像の例であり、図4(b)はサブディスプレイ6に表示する補助画像の例である。   Next, a process in which the image adjustment unit 23 generates a peripheral image and an auxiliary image, and a process in which the image output unit 24 displays the peripheral image and the auxiliary image on the main display 3 and the sub display 6 will be described. FIG. 4 is a diagram illustrating an example of a peripheral image and an auxiliary image generated by the image adjustment unit 23. FIG. 4A shows an example of a peripheral image displayed on the main display 3, and FIG. 4B shows an example of an auxiliary image displayed on the sub display 6.

図4(a)に示す周辺画像は、ユーザが自車両9のドライバの視点付近を視点位置とし、自車両の左前方を視線方向とする仮想視点を含む視点データ27bを選択した場合の周辺画像である。周辺画像は、画像合成部22が作成した合成画像に、車両内部の透過画像を重畳表示した画像である。これは、車両内部を視点位置としている場合に、視線方向に見える現実の光景に近い画像とするためであり、周囲の物体と自車両9との位置関係も理解しやすくなっている。ただし、自車両9の周辺の物体が車両内部の画像で隠れてしまうことがないように、車両内部の画像を透過画像にしている。なお、車両内部の透過画像は、予めCGで作成した画像を用いて作成することができ、図4(a)では、画像調整部23が視線方向に対応するCGを用いて透過画像を合成画像に重畳表示することで周辺画像を生成している。   The peripheral image shown in FIG. 4A is a peripheral image when the user selects viewpoint data 27b including a virtual viewpoint in which the vicinity of the viewpoint of the driver of the host vehicle 9 is the viewpoint position and the left front of the host vehicle is the line-of-sight direction. It is. The peripheral image is an image in which a transmission image inside the vehicle is superimposed and displayed on the composite image created by the image composition unit 22. This is because when the inside of the vehicle is set as the viewpoint position, the image is close to an actual scene seen in the line-of-sight direction, and the positional relationship between the surrounding object and the host vehicle 9 is easily understood. However, the image inside the vehicle is made a transparent image so that objects around the host vehicle 9 are not hidden by the image inside the vehicle. The transmission image inside the vehicle can be created using an image created in advance by CG. In FIG. 4A, the image adjustment unit 23 combines the transmission image using CG corresponding to the line-of-sight direction. A peripheral image is generated by superimposing and displaying the image.

図4(b)に示す補助画像は、メインディスプレイ3に表示されている周辺画像の領域を示す画像である。すなわち、補助画像と周辺画像とは対応付けられた画像である。図4(b)に示す補助画像では、自車両9を上方から俯瞰したイメージの画像に対して、メインディスプレイ3に表示されている周辺画像の領域が強調表示されている。このように、サブディスプレイ6には、補助画像として、メインディスプレイ3で表示されている周辺画像が自車両9から見てどの方向に当たるのかを示すスコープ画像が表示される。   The auxiliary image shown in FIG. 4B is an image showing the area of the peripheral image displayed on the main display 3. That is, the auxiliary image and the peripheral image are associated images. In the auxiliary image shown in FIG. 4B, the area of the peripheral image displayed on the main display 3 is highlighted with respect to the image of the image obtained by looking down the host vehicle 9 from above. In this way, on the sub-display 6, a scope image indicating in which direction the peripheral image displayed on the main display 3 hits as viewed from the host vehicle 9 is displayed as an auxiliary image.

画像調整部23は、メインディスプレイ3に表示する周辺画像を作成すると、その視点データに基づいて補助画像を作成する。具体的には、視点データの中には、仮想視点(すなわち視点位置及び視線方向)に関するデータが含まれており、画像調整部23は、この視線方向に相当する領域を強調表示することで補助画像を作成する。   When the image adjustment unit 23 creates a peripheral image to be displayed on the main display 3, the image adjustment unit 23 creates an auxiliary image based on the viewpoint data. Specifically, the viewpoint data includes data relating to the virtual viewpoint (that is, the viewpoint position and the line-of-sight direction), and the image adjustment unit 23 assists by highlighting a region corresponding to the line-of-sight direction. Create an image.

図4の場合、メインディスプレイ3には自車両9のドライバの視点付近を視点位置とし、左前方を視線方向とする周辺画像が表示されており、同時にサブディスプレイ6には、視線方向が左前方であること(すなわち、周辺画像の領域が車両の左前方であること)を示す補助画像が表示されることになる。このようにして、ユーザは、メインディスプレイ3に表示されている画像がいずれの方向を見た画像であるかをサブディスプレイ6を見るだけで容易に把握することができる。   In the case of FIG. 4, a peripheral image is displayed on the main display 3 with the vicinity of the viewpoint of the driver of the host vehicle 9 as the viewpoint position and the front left direction as the line-of-sight direction. An auxiliary image indicating that this is the case (that is, the area of the peripheral image is the front left of the vehicle) is displayed. In this way, the user can easily grasp which direction the image displayed on the main display 3 is viewed from only by looking at the sub-display 6.

なお、図4(b)では、周辺画像の領域を示す扇形のスコープ画像を表示しているが、補助画像はこれに限定されるものではない。例えば、視点位置を始点として視線方向(周辺画像の中心軸方向)に延びる矢印を表示することもできる。また、視点位置と周辺画像の領域の中心に相当する位置との2点を表示することもできる。さらに、視点位置が固定の場合には、周辺画像の領域の中心に相当する位置の点だけを表示してもよい。   In FIG. 4B, a fan-shaped scope image indicating a peripheral image region is displayed, but the auxiliary image is not limited to this. For example, an arrow extending from the viewpoint position in the line-of-sight direction (the central axis direction of the peripheral image) can be displayed. It is also possible to display two points: a viewpoint position and a position corresponding to the center of the area of the peripheral image. Further, when the viewpoint position is fixed, only the point at the position corresponding to the center of the area of the peripheral image may be displayed.

本実施の形態では、仮想視点を1点に設定して周辺画像を表示するのみならず、仮想視点を複数設定して周辺画像を表示することも可能である。例えば、仮想視点として、ドライバの視点付近を視点位置にして、自車両9の前方、後方、右側方、左側方の4方向を視線方向として設定した場合には、各仮想視点から見た周辺画像が作成される。   In the present embodiment, it is possible not only to display a peripheral image by setting the virtual viewpoint to one point, but also to display a peripheral image by setting a plurality of virtual viewpoints. For example, when the viewpoint near the driver's viewpoint is set as the virtual viewpoint and the four directions of the front, rear, right side, and left side of the host vehicle 9 are set as the line-of-sight directions, the peripheral images viewed from each virtual viewpoint Is created.

図5は、この場合における周辺画像及び補助画像の例を示す図である。図5(a)は、視点位置から自車両9の前方を視線方向とした際の周辺画像であり、図5(b)は自車両9の左側方を視線方向とした際の周辺画像であり、図5(c)は自車両9の後方を視線方向とした際の周辺画像であり、図5(d)は自車両9の右側方を視線方向とした際の周辺画像である。これら各周辺画像は、画像調整部23が上述した方法により合成画像及び透過画像を用いて作成される。また、図5(e)〜(h)は、図5(a)〜(d)に各々対応する補助画像である。これら各補助画像においても、画像調整部23が上述した方法により作成する。   FIG. 5 is a diagram illustrating an example of a peripheral image and an auxiliary image in this case. FIG. 5A is a peripheral image when the front direction of the host vehicle 9 is set as the line-of-sight direction from the viewpoint position, and FIG. 5B is a peripheral image when the left side of the host vehicle 9 is set as the line-of-sight direction. FIG. 5C is a peripheral image when the rear direction of the host vehicle 9 is set as the line-of-sight direction, and FIG. 5D is a peripheral image when the right side of the host vehicle 9 is set as the line-of-sight direction. Each of these peripheral images is created by the image adjustment unit 23 using the composite image and the transmission image by the method described above. FIGS. 5E to 5H are auxiliary images corresponding to FIGS. 5A to 5D, respectively. Also in each of these auxiliary images, the image adjusting unit 23 creates them by the method described above.

なお、これら各周辺画像をメインディスプレイ3に表示する際には、各周辺画像を順番に切り替えて表示することができる。例えば、前方の周辺画像、左側方の周辺画像、後方の周辺画像、右側方の周辺画像の順に切り替えて表示する等である。また、この際には、サブディスプレイ6には、同じタイミングで各周辺画像に対応する補助画像を順に切り替えて表示することになる。すなわち、画像出力部24は、周辺画像及び補助画像を同じタイミングでメインディスプレイ3及びサブディスプレイ6に表示する。これにより、メインディスプレイ3に表示されている周辺画像と、サブディスプレイ6に表示されている補助画像とを対応付けて表示することができ、自車両9の周囲を表示する画像がどの方向から見た画像であるのかを容易に把握することが可能になる。なお、表示する順番は任意であり、適宜設定可能である。   When these peripheral images are displayed on the main display 3, the peripheral images can be switched in order and displayed. For example, the front peripheral image, the left peripheral image, the rear peripheral image, and the right peripheral image are switched and displayed in this order. At this time, the auxiliary display corresponding to each peripheral image is sequentially switched and displayed on the sub display 6 at the same timing. That is, the image output unit 24 displays the peripheral image and the auxiliary image on the main display 3 and the sub display 6 at the same timing. Thus, the peripheral image displayed on the main display 3 and the auxiliary image displayed on the sub display 6 can be displayed in association with each other, and the image displaying the periphery of the host vehicle 9 can be viewed from which direction. It is possible to easily grasp whether the image is an image. Note that the display order is arbitrary and can be set as appropriate.

また、仮想視点の数をさらに多く設定し、各仮想視点に対応する周辺画像を順に表示すれば、視線方向の少しだけ異なる周辺画像を連続的に表示することができ、動画のような表示が可能となる。このような表示にすると、ユーザは、自車両周辺の複数個所を断片的に確認するのではなく、自車両周辺の全領域を連続的に確認することができる。また、これに対応させて、補助画像も連続的に表示すれば、周辺画像の領域を連続的に把握することが可能になる。   In addition, if the number of virtual viewpoints is set to be larger and peripheral images corresponding to each virtual viewpoint are displayed in order, peripheral images slightly different in the line-of-sight direction can be continuously displayed, and a moving image-like display can be obtained. It becomes possible. With such a display, the user can continuously check the entire area around the host vehicle, instead of checking a plurality of locations around the host vehicle in pieces. Corresponding to this, if the auxiliary image is also continuously displayed, it is possible to continuously grasp the area of the peripheral image.

図6〜図8は、メインディスプレイ3に連続的に周辺画像を表示する例を示す図である。図6〜図8(b)は、各々ドライバの視点付近を視点位置としている。また、図6(a)〜(c)は、各々自車両9の前方、左前方、左側方を視線方向とする周辺画像である。図7(a)〜(c)は、各々自車両9の左後方、後方、右後方を視線方向とする周辺画像である。図8(a)(b)は、各々自車両9の右側方、右前方を視線方向とする周辺画像であり、図8(c)は、自車両の直上を視点位置とし、直下を視線方向とする周辺画像である。なお、これら図6〜図8は、周辺画像の代表的な例として挙げているが、これら各周辺画像の間にも図示しない複数の周辺画像が生成されている。   6 to 8 are diagrams illustrating an example in which peripheral images are continuously displayed on the main display 3. 6 to 8B, the vicinity of the driver's viewpoint is set as the viewpoint position. 6A to 6C are peripheral images in which the front direction, the left front direction, and the left side of the host vehicle 9 are line-of-sight directions. FIGS. 7A to 7C are peripheral images in which the left rear, the rear, and the right rear of the host vehicle 9 are line-of-sight directions. FIGS. 8A and 8B are peripheral images in which the right side and the right front of the host vehicle 9 are line-of-sight directions, respectively, and FIG. 8C is a view position directly above the host vehicle and the line-of-sight direction directly below the host vehicle. Is a peripheral image. 6 to 8 are given as representative examples of peripheral images, but a plurality of peripheral images (not shown) are generated between these peripheral images.

これら各周辺画像と各周辺画像の間に生成されている周辺画像とを、図6(a)(b)(c)、図7(a)(b)(c)、図8(a)(b)(c)の順に表示していくと、自車両9の前方から左方向に視線方向を回転させ、最終的に上方から自車両9を見た画像を連続的に表示することができる。このため、ユーザは、自車両9の周辺の状況を動画像として確認することが可能になる。また、本実施の形態では、最後に自車両9の上方から見た周辺画像を表示しているため、ドライバの視点から周囲を見た画像と、自車両9の周囲の全域を見た画像との双方を確認することができ、車両周辺の状況がより把握し易くなる。   These peripheral images and the peripheral images generated between the peripheral images are shown in FIGS. 6A, 6B, 7C, 7A, 7B, 7C, and 8A. When the images are displayed in the order of b) and (c), the line-of-sight direction can be rotated from the front of the host vehicle 9 to the left, and finally the image of the host vehicle 9 viewed from above can be continuously displayed. For this reason, the user can check the situation around the host vehicle 9 as a moving image. In the present embodiment, since the peripheral image viewed from the top of the host vehicle 9 is displayed lastly, an image of the surroundings viewed from the driver's viewpoint, and an image of the entire region surrounding the host vehicle 9 are displayed. Both of these can be confirmed, and it becomes easier to grasp the situation around the vehicle.

また、図9は、図6〜図8の周辺画像がメインディスプレイ3に表示される際に、サブディスプレイ6に表示される補助画像の例を示す図である。図9(a)〜(i)に示す補助画像は、図6(a)〜図8(c)に示す周辺画像に対応している。すなわち、メインディスプレイ3に図6(a)〜図8(c)に示す周辺画像を表示するに際して、サブディスプレイ6には図9(a)〜(i)の補助画像が、対応する周辺画像と同じタイミングで連続的に表示される。従って、この場合においても、メインディスプレイ3に表示されている周辺画像の領域を容易に把握することができる。   FIG. 9 is a diagram illustrating an example of an auxiliary image displayed on the sub-display 6 when the peripheral images of FIGS. 6 to 8 are displayed on the main display 3. The auxiliary images shown in FIGS. 9A to 9I correspond to the peripheral images shown in FIGS. 6A to 8C. That is, when the peripheral images shown in FIGS. 6A to 8C are displayed on the main display 3, the auxiliary images shown in FIGS. 9A to 9I are displayed on the sub display 6 with the corresponding peripheral images. It is displayed continuously at the same timing. Therefore, even in this case, the area of the peripheral image displayed on the main display 3 can be easily grasped.

なお、ユーザが操作ボタン4やタッチパネル61を操作することで、周辺画像の表示を自由に変更することも可能である。この場合、サブディスプレイ6には、図10に示すような画像が表示される。図10に示す画像には、補助画像に加えて操作用画像が表示されている。操作用画像は、周辺画像の連続表示の停止や再生用のボタン、視線方向の回転用のボタンが表示された画像である。   It is also possible for the user to freely change the display of the peripheral image by operating the operation button 4 or the touch panel 61. In this case, the sub display 6 displays an image as shown in FIG. In the image shown in FIG. 10, an operation image is displayed in addition to the auxiliary image. The operation image is an image on which a button for stopping and reproducing the continuous display of peripheral images, a button for rotating in the line of sight direction, and the like are displayed.

ユーザがサブディスプレイ6に表示された操作用画像に対応する箇所のタッチパネル61を操作することにより周辺画像の表示の変更が可能になる。例えば、周辺画像の連続表示を行っている際に、停止ボタンを操作すると、周辺画像の連続表示は表示されている画像の状態で停止する。そして、「視点右回転」ボタンを操作すると、現在表示されている周辺画像の視線方向から右方向に視線方向を移動させた周辺画像が表示される。また、周辺画像の表示が停止した状態で「視点左回転」ボタンを操作すると、現在表示されている周辺画像の視線方向から左方向に視線方向を移動させた周辺画像が表示される。   When the user operates the touch panel 61 corresponding to the operation image displayed on the sub-display 6, the display of the peripheral image can be changed. For example, when the stop button is operated while the peripheral image is being continuously displayed, the continuous display of the peripheral image is stopped in the state of the displayed image. Then, when the “viewpoint right rotation” button is operated, a peripheral image in which the line-of-sight direction is moved to the right from the line-of-sight direction of the currently displayed peripheral image is displayed. Further, when the “viewpoint left rotation” button is operated in a state where the display of the peripheral image is stopped, the peripheral image in which the line-of-sight direction is moved to the left from the line-of-sight direction of the currently displayed peripheral image is displayed.

例えば、図11(a)に示す周辺画像及び補助画像が表示されているときに、「視点右回転」ボタンを操作すると、視線方向を右方向に移動させた各周辺画像及び各補助画像が連続表示される。これにより、例えば、図11(b)に示す画像が表示される。また、同様に、図11(a)に示す周辺画像及び補助画像が表示されているときに、「視点左回転」ボタンを操作すると、視線方向を左方向に移動させた各周辺画像及び各補助画像が連続表示される。これにより、例えば、図11(c)に示す画像が表示される。   For example, when the “viewpoint right rotation” button is operated when the peripheral image and the auxiliary image shown in FIG. 11A are displayed, the peripheral image and the auxiliary image whose gaze direction is moved to the right are continuously displayed. Is displayed. Thereby, for example, the image shown in FIG. 11B is displayed. Similarly, when the “viewpoint left rotation” button is operated while the peripheral image and the auxiliary image shown in FIG. 11A are displayed, each peripheral image and each auxiliary image whose gaze direction is moved to the left are displayed. Images are displayed continuously. Thereby, for example, the image shown in FIG. 11C is displayed.

なお、タッチパネル61の操作の仕方(操作する時間の長さや力の大きさ等)に応じて周辺画像の移動速度を適宜変化させることも可能である。また、再生ボタンを操作すると、操作した時点で表示されている周辺画像の状態から、予め設定された移動方向及び移動速度での連続表示が開始する。また、例えば、操作ボタン4がステアリングホイールに設けられていて、操作ボタン4と操作用画像とが対応付けられている場合には、ステアリングホイールの操作ボタン4を操作することで、同様の操作を行うことができるようにしてもよい。   It should be noted that the moving speed of the peripheral image can be appropriately changed according to the operation method of the touch panel 61 (the length of time for operation, the magnitude of force, etc.). Further, when the playback button is operated, continuous display with a preset moving direction and moving speed starts from the state of the peripheral image displayed at the time of the operation. For example, when the operation button 4 is provided on the steering wheel and the operation button 4 is associated with the operation image, the same operation can be performed by operating the operation button 4 of the steering wheel. You may be able to do that.

また、仮想視点の視点位置が車両外にある場合には、周辺画像には透過画像は表示されず合成画像のみとなる。この場合の周辺画像の例を図12(a)及び(b)に示す。図12(a)は、自車両9外部の左側を視点位置として、自車両9の左側方を視線方向とする仮想視点から見た周辺画像である。また、図12(b)は、自車両9外部の後方を視点位置として、自車両9の後方を視線方向とする仮想視点から見た周辺画像である。   Further, when the viewpoint position of the virtual viewpoint is outside the vehicle, the transmitted image is not displayed in the peripheral image, and only the composite image is displayed. Examples of peripheral images in this case are shown in FIGS. FIG. 12A is a peripheral image viewed from a virtual viewpoint with the left side outside the host vehicle 9 as the viewpoint position and the left side of the host vehicle 9 as the viewing direction. FIG. 12B is a peripheral image viewed from a virtual viewpoint in which the rear of the host vehicle 9 is the viewpoint position and the rear of the host vehicle 9 is the viewing direction.

なお、視点位置が自車両9外部にある場合の補助画像としては、上述した補助画像のほかに、視点位置を自車両9の外部にしたスコープ画像を用いることもできる。例えば、図12(c)及び(d)に示す補助画像である。図12(c)は図12(a)に対応する補助画像であり、図12(c)は図12(b)に対応する補助画像である。共に、視点位置が自車両9外部であるため、視点位置を車両の外部にしたスコープ画像を用いている。   As an auxiliary image when the viewpoint position is outside the host vehicle 9, a scope image having the viewpoint position outside the host vehicle 9 can be used in addition to the auxiliary image described above. For example, the auxiliary images shown in FIGS. FIG. 12C is an auxiliary image corresponding to FIG. 12A, and FIG. 12C is an auxiliary image corresponding to FIG. In both cases, since the viewpoint position is outside the own vehicle 9, a scope image with the viewpoint position outside the vehicle is used.

<1−4.視点データの設定>     <1-4. Setting viewpoint data>

次に、ユーザが視点データを設定する処理について説明する。視点データは、一般的なデータが初期設定として登録されている場合のほか、ユーザが任意に設定して設定情報として登録することができる。視点データには、仮想視点、移動方向、移動速度、表示範囲に関するデータが含まれている。仮想視点とは、視点位置及び視線方向に関するデータである。また、移動方向とは、仮想視点を移動させる方向に関するデータである。また、移動速度とは、仮想視点を移動させる際の速度に関するデータである。また、表示範囲とは、表示する視野角に関するデータである。   Next, processing for setting viewpoint data by the user will be described. The viewpoint data can be arbitrarily set and registered as setting information by the user in addition to the case where general data is registered as initial settings. The viewpoint data includes data relating to the virtual viewpoint, the moving direction, the moving speed, and the display range. The virtual viewpoint is data regarding the viewpoint position and the line-of-sight direction. The moving direction is data relating to the direction in which the virtual viewpoint is moved. The moving speed is data relating to the speed when moving the virtual viewpoint. The display range is data regarding the viewing angle to be displayed.

なお、本実施の形態では、視点位置及び視線方向を設定すると、視線方向を車両の周囲に一周させることで仮想視点を移動させ、車両の周辺画像を連続的に表示する構成である。このため、仮想視点は1点のみ設定することになるが、移動方向及び移動速度も設定している。   In this embodiment, when the viewpoint position and the line-of-sight direction are set, the virtual viewpoint is moved by making the line-of-sight direction go around the vehicle and the surrounding image of the vehicle is continuously displayed. For this reason, only one virtual viewpoint is set, but the moving direction and moving speed are also set.

仮想視点は、三次元空間上に配置されるため、任意の点を原点とした三次元座標を用いて表される。例えば、図13に示すように、自車両の略中心部分を原点として、水平面上の車両の左右方向をX軸、前後方向をY軸とし、鉛直方向をZ軸としたXYZ直交座標を用いることができる。   Since the virtual viewpoint is arranged in a three-dimensional space, it is represented using three-dimensional coordinates with an arbitrary point as the origin. For example, as shown in FIG. 13, XYZ Cartesian coordinates are used in which the center of the host vehicle is the origin, the left-right direction of the vehicle on the horizontal plane is the X axis, the front-rear direction is the Y axis, and the vertical direction is the Z axis. Can do.

ここで、図14を用いて説明する。図14(a)は、視点データの選択画面であり、図14(b)及び(c)は、視点データの設定画面である。視点データの設定は、ユーザが設定画面を操作することで行われる。設定画面は、視点データの選択画面等において表示される設定ボタンを選択することで表示される。   Here, it demonstrates using FIG. 14A is a viewpoint data selection screen, and FIGS. 14B and 14C are viewpoint data setting screens. Setting of the viewpoint data is performed by the user operating the setting screen. The setting screen is displayed by selecting a setting button displayed on the viewpoint data selection screen or the like.

ユーザが図14(a)に示す選択画面において設定ボタンを選択すると、図14(b)に示す設定画面に遷移する。図14(b)に示す選択画面では、視点位置及び視線方向の設定を行う。視点位置及び視線方向は、データ的には座標値(X、Y、Z)で表されているため、座標軸毎に座標値を変更することにより、新たな視点位置及び視線方向の設定が可能となる。なお、設定画面における最初の座標値は原点(0、0、0)であってもよいし、前回選択した座標値であってもよく、適宜設定可能である。また、視線方向の設定画面において設定する点は、視点位置から視線方向に向かって延びる直線上の任意の点(以下「視線上の点」という)とする。従って、視線上の点の座標値を設定することで、視線方向が設定されることになる。   When the user selects the setting button on the selection screen shown in FIG. 14A, the screen transitions to the setting screen shown in FIG. In the selection screen shown in FIG. 14B, the viewpoint position and the line-of-sight direction are set. Since the viewpoint position and the line-of-sight direction are represented by coordinate values (X, Y, Z) in terms of data, it is possible to set a new viewpoint position and line-of-sight direction by changing the coordinate value for each coordinate axis. Become. Note that the first coordinate value on the setting screen may be the origin (0, 0, 0) or the previously selected coordinate value, and can be set as appropriate. In addition, the point set on the line-of-sight direction setting screen is an arbitrary point on a straight line extending from the viewpoint position toward the line-of-sight direction (hereinafter referred to as “point on line of sight”). Therefore, the line-of-sight direction is set by setting the coordinate value of the point on the line of sight.

図14(b)に示す設定画面において、視点位置を設定する際には、XYZの各座標軸に対応して表示されている右ボタン又は左ボタンを押すことで各座標値を変更することができる。例えば、X軸の右ボタンを押すとX座標が+側に移動し、左ボタンを押すと−側に移動する。Y軸の場合もZ軸の場合も同様である。また、視線方向(視線上の点)を設定する場合も同様である。   In the setting screen shown in FIG. 14B, when setting the viewpoint position, each coordinate value can be changed by pressing the right button or the left button displayed corresponding to each coordinate axis of XYZ. . For example, when the right button on the X axis is pressed, the X coordinate moves to the + side, and when the left button is pressed, the X coordinate moves to the-side. The same applies to the Y axis and the Z axis. The same applies when the line-of-sight direction (point on the line of sight) is set.

XYZの各座標の設定ボタンの横には、座標値に対応する数値が表示されている。視点位置及び視線方向を設定する際には、XYZの右ボタン又は左ボタンの操作に併せて座標値に対応する数値が変化する。例えば、右ボタンを押すと数値が増加し、左ボタンを押すと数値が減少する等である。これにより、ユーザは座標値を数値として認識できるため設定が容易になる。なお、この数値は、座標値に対応する数値であればどのような数値であってもよい。また、車両の擬似画像上に(X、Y、Z)の点を表示してボタンの操作に併せて点を移動させる表示としてもよい。この場合には、車両に対する視点位置等の場所を認識することができ設定が容易になる。   A numerical value corresponding to the coordinate value is displayed beside each coordinate setting button of XYZ. When setting the viewpoint position and the line-of-sight direction, the numerical value corresponding to the coordinate value changes in accordance with the operation of the right button or the left button of XYZ. For example, a numerical value increases when the right button is pressed, and a numerical value decreases when the left button is pressed. Thereby, since the user can recognize the coordinate value as a numerical value, the setting becomes easy. This numerical value may be any numerical value as long as it corresponds to the coordinate value. Moreover, it is good also as a display which displays the point of (X, Y, Z) on the pseudo | simulation image of a vehicle, and moves a point according to operation of a button. In this case, a place such as a viewpoint position with respect to the vehicle can be recognized, and setting becomes easy.

なお、視点位置及び視線方向が決まると、視線方向が車両の周囲を一周する際の移動経路が決まる。視線方向は、視点位置から視線上の点に向かう方向であるため、視線上の点が移動するとその移動に対応して視線方向が移動する。本実施の形態では、視線上の点は、自身が存在するXY平面上を、視点位置のXY点をそのXY平面に投影した点を中心とした円状に移動する。つまり、視線方向は、視点位置を基点としてこの円に向かった方向が視線方向となり、この視線方向が円状に移動することとなる。   Note that when the viewpoint position and the line-of-sight direction are determined, the movement path when the line-of-sight direction goes around the vehicle is determined. Since the line-of-sight direction is a direction from the viewpoint position toward a point on the line of sight, when the point on the line of sight moves, the line-of-sight direction moves corresponding to the movement. In the present embodiment, the point on the line of sight moves on the XY plane on which it is present in a circular shape centered on the point where the XY point at the viewpoint position is projected onto the XY plane. In other words, the direction of the line of sight is the direction of the line of sight toward the circle with the viewpoint position as the base point, and the line of sight moves in a circle.

具体的には、図14(d)に示すように、視点位置の座標値を(X1、Y1、Z1)とし、視線上の点の座標値を(X2、Y2、Z2)とすると、視線上の点は、(X2、Y2、Z2)が存在するXY平面上を、(X1、Y1、Z2)を中心として、(X1、Y1、Z2)と(X2、Y2、Z2)との距離を半径とする円状に移動する。そして、視線方向は、視点位置(X1、Y1、Z1)からこの円上の各点に向かう方向として視線上の点の移動に合わせて移動する。   Specifically, as shown in FIG. 14D, when the coordinate values of the viewpoint position are (X1, Y1, Z1) and the coordinate values of the points on the line of sight are (X2, Y2, Z2), The point of is the radius of the distance between (X1, Y1, Z2) and (X2, Y2, Z2) around (X1, Y1, Z2) on the XY plane where (X2, Y2, Z2) exists. Move in a circle. The line-of-sight direction moves from the viewpoint position (X1, Y1, Z1) toward each point on the circle in accordance with the movement of the point on the line of sight.

視点位置及び視線方向の設定が完了すると、次に移動方向、移動速度及び表示範囲を設定する。図14(c)は、移動方向、移動速度及び表示範囲の設定画面である。移動方向は、周辺画像を連続表示する際に仮想視点を移動させる方向を設定するものであり、「右」方向又は「左」方向が選択可能になっている。「右」を選択すると、起点となる仮想視点から右回りで周辺画像が表示され、「左」を選択すると左回りで周辺画像が表示される。このように、ユーザによって選択された方向(右又は左)が移動方向として設定される。   When the setting of the viewpoint position and the line-of-sight direction is completed, the moving direction, moving speed, and display range are set next. FIG. 14C is a setting screen for the moving direction, moving speed, and display range. The moving direction sets a direction in which the virtual viewpoint is moved when the peripheral images are continuously displayed, and the “right” direction or the “left” direction can be selected. When “right” is selected, the surrounding image is displayed clockwise from the virtual viewpoint as the starting point, and when “left” is selected, the surrounding image is displayed counterclockwise. Thus, the direction (right or left) selected by the user is set as the movement direction.

移動速度は、周辺画像を連続表示する際に仮想視点の移動する速度を設定するものであり、「速」「普通」「遅」の3段階が選択可能になっている。すなわち、「速」を選択すると周辺画像が速く連続表示され、「遅」を選択するとゆっくり連続表示される。このように、ユーザによって選択された速度が移動速度として設定される。   The moving speed sets the moving speed of the virtual viewpoint when continuously displaying the peripheral images, and three stages of “fast”, “normal”, and “slow” can be selected. That is, when “fast” is selected, the peripheral images are continuously displayed fast, and when “slow” is selected, they are continuously displayed slowly. Thus, the speed selected by the user is set as the moving speed.

なお、移動方向及び移動速度の設定画面においては、デフォルトの設定又は現在選択されている設定が強調表示されている。図14(c)に示す設定画面は、移動方向が「左」に設定されており、移動速度が「普通」に設定されている状態を示しており、「左」ボタンと「普通」ボタンとが強調表示されている。また、例えば、ユーザが移動方向として「右」を選択すると強調表示が「左」から「右」に変更される。   In the setting screen for the moving direction and moving speed, the default setting or the currently selected setting is highlighted. The setting screen shown in FIG. 14C shows a state in which the moving direction is set to “left” and the moving speed is set to “normal”. The “left” button, the “normal” button, Is highlighted. For example, when the user selects “right” as the movement direction, the highlighting is changed from “left” to “right”.

また、表示範囲は、上述のように視野角のことであり、本実施の形態では角度によって設定される。設定画面に角度を変更するボタンが表示されており、このボタンを操作することで希望する角度に設定する。このように、ユーザによって設定された角度が表示範囲として設定される。   The display range is a viewing angle as described above, and is set according to the angle in the present embodiment. A button for changing the angle is displayed on the setting screen, and the desired angle is set by operating this button. Thus, the angle set by the user is set as the display range.

表示範囲は、視点位置と視線上の点とを結ぶ直線を中心として左右均等に広がる範囲として設定することができる。例えば、表示範囲を20度と設定した際には、視点位置と視線上の点とを結ぶ直線を中心として、右側に10度、左側に10度とする等である。なお、上下の表示範囲は、表示する表示画面の縦横比と、設定された左右の表示範囲とに基づいて設定される。   The display range can be set as a range that equally spreads left and right around a straight line connecting the viewpoint position and the point on the line of sight. For example, when the display range is set to 20 degrees, the angle is set to 10 degrees on the right side and 10 degrees on the left side with respect to the straight line connecting the viewpoint position and the point on the line of sight. The upper and lower display ranges are set based on the aspect ratio of the display screen to be displayed and the set left and right display ranges.

なお、各データの設定の途中や全データを設定した後に、設定した視点データを確認するためのプレビューを表示することができるようにしてもよい。例えば、車両の擬似画像上に設定された視点位置や視線方向が表示され、設定された移動方向や移動速度等に従って、仮想視点を動かす等である。視点位置や視線方向の設定画面からプレビューを表示したい場合には、設定画面上に表示されている「プレビュー」ボタンを押せばよい。また、全データを設定した後にプレビューを表示したい場合には、移動方向等を設定する際の画面上に表示されている「プレビュー」ボタンを押せばよい。   Note that a preview for confirming the set viewpoint data may be displayed during the setting of each data or after all the data is set. For example, the viewpoint position and line-of-sight direction set on the pseudo image of the vehicle are displayed, and the virtual viewpoint is moved in accordance with the set movement direction and movement speed. In order to display a preview from the setting screen for the viewpoint position and the line-of-sight direction, a “preview” button displayed on the setting screen may be pressed. If a preview is to be displayed after all data has been set, a “preview” button displayed on the screen when setting the moving direction or the like may be pressed.

また、プレビューの表示は、設定された視点データに従って実際に周辺画像を作成して表示する構成としてもよい。これらプレビューは、サブディスプレイ6に表示してもよいし、メインディスプレイ3に表示してもよい。これにより、ユーザは、自らが設定した視点データを確認することができるため、希望に合わない場合には再設定することも可能になる。希望に合う場合には、登録ボタンRBとプリセットボタンPBとを操作することにより、設定したデータが視点データとして当該プリセットボタンに対応付けて登録される。すなわち、登録ボタンRBを操作すると、プリセットボタンPBが表示された画面に遷移し、プリセットボタンPBの中から希望するプリセット番号を操作することによって、視点データと選択したプリセット番号とが対応付けられて登録される。この視点データは、選択したプリセットボタンPB(選択したプリセット番号)に対応付けられたメモリ領域に記憶される。また、登録された視点データは、次回以降にはプリセットボタンを押すだけで該当のメモリ領域から読み出されて設定され、所望の周辺画像を表示することができる。   The preview display may be configured to actually create and display a peripheral image according to the set viewpoint data. These previews may be displayed on the sub display 6 or may be displayed on the main display 3. Thereby, since the user can confirm the viewpoint data set by himself / herself, if the user does not meet his / her wishes, it can be reset. If desired, the set data is registered as viewpoint data in association with the preset button by operating the registration button RB and the preset button PB. That is, when the registration button RB is operated, the screen changes to a screen on which the preset button PB is displayed, and the viewpoint data and the selected preset number are associated with each other by operating the desired preset number from the preset button PB. be registered. This viewpoint data is stored in a memory area associated with the selected preset button PB (selected preset number). In addition, the registered viewpoint data can be read and set from the corresponding memory area just by pressing the preset button and display a desired peripheral image after the next time.

<1−5.画像表示システムの処理>     <1-5. Processing of image display system>

次に、画像表示システム10の処理について説明する。図15は、画像表示システム10の処理の流れを示すフローチャートである。   Next, processing of the image display system 10 will be described. FIG. 15 is a flowchart showing a process flow of the image display system 10.

画像表示システム10の処理は、例えば、システムの起動により周辺画像を表示するか否かを確認する画面が表示されることにより開始する。まず、ユーザが周辺画像を表示するか否かを選択する(ステップS1501)。周辺画像を表示しない場合には(ステップS1501でNo)、処理は終了する。一方、周辺画像を表示する場合には(ステップS1501でYes)、画像合成部22は視点データ27bを選択する(ステップS1502)。具体的には、ユーザは、周辺画像の表示を選択した際に視点データ27bも選択するようになっている。このため、画像合成部22は、ユーザがプリセットボタンPB等を操作して選択した視点データ27bを記憶部から読み出し、その視点データ27bを周辺画像等の作成に用いるデータとする。   The processing of the image display system 10 is started, for example, by displaying a screen for confirming whether or not to display a peripheral image when the system is activated. First, the user selects whether or not to display a peripheral image (step S1501). If the peripheral image is not displayed (No in step S1501), the process ends. On the other hand, when displaying a peripheral image (Yes in step S1501), the image composition unit 22 selects the viewpoint data 27b (step S1502). Specifically, the user selects the viewpoint data 27b when selecting the display of the peripheral image. Therefore, the image composition unit 22 reads the viewpoint data 27b selected by the user by operating the preset button PB or the like from the storage unit, and uses the viewpoint data 27b as data used to create a peripheral image or the like.

次に、読み出された視点データ27bを用いて周辺画像を作成する(ステップS1503)。すなわち、画像合成部22が、仮想視点及び表示範囲に基づいて合成画像を生成し、また、画像調整部23が透過画像を合成画像に重畳した周辺画像を作成する。   Next, a peripheral image is created using the read viewpoint data 27b (step S1503). That is, the image composition unit 22 generates a composite image based on the virtual viewpoint and the display range, and the image adjustment unit 23 creates a peripheral image in which the transmission image is superimposed on the composite image.

具体的には、画像合成部22は、周辺画像を連続表示する際の表示間隔に応じて合成画像を複数作成する。例えば、連続表示の表示間隔が10msecである場合には、画像合成部22は、設定された移動速度に応じて仮想視点を移動させながら10msec毎にサンプリングし、サンプリングされた点を仮想視点とした合成画像を作成する。そして、画像調整部23は、作成された各合成画像に透過画像を重畳した周辺画像を作成する。   Specifically, the image composition unit 22 creates a plurality of composite images according to the display interval when the peripheral images are continuously displayed. For example, when the display interval of continuous display is 10 msec, the image composition unit 22 samples every 10 msec while moving the virtual viewpoint according to the set moving speed, and uses the sampled point as the virtual viewpoint. Create a composite image. Then, the image adjustment unit 23 creates a peripheral image in which a transparent image is superimposed on each created composite image.

次に、画像調整部23は、補助画像を作成する(ステップS1504)。画像調整部23は、周辺画像を作成すると、それに対応する補助画像を作成する。具体的には、周辺画像の視線方向と表示範囲に基づいて、同じ方向で同じ範囲のスコープ画像を作成する。補助画像は、周辺画像毎に作成される。なお、補助画像の作成は、周辺画像を作成した後に作成してもよく、周辺画像の作成と同時に作成してもよい。   Next, the image adjustment unit 23 creates an auxiliary image (step S1504). When the image adjustment unit 23 creates a peripheral image, the image adjustment unit 23 creates an auxiliary image corresponding thereto. Specifically, scope images in the same direction and the same range are created based on the line-of-sight direction of the surrounding image and the display range. An auxiliary image is created for each peripheral image. The auxiliary image may be created after the peripheral image is created, or may be created simultaneously with the creation of the peripheral image.

次に、画像出力部24は、作成した周辺画像及び補助画像を表示する(ステップS1505)。すなわち、画像出力部24は、周辺画像をメインディスプレイ3に表示し、補助画像をサブディスプレイ6に表示する。これら各画像は、対応する両画像を同期させて表示される。また、画像出力部24は、視点データ27bに含まれる移動方向及び移動速度に基づいて周辺画像を連続表示する。すなわち、画像出力部24は、周辺画像を移動方向の順番に、移動速度に従って切り替えて連続的に表示する。これにより、ユーザは、自身が設定した移動方向及び移動速度で自車両9の周囲を連続的に確認することができる。   Next, the image output unit 24 displays the created peripheral image and auxiliary image (step S1505). That is, the image output unit 24 displays the peripheral image on the main display 3 and displays the auxiliary image on the sub display 6. Each of these images is displayed by synchronizing both corresponding images. The image output unit 24 continuously displays surrounding images based on the moving direction and moving speed included in the viewpoint data 27b. That is, the image output unit 24 displays the peripheral images continuously in the order of the movement direction according to the movement speed. Thereby, the user can confirm the circumference | surroundings of the own vehicle 9 continuously with the moving direction and moving speed which he set.

次に、画像出力部24は、全ての周辺画像の表示が終了したか否かを判断する(ステップS1506)。全ての周辺画像の表示が終了したか否かとは、起点となる仮想視点から終点となる仮想視点までの周辺画像の表示が終了したか否か(車両全周の表示が終了したか否か)である。全ての周辺画像の表示が終了していない場合には(ステップS1506でNo)、まだ表示すべき周辺画像が存在するため、画像出力部24は、残りの周辺画像を表示する制御を行う(ステップS1505)。一方、全ての周辺画像の表示が終了した場合には(ステップS1506でYes)、周辺画像及び補助画像のデータをメモリから消去して(ステップS1507)、処理を終了する。   Next, the image output unit 24 determines whether or not the display of all surrounding images has been completed (step S1506). Whether or not the display of all the surrounding images has ended is whether or not the display of the peripheral images from the virtual viewpoint as the starting point to the virtual viewpoint as the ending point has ended (whether or not the display of the entire circumference of the vehicle has ended) It is. If the display of all the peripheral images has not been completed (No in step S1506), there are still peripheral images to be displayed, so the image output unit 24 performs control to display the remaining peripheral images (step S1506). S1505). On the other hand, when the display of all the peripheral images is completed (Yes in step S1506), the peripheral image and auxiliary image data are erased from the memory (step S1507), and the process ends.

<2.第2の実施の形態>   <2. Second Embodiment>

次に、第2の実施の形態について説明する。第2の実施の形態では、第1の実施の形態とは異なる方法で視点データを設定する方法について説明する。システム構成等は第1の実施の形態と同様であるため、以下、視点データの設定方法について説明する。   Next, a second embodiment will be described. In the second embodiment, a method for setting viewpoint data by a method different from that in the first embodiment will be described. Since the system configuration and the like are the same as those in the first embodiment, the viewpoint data setting method will be described below.

<2−1.視点データの設定>     <2-1. Setting viewpoint data>

第2の実施の形態は、ユーザがサブディスプレイ6のタッチパネル61を操作して視点データを設定する。視点データの設定画面では、サブディスプレイ6に自車両を上方から見た擬似画像及び横から見た擬似画像が表示され、視点位置や視線方向等を各々個別に設定する。サブディスプレイ6のタッチパネル61上の点は、第1の実施の形態で説明した三次元座標の座標値と対応付けられており、ユーザの操作した点と座標値を対応付けることで視点データを設定する。   In the second embodiment, the user operates the touch panel 61 of the sub display 6 to set the viewpoint data. On the viewpoint data setting screen, a pseudo image of the host vehicle viewed from above and a pseudo image of the vehicle viewed from the side are displayed on the sub display 6, and the viewpoint position, the line-of-sight direction, and the like are individually set. The points on the touch panel 61 of the sub display 6 are associated with the coordinate values of the three-dimensional coordinates described in the first embodiment, and the viewpoint data is set by associating the points operated by the user with the coordinate values. .

視点位置を設定する方法について説明する。視点位置を設定するために、まず視点位置のXY座標値を導出する。視点位置の設定画面では、初めに図16(a)に示すように、自車両を上方から見た画像が表示される。ユーザが、サブディスプレイ6のタッチパネル61をドラッグ(タッチパネル上から指を離すことなく移動させる操作)すると、ドラッグした線が視点位置になる。すなわち、図16(a)の場合、視点位置は始点161から始まり、車両の後方に向かって周囲を回って終点162で終わる。   A method for setting the viewpoint position will be described. In order to set the viewpoint position, first, the XY coordinate value of the viewpoint position is derived. On the viewpoint position setting screen, first, as shown in FIG. 16A, an image of the host vehicle viewed from above is displayed. When the user drags the touch panel 61 of the sub-display 6 (an operation for moving the touch panel without releasing the finger from the touch panel), the dragged line becomes the viewpoint position. That is, in the case of FIG. 16A, the viewpoint position starts from the start point 161, travels around the rear toward the rear of the vehicle, and ends at the end point 162.

そして、ドラッグした線に基づいて視点位置のXY座標値を導出する。サブディスプレイ6のタッチパネル61上の点は、三次元座標のXY平面における座標値と対応付けられており、ユーザがドラッグした線は、XY座標値に変換される。また、始点161と終点162との間の点は、始点161と終点162との間を例えば10msec毎にサンプリングして抽出され、抽出された点に対応する座標値が導出される。これにより、始点161から終点162までの視点位置のXY座標値が導出される。   Then, the XY coordinate value of the viewpoint position is derived based on the dragged line. A point on the touch panel 61 of the sub display 6 is associated with a coordinate value on the XY plane of three-dimensional coordinates, and a line dragged by the user is converted into an XY coordinate value. Further, the point between the start point 161 and the end point 162 is extracted by sampling between the start point 161 and the end point 162, for example, every 10 msec, and a coordinate value corresponding to the extracted point is derived. Thereby, the XY coordinate values of the viewpoint positions from the start point 161 to the end point 162 are derived.

次に、視点位置のZ座標値を導出する。サブディスプレイ6には、自車両を横から見た画像が表示される。ユーザが、サブディスプレイ6のタッチパネル61をドラッグすると、ドラッグした線が視点位置になる。すなわち、図16(b)の場合、視点位置は始点163から始まり、終点164で終わる。   Next, the Z coordinate value of the viewpoint position is derived. The sub display 6 displays an image of the host vehicle viewed from the side. When the user drags the touch panel 61 of the sub-display 6, the dragged line becomes the viewpoint position. That is, in the case of FIG. 16B, the viewpoint position starts from the start point 163 and ends at the end point 164.

そして、ドラッグした線に基づいて視点位置のZ座標値を導出する。サブディスプレイ6のタッチパネル61上の点は、三次元座標のZ軸における座標値と対応付けられており、ユーザがドラッグした線は、Z座標値に変換される。また、始点163と終点164との間の点は、始点163と終点164との間を例えば10msec毎にサンプリングして抽出され、抽出された点に対応する座標値が導出される。これにより、始点163から終点164までの視点位置のZ座標値が導出される。   Then, the Z coordinate value of the viewpoint position is derived based on the dragged line. A point on the touch panel 61 of the sub-display 6 is associated with a coordinate value on the Z axis of the three-dimensional coordinate, and a line dragged by the user is converted into a Z coordinate value. Further, the point between the start point 163 and the end point 164 is extracted by sampling between the start point 163 and the end point 164, for example, every 10 msec, and a coordinate value corresponding to the extracted point is derived. Thereby, the Z coordinate value of the viewpoint position from the start point 163 to the end point 164 is derived.

なお、図16に表示されている指の移動軌跡を示す実線と、視点161・163及び終点162・164を示す点とは、説明の便宜上画面に表示しているが、実際の設定画面においては、表示してもよいし、しなくてもよい。他の同様の操作においても同様である。   In addition, although the solid line which shows the movement locus | trajectory of the finger | toe currently displayed in FIG. 16, and the point which shows the viewpoints 161 * 163 and the end points 162 * 164 are displayed on the screen for convenience of explanation, in the actual setting screen, , It may or may not be displayed. The same applies to other similar operations.

以上の操作によって、視点位置に関するXYZの各座標値が導出されたことになるが、XY座標値とZ座標値とは異なる操作によって導出された座標値であるため、これらを対応付ける必要がある。そこで、図17を用いて対応付ける方法について説明する。   The XYZ coordinate values related to the viewpoint position are derived by the above operation. However, since the XY coordinate value and the Z coordinate value are derived from different operations, it is necessary to associate them. Therefore, a method of associating will be described with reference to FIG.

図17は、視点位置を設定するために導出されたXY座標値とZ座標値とを対応付ける方法を説明する図である。図17(a)は、導出されたXY座標値及びZ座標値の各データを示している。XYデータは、各サンプリング点におけるXY座標値を示しており、Zデータは、各サンプリング点におけるZ座標値を示している。XYデータの場合、始点161に対応する座標値がa1であり、終点162に対応する座標値がanである。また、a2〜an−1は10msec毎にサンプリングされた点の座標値である。また、Zデータの場合も同様に、始点163に対応する座標値がb1であり、終点164に対応する座標値がbmであり、それらの間にサンプリングされた点の座標値がb2〜bm−1である。   FIG. 17 is a diagram illustrating a method of associating XY coordinate values and Z coordinate values derived for setting the viewpoint position. FIG. 17A shows each data of the derived XY coordinate values and Z coordinate values. The XY data indicates the XY coordinate value at each sampling point, and the Z data indicates the Z coordinate value at each sampling point. In the case of XY data, the coordinate value corresponding to the start point 161 is a1, and the coordinate value corresponding to the end point 162 is an. Further, a2 to an-1 are coordinate values of points sampled every 10 msec. Similarly, in the case of Z data, the coordinate value corresponding to the start point 163 is b1, the coordinate value corresponding to the end point 164 is bm, and the coordinate values of points sampled between them are b2 to bm−. 1.

ユーザがXYデータを導出する際にタッチパネル61を操作した時間とZデータを導出する際にタッチパネル61を操作した時間とが異なるため、座標値のデータ数が異なっている。このため、Zデータの操作時間をXYデータと同じ長さに変更すると共に、各座標値のデータ内におけるタイミングを変更する。そして、XYデータと変更後のZデータとを対応付ける。この例を図17(b)に示す。   Since the time when the user operates the touch panel 61 when deriving XY data is different from the time when the touch panel 61 is operated when deriving Z data, the number of coordinate value data is different. For this reason, the operation time of the Z data is changed to the same length as that of the XY data, and the timing in the data of each coordinate value is changed. Then, the XY data is associated with the changed Z data. An example of this is shown in FIG.

例えば、XYデータを導出する際に操作した時間がnであり、Zデータを導出する際に操作した時間がmである場合に、Zデータの時間をn/m倍する。そして、始点の座標値b1と終点の座標値bmは、最初及び最後のタイミングに固定し、それらの間の各座標値を変更前のタイミングと同じ時間割合でのタイミングとなるように変更する。したがって、b1とb2との時間間隔はn/m倍になる。   For example, when the time operated when deriving XY data is n and the time operated when deriving Z data is m, the time of Z data is multiplied by n / m. Then, the coordinate value b1 of the start point and the coordinate value bm of the end point are fixed at the first and last timings, and each coordinate value between them is changed so as to be the timing at the same time ratio as the timing before the change. Therefore, the time interval between b1 and b2 is n / m times.

そして、操作時間を同じにしたXYデータとZデータとを比較して、XYデータの各座標値の時間と同じ時間にあるZデータの座標値を対応付ける。すなわち、a1に対応する座標値はb1であり、a2に対応する座標値は、b1とb2との間にあってa2をサンプリングした時間と同じ時間の座標値となる。なお、ZデータはZ座標値であるため、b1の座標値とb2の座標値とを結んだ直線において対応する位置にある座標値を選択すればよい。これにより、XYZ座標値(c1〜cl)が決まり、視点位置が設定される。   Then, the XY data and the Z data having the same operation time are compared, and the coordinate values of the Z data at the same time as the time of each coordinate value of the XY data are associated. That is, the coordinate value corresponding to a1 is b1, and the coordinate value corresponding to a2 is between b1 and b2 and is the coordinate value at the same time as the time when a2 was sampled. Since the Z data is a Z coordinate value, a coordinate value at a corresponding position on a straight line connecting the coordinate value b1 and the coordinate value b2 may be selected. Thereby, the XYZ coordinate values (c1 to cl) are determined, and the viewpoint position is set.

なお、視点位置を設定する際には、Zデータの導出を行わず、XYデータのみで行ってもよい。この場合、Z座標は所定値を採用すればよく、例えば自車両の1/2の高さの座標値である。従って、この場合には、XYデータとZデータとの対応付けも、時間を合わせる等の処理は行わず、単に、XY座標値に所定のZ座標値を追加して視点位置を設定することになる。   When setting the viewpoint position, Z data may not be derived, but only XY data. In this case, a predetermined value may be adopted as the Z coordinate, for example, a coordinate value that is ½ the height of the host vehicle. Therefore, in this case, the process of matching the XY data and the Z data is not performed, and the viewpoint position is simply set by adding a predetermined Z coordinate value to the XY coordinate value. Become.

次に、視線方向を設定する方法について説明する。視線方向は、視線上の点を導出し、その視線上の点と視点位置とを用いて設定される。まず視線上の点の導出について説明する。視線上の点の導出は、視点位置の設定と同様の方法で行うことができる。図18(a)に示すように、自車両を上方から見た画像に対してユーザがドラッグした線に基づいてXYデータを導出する。そして、図18(b)に示すように、自車両を横から見た画像に対してユーザがドラッグした線に基づいてZデータを導出する。   Next, a method for setting the line-of-sight direction will be described. The line-of-sight direction is set by deriving a point on the line of sight and using the point on the line of sight and the viewpoint position. First, derivation of points on the line of sight will be described. The derivation of the point on the line of sight can be performed by the same method as the setting of the viewpoint position. As shown in FIG. 18A, XY data is derived based on a line dragged by the user with respect to an image of the host vehicle viewed from above. And as shown in FIG.18 (b), Z data is derived | led-out based on the line which the user dragged with respect to the image which looked at the own vehicle from the side.

そして、XYデータとZデータとを対応付ける処理を行う。図19(a)は、導出されたXYデータ及びZデータを示す図であり、図19(b)は、これらを対応付けることによって導出された視線上の点を示す図である。この対応付けの処理においても、視点位置の設定処理の場合と同様に、XYデータとZデータとが同じ時間になるように変更し、各データのタイミング同士を組み合わせた座標値を導出すればよい。これにより、XYZ座標値(f1〜fi)が決まり、視線上の点が導出される。   And the process which matches XY data and Z data is performed. FIG. 19A shows the derived XY data and Z data, and FIG. 19B shows the points on the line of sight derived by associating them. Also in this association processing, as in the case of the viewpoint position setting processing, the XY data and the Z data are changed so as to have the same time, and a coordinate value obtained by combining the timings of the respective data may be derived. . Thereby, XYZ coordinate values (f1 to fi) are determined, and points on the line of sight are derived.

視線上の点が導出されると、視点位置を用いて視線方向を設定する。視線方向は、視点位置から視線上の点に向かう方向であるから、視点位置に対応する視線上の点を導出する必要がある。ここでも、視点位置を設定する際にユーザがタッチパネル61を操作した時間と、視線上の点を導出する際にユーザがタッチパネル61を操作した時間とが異なることから、上述した視点位置や視線上の点の導出方法と同様に、各操作時間を合わせて対応する座標値を導出すればよい。図20は、この例を示す図である。そして、対応付けられた視点位置の座標値から視線上の点の座標値に向かう方向が視線方向となる。以上により、視点位置及び視線方向が設定され、仮想視点が設定される。なお、視線上の点を導出する際においても、視点位置と同様に、Zデータの導出を行わず、XYデータのみで行ってもよい。   When a point on the line of sight is derived, the line-of-sight direction is set using the viewpoint position. Since the line-of-sight direction is a direction from the viewpoint position toward a point on the line of sight, it is necessary to derive a point on the line of sight corresponding to the viewpoint position. Again, since the time when the user operated the touch panel 61 when setting the viewpoint position and the time when the user operated the touch panel 61 when deriving a point on the line of sight are different, the above-described viewpoint position and line of sight Similar to the point derivation method, the corresponding coordinate values may be derived by combining the operation times. FIG. 20 is a diagram showing this example. The direction from the coordinate value of the associated viewpoint position toward the coordinate value of the point on the line of sight is the line-of-sight direction. As described above, the viewpoint position and the line-of-sight direction are set, and the virtual viewpoint is set. Note that when deriving points on the line of sight, Z data may not be derived and only XY data may be derived, as with the viewpoint position.

次に、移動方向を設定する。移動方向は、ユーザが視点位置又は視線方向を設定する際に、操作した方向に基づいて設定すればよい。例えば、ユーザが車両の左前方から左方向にドラッグした場合には、移動方向も左方向とする。   Next, the moving direction is set. The moving direction may be set based on the direction operated when the user sets the viewpoint position or the line-of-sight direction. For example, when the user drags leftward from the left front of the vehicle, the moving direction is also leftward.

次に、移動速度を設定する。移動速度においても、ユーザが視点位置又は視線方向を設定した際のドラッグの速度に基づいて設定することができる。例えば、ユーザがドラッグした速度と同じ速度としてもよいし、ユーザがドラッグした速度に所定の演算処理を行って導出した速度としてもよい。また、ユーザのドラッグの速度に基づく場合に限らず、ユーザが希望する速度を設定することもできる。例えば、自車両の周辺を複数の領域に分割して、各領域に対してユーザが希望する速度を設定するようにしてもよい。具体的には、図21に示すように、自車両を4つの領域に分割して、前方の移動速度は速くし、左側方及び右側方は普通にし、後方は遅くする等である。   Next, the moving speed is set. The moving speed can also be set based on the drag speed when the user sets the viewpoint position or the line-of-sight direction. For example, the speed may be the same as the speed dragged by the user, or may be a speed derived by performing predetermined arithmetic processing on the speed dragged by the user. In addition, the speed desired by the user can also be set, not limited to the case based on the drag speed of the user. For example, the periphery of the host vehicle may be divided into a plurality of areas, and the speed desired by the user may be set for each area. Specifically, as shown in FIG. 21, the host vehicle is divided into four regions, the forward moving speed is increased, the left side and the right side are made normal, and the rear side is made slower.

次に、表示範囲を設定する。表示範囲の設定は、まず、図22(a)に示すように、自車両を上方から見た画像に対してユーザがドラッグした線に基づいてXYデータを導出する。これは、上述した視点位置及び視線方向の設定と同様の方法で行うことができる。そして、メインディスプレイ3のの縦横比は決まっているため、この縦横比と導出されたXYデータ(すなわち、左右方向の範囲)とに基づいて、上下方向の範囲が導出される。これにより、表示範囲が設定される。   Next, the display range is set. For setting the display range, first, as shown in FIG. 22A, XY data is derived based on a line dragged by the user with respect to an image of the host vehicle viewed from above. This can be performed by the same method as the setting of the viewpoint position and the line-of-sight direction described above. Since the aspect ratio of the main display 3 is determined, the vertical range is derived based on this aspect ratio and the derived XY data (that is, the horizontal range). Thereby, the display range is set.

なお、このように、メインディスプレイ3の縦横比に基づいて表示範囲を導出する場合にはZデータを導出する必要はないが、メインディスプレイ3の縦横比と異なる縦横比の周辺画像を表示する際には、Zデータを導出して表示範囲を設定する。例えば、図22(a)に示す方法でXYデータを導出した後に、図22(b)に示すように、自車両を横から見た画像に対してユーザがドラッグした線に基づいてZデータを導出する。そして、上述した視点位置等の設定と同様の方法で、XYデータとZデータとを対応付けることにより、表示範囲を設定する。   In this way, when the display range is derived based on the aspect ratio of the main display 3, it is not necessary to derive the Z data, but when displaying a peripheral image having an aspect ratio different from the aspect ratio of the main display 3. The Z data is derived to set the display range. For example, after the XY data is derived by the method shown in FIG. 22A, the Z data is obtained based on the line dragged by the user with respect to the image obtained by viewing the host vehicle from the side as shown in FIG. 22B. To derive. Then, the display range is set by associating the XY data with the Z data in the same manner as the setting of the viewpoint position and the like described above.

この場合、メインディスプレイ3の縦横比と周辺画像の縦横比とが異なるため、メインディスプレイ3に表示される周辺画像以外の部分は無表示(例えば黒色等)とする。また、XYデータとZデータとを導出して設定された表示範囲を、メインディスプレイ3の縦横比と同じ縦横比となるように拡縮等により変更する構成としてもよい。   In this case, since the aspect ratio of the main display 3 and the aspect ratio of the peripheral image are different, portions other than the peripheral image displayed on the main display 3 are not displayed (for example, black). Further, the display range set by deriving the XY data and the Z data may be changed by enlargement / reduction or the like so as to have the same aspect ratio as that of the main display 3.

以上により、仮想視点、移動方向、移動速度及び表示範囲の各データが設定され、これら各データを視点データとし、この視点データとプリセットボタンとを対応付けて登録して記憶部に記憶することで、視点データの設定が完了する。なお、ユーザがドラッグ等の操作により視点データを設定する際には、サブディスプレイ6のタッチパネル61を操作する場合に限定されず、メインディスプレイ3のタッチパネル31を操作して同様の処理を行ってもよい。さらには、操作もドラッグに限定されず、同様の処理が可能な操作であれば他の操作であってもよい。   As described above, each data of the virtual viewpoint, moving direction, moving speed, and display range is set, and each of these data is used as viewpoint data, and this viewpoint data and preset buttons are registered in association with each other and stored in the storage unit. The setting of viewpoint data is completed. Note that when the user sets the viewpoint data by an operation such as dragging, the present invention is not limited to the case of operating the touch panel 61 of the sub display 6, and the same processing may be performed by operating the touch panel 31 of the main display 3. Good. Furthermore, the operation is not limited to dragging, and may be another operation as long as the same processing can be performed.

<2−2.視点データの設定処理>     <2-2. Viewpoint data setting processing>

次に、第2の実施の形態における視点データの設定処理についてフローチャートを用いて説明する。図23及び図24は、視点データの設定処理を示すフローチャートである。   Next, viewpoint data setting processing according to the second embodiment will be described with reference to a flowchart. 23 and 24 are flowcharts showing viewpoint data setting processing.

視点データの設定処理は、ユーザが設定ボタンを選択することによって開始する。視点データの設定処理が開始すると、まずサブディスプレイ6に視点位置の設定画面を表示する(ステップS2301)。そして、視点データ設定部20bは、視点位置を設定するためのユーザによるドラッグ操作の有無を判断する(ステップS2302)。この判断は、サブディスプレイ6のタッチパネル61の操作があったか否かに基づいて行われる。   The viewpoint data setting process starts when the user selects a setting button. When the viewpoint data setting process is started, a viewpoint position setting screen is first displayed on the sub-display 6 (step S2301). Then, the viewpoint data setting unit 20b determines whether there is a drag operation by the user for setting the viewpoint position (step S2302). This determination is made based on whether or not the touch panel 61 of the sub display 6 has been operated.

ユーザによるドラッグ操作がない場合には(ステップS2302でNo)、設定画面が表示されてから所定時間が経過したか否かを判断する(ステップS2303)。所定時間が経過した場合には(ステップS2303でYes)、ユーザは視点データの設定処理を行わないものと判断して処理を終了する(図23のA)。一方、所定時間が経過していない場合には(ステップS2303でYes)、再度操作の有無を判断する処理を実行する(ステップS2302)。   If there is no drag operation by the user (No in step S2302), it is determined whether a predetermined time has elapsed since the setting screen was displayed (step S2303). If the predetermined time has elapsed (Yes in step S2303), the user determines that the viewpoint data setting process is not performed and ends the process (A in FIG. 23). On the other hand, if the predetermined time has not elapsed (Yes in step S2303), a process of determining the presence / absence of an operation is executed again (step S2302).

また、ドラッグ操作の有無を判断するステップS2302において、ユーザによるドラッグ操作があったと判断した場合には(ステップS2302でYes)、操作により設定された視点位置を記憶部27に記憶する(ステップS2304)。なお、この視点位置の設定処理は、上述した方法で行うことができる。この場合、ステップS2302及びS2303は、XYデータの導出処理及びZデータの導出処理のいずれに対しても同様に行われる。   If it is determined in step S2302 that the presence or absence of the drag operation has been performed (Yes in step S2302), the viewpoint position set by the operation is stored in the storage unit 27 (step S2304). . This viewpoint position setting process can be performed by the method described above. In this case, steps S2302 and S2303 are similarly performed for both the XY data derivation process and the Z data derivation process.

次に、サブディスプレイ6に視線方向の設定画面を表示する(ステップS2305)。そして、視点データ設定部20bは、視線方向を設定するためのユーザによるドラッグ操作の有無を判断する(ステップS2306)。この判断においても、サブディスプレイ6のタッチパネル61の操作があったか否かに基づいて行われる。   Next, a line-of-sight setting screen is displayed on the sub-display 6 (step S2305). Then, the viewpoint data setting unit 20b determines whether or not there is a drag operation by the user for setting the line-of-sight direction (step S2306). This determination is also made based on whether or not the touch panel 61 of the sub display 6 has been operated.

ユーザによるドラッグ操作がない場合には(ステップS2306でNo)、設定画面が表示されてから所定時間が経過したか否かを判断する(ステップS2307)。所定時間が経過していない場合には(ステップS2307でNo)、再度操作の有無を判断する処理を実行する(ステップS2305)。   If there is no drag operation by the user (No in step S2306), it is determined whether a predetermined time has elapsed since the setting screen was displayed (step S2307). If the predetermined time has not elapsed (No in step S2307), the process for determining the presence / absence of the operation is executed again (step S2305).

一方、所定時間が経過した場合には(ステップS2307でYes)、所定値を視線方向として記憶部27に記憶する(ステップS2308)。このように、ユーザが視線方向の設定処理を実行しないまま所定時間が経過した際には、予め決められた値を視線方向とする。   On the other hand, if the predetermined time has elapsed (Yes in step S2307), the predetermined value is stored in the storage unit 27 as the line-of-sight direction (step S2308). As described above, when a predetermined time has elapsed without the user performing the line-of-sight direction setting process, a predetermined value is set as the line-of-sight direction.

また、ドラッグ操作の有無を判断するステップS2306において、ユーザによるドラッグ操作があったと判断した場合には(ステップS2306でYes)、操作により設定された視線方向を記憶部27に記憶する(ステップS2309)。この視線方向の設定処理についても、上述した方法で行うことができる。また、この場合、ステップS2306及びS2307は、XYデータの導出処理及びZデータの導出処理のいずれに対しても同様に行われる。   If it is determined in step S2306 that determines whether or not there is a drag operation (Yes in step S2306), the line-of-sight direction set by the operation is stored in the storage unit 27 (step S2309). . This line-of-sight direction setting process can also be performed by the method described above. In this case, steps S2306 and S2307 are performed in the same manner for both the XY data derivation process and the Z data derivation process.

次に、サブディスプレイ6に表示範囲の設定画面を表示して(ステップS2310)、次の処理に進む(図23のB)。そして、視点データ設定部20bは、表示範囲を設定するためのユーザによるドラッグ操作の有無を判断する(ステップS2401)。この判断においても、サブディスプレイ6のタッチパネル61の操作があったか否かに基づいて行われる。   Next, a display range setting screen is displayed on the sub-display 6 (step S2310), and the process proceeds to the next process (B in FIG. 23). Then, the viewpoint data setting unit 20b determines whether there is a drag operation by the user for setting the display range (step S2401). This determination is also made based on whether or not the touch panel 61 of the sub display 6 has been operated.

ユーザによるドラッグ操作がない場合には(ステップS2401でNo)、設定画面が表示されてから所定時間が経過したか否かを判断する(ステップS2402)。所定時間が経過していない場合には(ステップS2402でNo)、再度操作の有無を判断する処理を実行する(ステップS2401)。   If there is no drag operation by the user (No in step S2401), it is determined whether a predetermined time has elapsed since the setting screen was displayed (step S2402). If the predetermined time has not elapsed (No in step S2402), processing for determining the presence / absence of an operation is executed again (step S2401).

一方、所定時間が経過した場合には(ステップS2402でYes)、所定値を表示範囲として記憶部27に記憶する(ステップS2403)。表示範囲の設定処理においても、ユーザが設定処理を実行しないまま所定時間が経過した際には、予め決められた値を表示範囲とする。   On the other hand, if the predetermined time has elapsed (Yes in step S2402), the predetermined value is stored in the storage unit 27 as a display range (step S2403). Also in the display range setting process, when a predetermined time elapses without the user performing the setting process, a predetermined value is set as the display range.

また、ドラッグ操作の有無を判断するステップS2401において、ユーザによるドラッグ操作があったと判断した場合には(ステップS2401でYes)、操作により設定された表示範囲を記憶部27に記憶する(ステップS2404)。そして、移動方向及び移動速度を記憶部27に記憶する(ステップS2405)。移動方向及び移動速度は、上述した方法で設定され、その内容が記憶される。   If it is determined in step S2401 that determines whether or not there is a drag operation (Yes in step S2401), the display range set by the operation is stored in the storage unit 27 (step S2404). . Then, the moving direction and moving speed are stored in the storage unit 27 (step S2405). The moving direction and moving speed are set by the method described above, and the contents are stored.

次に、プレビュー表示の指示の有無を判断する(ステップS2406)。視点データの各データの設定が終了した際に、ユーザが設定した各データに基づいて表示される周辺画像を確認することを希望する場合があるからである。プレビュー表示の指示がある場合には(ステップS2406でYes)、画像生成装置2は設定された各データに基づいてプレビューを表示する(ステップS2407)。この表示は、設定された各データに基づいて作成された周辺画像をメインディスプレイ3に表示することにより行うことができる。ただし、これ以外の方法でもよく、例えば、サブディスプレイ6に表示された車両の擬似画像上に、設定した各データに基づく仮想視点の移動経路等を表示することとしてもよい。   Next, it is determined whether or not there is a preview display instruction (step S2406). This is because when the setting of each data of the viewpoint data is completed, it may be desired to confirm the peripheral image displayed based on each data set by the user. If there is a preview display instruction (Yes in step S2406), the image generation apparatus 2 displays a preview based on each set data (step S2407). This display can be performed by displaying a peripheral image created based on each set data on the main display 3. However, other methods may be used. For example, a moving path of a virtual viewpoint based on each set data may be displayed on the pseudo image of the vehicle displayed on the sub display 6.

そして、プレビューを表示した後には、プレビューの内容で問題がないかを判断する(ステップS2408)。プレビューの内容で問題がある場合には(ステップS2408でNo)、各データの内容を変更する必要がある。したがって、視点データの設定処理を初めからやり直すために、再度視点位置を設定するための画面を表示する処理に戻る(図24のC)。   Then, after displaying the preview, it is determined whether there is no problem with the contents of the preview (step S2408). If there is a problem with the contents of the preview (No in step S2408), it is necessary to change the contents of each data. Therefore, in order to redo the viewpoint data setting process from the beginning, the process returns to the process of displaying a screen for setting the viewpoint position again (FIG. 24C).

一方、プレビューの内容で問題がない場合には(ステップS2408でYes)、設定した各データを登録し視点データとして設定する(ステップS2409)。この登録は、プリセットボタンなどを用いて行われ、次回以降の周辺画像を表示する際の視点データの選択肢の一つとなる。そして、設定画面を消去して(ステップS2410)、視点データの設定処理を終了する。   On the other hand, if there is no problem with the contents of the preview (Yes in step S2408), each set data is registered and set as viewpoint data (step S2409). This registration is performed using a preset button or the like, and is one of the viewpoint data options for displaying the next and subsequent peripheral images. Then, the setting screen is deleted (step S2410), and the viewpoint data setting process is terminated.

<3.変形例>   <3. Modification>

なお、上記各実施の形態において、サブディスプレイ6に補助画像を表示する際に、車両の周辺に障害物等の注意すべき物体が存在する場合には、その旨を報知する構成を付加してもよい。   In each of the above embodiments, when an auxiliary image is displayed on the sub-display 6, if there is an object to be watched such as an obstacle around the vehicle, a configuration for notifying the fact is added. Also good.

例えば、図25(a)に示すように、車両の右前方に障害物が存在する場合に、サブディスプレイ6に表示する補助画像の該当する箇所に障害物の存在を報知する表示251を付加する。これにより、ユーザは、自車両の周辺に障害物があることを把握することができる。また、メインディスプレイ3に表示する周辺画像上に、該当する方向に矢印252等を表示してもよい。この場合には、実際に障害物の存在する方向を車室内からの方向として把握することができる。   For example, as shown in FIG. 25 (a), when an obstacle is present on the right front side of the vehicle, a display 251 for notifying the presence of the obstacle is added to a corresponding portion of the auxiliary image displayed on the sub display 6. . Thereby, the user can grasp that there is an obstacle around the own vehicle. Further, an arrow 252 or the like may be displayed in a corresponding direction on the peripheral image displayed on the main display 3. In this case, the direction in which the obstacle actually exists can be grasped as the direction from the passenger compartment.

さらに、図25(c)及び(d)に示すように、サブディスプレイ6に表示する補助画像をメインディスプレイ3の一部に表示してもよい。この場合には、メインディスプレイ3を見るだけでサブディスプレイ6の表示内容も把握することができるため、障害物の存在を容易に認識することが可能になる。また、補助画像の表示に加えて、矢印等の方向を示す表示をメインディスプレイ3に表示する構成としてもよい。   Further, as shown in FIGS. 25C and 25D, an auxiliary image to be displayed on the sub display 6 may be displayed on a part of the main display 3. In this case, since the display content of the sub-display 6 can be grasped only by looking at the main display 3, it is possible to easily recognize the presence of an obstacle. Further, in addition to the display of the auxiliary image, a display indicating a direction such as an arrow may be displayed on the main display 3.

以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではない。また、上記実施の形態及び各変形例は、適宜に組み合わせ可能である。   As mentioned above, although embodiment of this invention has been described, this invention is not limited to the said embodiment. Moreover, the said embodiment and each modification can be combined suitably.

また、上記各実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。   Further, in each of the above embodiments, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. May be. Conversely, some of the functions realized by the hardware circuit may be realized by software.

2 画像生成装置
3 メインディスプレイ
4 操作ボタン
5 カメラ
6 サブディスプレイ
10 画像表示システム
2 Image generation device 3 Main display 4 Operation buttons 5 Camera 6 Sub display 10 Image display system

Claims (13)

画像を処理する画像処理装置であって、
自車両に搭載されたカメラの撮影画像を取得する画像取得手段と、
前記撮影画像に基づいて、仮想視点から見た自車両の周辺を示す周辺画像、及び、前記周辺画像の領域を示す補助画像を生成する生成手段と、
前記周辺画像及び補助画像を表示装置に出力して前記表示装置に表示させる出力手段と、
を備えていることを特徴とする画像処理装置。
An image processing apparatus for processing an image,
Image acquisition means for acquiring a captured image of a camera mounted on the host vehicle;
Based on the captured image, generating means for generating a peripheral image showing the periphery of the host vehicle viewed from a virtual viewpoint, and an auxiliary image showing a region of the peripheral image,
Output means for outputting the peripheral image and the auxiliary image to a display device and causing the display device to display them;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記出力手段は、前記周辺画像を第1の表示装置に出力して該第1の表示装置に表示させ、前記補助画像を第2の表示装置に出力して該第2の表示装置に表示させることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The output means outputs the peripheral image to the first display device to be displayed on the first display device, and outputs the auxiliary image to the second display device to be displayed on the second display device. An image processing apparatus.
請求項2に記載の画像処理装置において、
前記第2の表示装置がタッチパネルを有し、該タッチパネルの操作に基づいて前記仮想視点における視点位置及び視線方向を設定する設定手段をさらに備えていることを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing apparatus, wherein the second display device includes a touch panel, and further includes setting means for setting a viewpoint position and a line-of-sight direction at the virtual viewpoint based on an operation of the touch panel.
請求項3に記載の画像処理装置において、
前記設定手段は、前記視点位置を設定した後に、視線方向を設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The image processing apparatus according to claim 1, wherein the setting unit sets a line-of-sight direction after setting the viewpoint position.
請求項3又は4に記載の画像処理装置において、
前記タッチパネルの操作が、タッチパネル上から指を離すことなく移動させる操作である場合には、
前記設定手段は、視点位置及び視線方向の移動も設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 3 or 4,
When the operation of the touch panel is an operation to move without releasing a finger from the touch panel,
The image processing apparatus according to claim 1, wherein the setting unit also sets movement of a viewpoint position and a line-of-sight direction.
請求項5に記載の画像処理装置において、
前記設定手段は、前記視点位置の移動のタイミングと、前記視線方向の移動のタイミングとを同期させて、前記視点位置及び視線方向を設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The image processing apparatus, wherein the setting unit sets the viewpoint position and the line-of-sight direction by synchronizing the timing of movement of the viewpoint position and the timing of movement of the line-of-sight direction.
請求項3ないし6のいずれか1項に記載の画像処理装置において、
前記設定手段は、三次元空間上における視点位置及び視線方向を設定することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 3 to 6,
The image processing apparatus, wherein the setting unit sets a viewpoint position and a line-of-sight direction in a three-dimensional space.
請求項7に記載の画像処理装置において、
前記設定手段は、水平面上の視点位置及び視線方向を設定した後に、鉛直方向の視点位置及び視線方向を設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The setting means sets the vertical viewpoint position and line-of-sight direction after setting the viewpoint position and line-of-sight direction on a horizontal plane.
請求項5ないし8のいずれか1項に記載の画像処理装置において、
前記設定手段は、前記視点位置及び視線方向の移動速度も設定することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 5 to 8,
The image processing apparatus, wherein the setting means also sets the viewpoint position and the moving speed in the line-of-sight direction.
請求項9に記載の画像処理装置において、
前記設定手段は、前記タッチパネルにおける操作位置の移動速度に応じて、前記視点位置及び視線方向の移動速度を設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 9.
The image processing apparatus characterized in that the setting means sets the moving speed in the viewpoint position and the line-of-sight direction according to the moving speed of the operation position on the touch panel.
請求項9又は10に記載の画像処理装置において、
前記設定手段は、前記自車両の周辺を複数の領域に分割し、領域毎に視点位置及び視線方向の移動速度を設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 9 or 10,
The setting unit divides the periphery of the host vehicle into a plurality of regions, and sets the viewpoint position and the movement speed in the line-of-sight direction for each region.
請求項3ないし11のいずれか1項に記載の画像処理装置において、
前記設定手段が設定した設定情報を記憶する記憶手段をさらに備え、
前記記憶手段は、前記設定情報を、前記第1の表示装置又は第2の表示装置に表示されるボタンに対応付けて記憶することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 3 to 11,
A storage means for storing the setting information set by the setting means;
The storage means stores the setting information in association with buttons displayed on the first display device or the second display device.
画像処理システムであって、
請求項1ないし12のいずれか1項に記載の画像処理装置と、
画像を表示する表示装置と、
を備えていることを特徴とする画像処理システム。
An image processing system,
The image processing apparatus according to any one of claims 1 to 12,
A display device for displaying an image;
An image processing system comprising:
JP2012215602A 2012-09-28 2012-09-28 Image processing apparatus and image processing system Active JP6105244B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012215602A JP6105244B2 (en) 2012-09-28 2012-09-28 Image processing apparatus and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012215602A JP6105244B2 (en) 2012-09-28 2012-09-28 Image processing apparatus and image processing system

Publications (2)

Publication Number Publication Date
JP2014069629A true JP2014069629A (en) 2014-04-21
JP6105244B2 JP6105244B2 (en) 2017-03-29

Family

ID=50745260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012215602A Active JP6105244B2 (en) 2012-09-28 2012-09-28 Image processing apparatus and image processing system

Country Status (1)

Country Link
JP (1) JP6105244B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017065572A (en) * 2015-09-30 2017-04-06 アイシン精機株式会社 Surrounding state monitoring device
JP2018528514A (en) * 2015-07-24 2018-09-27 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Quick look for backward crossing traffic
JP2018191242A (en) * 2017-05-11 2018-11-29 アイシン精機株式会社 Periphery monitoring device
WO2019008824A1 (en) * 2017-07-07 2019-01-10 アイシン精機株式会社 Surrounding-area monitoring device
KR20190029872A (en) * 2017-09-13 2019-03-21 현대자동차주식회사 Vehicle, and control method for the same
WO2020153292A1 (en) * 2019-01-23 2020-07-30 株式会社小松製作所 System and method for working machine
WO2021199715A1 (en) * 2020-03-30 2021-10-07 ソニーグループ株式会社 Information processing device, information processing method, and program
JP2022009331A (en) * 2017-05-11 2022-01-14 株式会社アイシン Periphery monitoring device
JP2022071030A (en) * 2019-12-11 2022-05-13 キヤノン株式会社 Control device, control method, and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011757A (en) * 2005-06-30 2007-01-18 Tokiko Techno Kk Fuel station construction planning system
JP2007076381A (en) * 2005-09-09 2007-03-29 Mazda Motor Corp Information display device for vehicle
JP2008219559A (en) * 2007-03-06 2008-09-18 Xanavi Informatics Corp In-vehicle camera system
JP2009093485A (en) * 2007-10-10 2009-04-30 Nippon Soken Inc Image forming unit and image forming program
JP2010208416A (en) * 2009-03-09 2010-09-24 Toshiba Corp Setting device for on-vehicle device, setting program for on-vehicle device, and method
JP2010258505A (en) * 2009-04-21 2010-11-11 Nec Corp Position identification support system, position identification support method, and program
JP2011066763A (en) * 2009-09-18 2011-03-31 Mitsubishi Motors Corp Driving support device
JP2011135253A (en) * 2009-12-24 2011-07-07 Fujitsu Ten Ltd Image processor, image processing system and image processing method
JP2011151446A (en) * 2010-01-19 2011-08-04 Fujitsu Ten Ltd Image processing apparatus, system, and method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011757A (en) * 2005-06-30 2007-01-18 Tokiko Techno Kk Fuel station construction planning system
JP2007076381A (en) * 2005-09-09 2007-03-29 Mazda Motor Corp Information display device for vehicle
JP2008219559A (en) * 2007-03-06 2008-09-18 Xanavi Informatics Corp In-vehicle camera system
JP2009093485A (en) * 2007-10-10 2009-04-30 Nippon Soken Inc Image forming unit and image forming program
JP2010208416A (en) * 2009-03-09 2010-09-24 Toshiba Corp Setting device for on-vehicle device, setting program for on-vehicle device, and method
JP2010258505A (en) * 2009-04-21 2010-11-11 Nec Corp Position identification support system, position identification support method, and program
JP2011066763A (en) * 2009-09-18 2011-03-31 Mitsubishi Motors Corp Driving support device
JP2011135253A (en) * 2009-12-24 2011-07-07 Fujitsu Ten Ltd Image processor, image processing system and image processing method
JP2011151446A (en) * 2010-01-19 2011-08-04 Fujitsu Ten Ltd Image processing apparatus, system, and method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018528514A (en) * 2015-07-24 2018-09-27 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Quick look for backward crossing traffic
JP2017065572A (en) * 2015-09-30 2017-04-06 アイシン精機株式会社 Surrounding state monitoring device
JP2022009331A (en) * 2017-05-11 2022-01-14 株式会社アイシン Periphery monitoring device
JP2018191242A (en) * 2017-05-11 2018-11-29 アイシン精機株式会社 Periphery monitoring device
JP7259914B2 (en) 2017-05-11 2023-04-18 株式会社アイシン Perimeter monitoring device
WO2019008824A1 (en) * 2017-07-07 2019-01-10 アイシン精機株式会社 Surrounding-area monitoring device
JP2019014398A (en) * 2017-07-07 2019-01-31 アイシン精機株式会社 Periphery monitoring device
CN110997409A (en) * 2017-07-07 2020-04-10 爱信精机株式会社 Peripheral monitoring device
US11477373B2 (en) 2017-07-07 2022-10-18 Aisin Corporation Periphery monitoring device
KR102403350B1 (en) 2017-09-13 2022-06-02 현대자동차주식회사 Vehicle, and control method for the same
KR20190029872A (en) * 2017-09-13 2019-03-21 현대자동차주식회사 Vehicle, and control method for the same
JP2020120234A (en) * 2019-01-23 2020-08-06 株式会社小松製作所 Work machine system and method
WO2020153292A1 (en) * 2019-01-23 2020-07-30 株式会社小松製作所 System and method for working machine
JP7160702B2 (en) 2019-01-23 2022-10-25 株式会社小松製作所 Work machine system and method
JP2022071030A (en) * 2019-12-11 2022-05-13 キヤノン株式会社 Control device, control method, and program
JP7434385B2 (en) 2019-12-11 2024-02-20 キヤノン株式会社 Control device, control method, and program
WO2021199715A1 (en) * 2020-03-30 2021-10-07 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6105244B2 (en) 2017-03-29

Similar Documents

Publication Publication Date Title
JP6105244B2 (en) Image processing apparatus and image processing system
US11094132B2 (en) System and method for presentation and control of augmented vehicle surround views
JP6014442B2 (en) Image generation apparatus, image display system, and image generation method
US9030465B2 (en) Vehicle user interface unit for a vehicle electronic device
US9256288B2 (en) Apparatus and method for selecting item using movement of object
JP6084097B2 (en) Image generation apparatus, image display system, and image generation method
JP6548900B2 (en) Image generation apparatus, image generation method and program
JP2020537209A (en) User interface behavior and motion-based control
WO2012053033A1 (en) Three-dimensional display device
JP5047650B2 (en) In-vehicle camera system
JP5825323B2 (en) Vehicle periphery monitoring device
JP2010081466A (en) Operation control device and operation display method
JP5977130B2 (en) Image generation apparatus, image display system, and image generation method
JP6257978B2 (en) Image generation apparatus, image display system, and image generation method
JP2016063390A (en) Image processing system and image display system
JP2016096449A (en) Image display device, brightness change method, and program
KR102570780B1 (en) Image processing device, moving device and method, and program
CN111045586B (en) Interface switching method based on three-dimensional scene, vehicle-mounted equipment and vehicle
WO2013111280A1 (en) Display apparatus and display method
KR20180132132A (en) A three-dimensional data display device, a three-dimensional data display method, and a computer readable recording medium recording a program
JP6370833B2 (en) Image generation apparatus, image display system, and image generation method
JP7135378B2 (en) Perimeter monitoring device
JP2018142340A (en) Image creation device, image display system, and image creation method
US20240087255A1 (en) Information processing apparatus, system, control method, and non-transitory computer storage medium
JP2023006857A (en) View display device and view display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170302

R150 Certificate of patent or registration of utility model

Ref document number: 6105244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250