JP5681569B2 - Information processing system, server device, and in-vehicle device - Google Patents

Information processing system, server device, and in-vehicle device Download PDF

Info

Publication number
JP5681569B2
JP5681569B2 JP2011122387A JP2011122387A JP5681569B2 JP 5681569 B2 JP5681569 B2 JP 5681569B2 JP 2011122387 A JP2011122387 A JP 2011122387A JP 2011122387 A JP2011122387 A JP 2011122387A JP 5681569 B2 JP5681569 B2 JP 5681569B2
Authority
JP
Japan
Prior art keywords
vehicle
image
approaching
composite image
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011122387A
Other languages
Japanese (ja)
Other versions
JP2012253428A (en
Inventor
礼文 ▲高▼須賀
礼文 ▲高▼須賀
浩明 丸野
浩明 丸野
裕介 井口
裕介 井口
関口 泰弘
泰弘 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2011122387A priority Critical patent/JP5681569B2/en
Publication of JP2012253428A publication Critical patent/JP2012253428A/en
Application granted granted Critical
Publication of JP5681569B2 publication Critical patent/JP5681569B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像の表示処理に関する。   The present invention relates to image display processing.

従来、車両の後方に備えられたカメラで撮影した画像中に車両の後方から接近する接近車両の像が存在する場合、画像中の接近車両の像の位置から車両に対する接近車両の位置を導出していた。そして、過去に検出した接近車両の位置と比べて車両に対する接近車両の位置が近くなった場合に、接近車両が車両に近づいていることをユーザに報知していた。   Conventionally, when there is an image of an approaching vehicle approaching from the rear of the vehicle in an image taken by a camera provided behind the vehicle, the position of the approaching vehicle relative to the vehicle is derived from the position of the approaching vehicle image in the image. It was. And when the position of the approaching vehicle with respect to the vehicle becomes close compared with the position of the approaching vehicle detected in the past, the user is notified that the approaching vehicle is approaching the vehicle.

そして、車両と接近車両との距離が所定の距離を下回った場合に、例えば車両のAピラー近傍に備えられたLEDなどの発光体を点灯させて、接近車両が車両に接近していることを車両のユーザに報知していた。このような報知を行う例としては、車両のユーザの操作により車両が走行する車線の変更を行う場合に、車両の移動位置に接近車両が接近しているときは、当該接近車両が存在していることを車両のユーザへ報知していた。このような場合、車両と接近車両との衝突の危険があるとして車両のユーザは車両の車線変更を取り止める場合があった。なお、本発明と関連する技術を説明する資料としては特許文献1がある。   When the distance between the vehicle and the approaching vehicle falls below a predetermined distance, for example, a light emitter such as an LED provided in the vicinity of the A-pillar of the vehicle is turned on to confirm that the approaching vehicle is approaching the vehicle. The vehicle user was informed. As an example of performing such notification, when an approaching vehicle is approaching the moving position of the vehicle when the lane in which the vehicle travels is changed by an operation of the user of the vehicle, the approaching vehicle exists. To the vehicle user. In such a case, the user of the vehicle may cancel the lane change of the vehicle because there is a risk of a collision between the vehicle and the approaching vehicle. Note that there is Patent Document 1 as a material for explaining the technology related to the present invention.

特開2004−304416号公報JP 2004-304416 A

しかしながら、車線変更を行おうとする車両と接近車両との距離が所定の距離を下回った状態であっても、接近車両の車両に接近する速度が低速の場合は、接近車両が車両の移動位置に移動するよりも車両の移動位置への移動が早く行えるときがあった。つまり、接近車両の車両への接近状態によっては、車両のユーザの操作による車両の走行車線の変更が可能な場合があった。このようなことから車両に対する接近車両の接近状態をユーザが正確に把握できる技術が求められていた。   However, even when the distance between the vehicle that is about to change lanes and the approaching vehicle is less than a predetermined distance, if the approaching vehicle approaches the vehicle at a low speed, the approaching vehicle is moved to the moving position of the vehicle. In some cases, the vehicle can move to the moving position faster than the vehicle moves. That is, depending on the approaching state of the approaching vehicle to the vehicle, it may be possible to change the traveling lane of the vehicle by the operation of the user of the vehicle. For this reason, there is a need for a technique that allows the user to accurately grasp the approaching state of the approaching vehicle with respect to the vehicle.

本発明は上記課題に鑑みてなされたものであり、車両に対する接近車両の接近状態を車両のユーザが正確に把握できる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technology that allows a user of a vehicle to accurately grasp the approaching state of an approaching vehicle to the vehicle.

上記課題を解決するため、請求項1の発明は、車両で用いられる画像表示システムであって、車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する生成手段と、前記車両の後方から接近する接近車両の存在を検出する検出手段と、前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、前記合成画像を表示する表示手段と、を備え、前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成する。
In order to solve the above-mentioned problem, an invention according to claim 1 is an image display system used in a vehicle, and combines the plurality of photographed images with an acquisition unit that obtains a plurality of photographed images of a camera mounted on the vehicle. And generating means for generating a composite image showing the state of the periphery of the vehicle viewed from a virtual viewpoint, detecting means for detecting the presence of an approaching vehicle approaching from the rear of the vehicle, and relative to the vehicle. Derivation means for deriving the position of the approaching vehicle; and display means for displaying the composite image, wherein the generation means is the composition viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle. image der is, the approaching vehicle to generate a specific composite image by increasing the height of the virtual viewpoint closer to the vehicle.

また、請求項2の発明は、車両で用いられる画像表示システムであって、車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する生成手段と、前記車両の後方から接近する接近車両の存在を検出する検出手段と、前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、前記合成画像を表示する表示手段と、を備え、前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記仮想視点の視点位置を前記接近車両のドライバーの位置とし、前記仮想視点の視野方向を前記車両の存在する方向とする特定合成画像を生成する。
Further, the invention of claim 2 is an image display system used in a vehicle, wherein an acquisition means for acquiring a plurality of photographed images of a camera mounted on the vehicle is combined with the plurality of photographed images to obtain a virtual viewpoint. Generating means for generating a composite image showing the state of the periphery of the vehicle viewed from the above, detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle, and the position of the approaching vehicle relative to the vehicle. Derivation means for deriving and display means for displaying the composite image, wherein the generation means is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle, A specific composite image is generated in which the viewpoint position of the virtual viewpoint is the position of the driver of the approaching vehicle and the visual field direction of the virtual viewpoint is the direction in which the vehicle exists .

また、請求項3の発明は、車両で用いられる画像表示システムであって、車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する生成手段と、前記車両の後方から接近する接近車両の存在を検出する検出手段と、前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、前記合成画像を表示する表示手段と、を備え、前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像である特定合成画像を生成し、前記表示手段は、前記接近車両が存在しない場合は前記カメラからの前記撮影画像のうちの一の撮影画像を表示し、前記接近車両が存在する場合は前記一の撮影画像と共に前記特定合成画像を表示する
The invention of claim 3 is an image display system used in a vehicle, wherein an acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle is combined with the plurality of captured images to obtain a virtual viewpoint. Generating means for generating a composite image showing the state of the periphery of the vehicle viewed from the above, detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle, and the position of the approaching vehicle relative to the vehicle. Derivation means for deriving and display means for displaying the composite image, wherein the generation means is the specific composition that is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle An image is generated, and the display means displays one captured image of the captured images from the camera when the approaching vehicle does not exist, and displays the one captured image when the approaching vehicle exists. Both Displaying the specific composite image.

また、請求項4の発明は、車両で用いられる画像表示システムであって、車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する生成手段と、前記車両の後方から接近する接近車両の存在を検出する検出手段と、前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、前記合成画像を表示する表示手段と、を備え、前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像である特定合成画像を生成し、前記表示手段は、視点位置を前記接近車両のドライバーの位置とし視野方向を前記車両の存在する方向とする前記仮想視点から見た前記特定合成画像と、視点位置を前記車両のドアミラー近傍の位置とし視野方向を前記接近車両の存在する方向とする前記仮想視点から見た前記特定合成画像とを前記車両のユーザの操作に応じて切り替えて表示する
According to a fourth aspect of the present invention, there is provided an image display system used in a vehicle, wherein an acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle and the plurality of captured images are combined to generate a virtual viewpoint. Generating means for generating a composite image showing the state of the periphery of the vehicle viewed from the above, detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle, and the position of the approaching vehicle relative to the vehicle. Derivation means for deriving and display means for displaying the composite image, wherein the generation means is the specific composition that is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle An image is generated, and the display means displays the specific composite image viewed from the virtual viewpoint with the viewpoint position as the position of the driver of the approaching vehicle and the visual field direction as the direction in which the vehicle exists, and the viewpoint position as the viewpoint position. And the specific synthetic image viewed from the virtual viewpoint to present a direction of position and to the approaching vehicle the viewing direction of the door mirror vicinity of both displays are switched in response to user's operation of the vehicle.

また、請求項5の発明は、請求項に記載の画像表示システムにおいて、前記表示手段は、前記車両のユーザの操作に応じて前記一の撮影画像のサイズと前記特定合成画像のサイズとを切り替えて表示する
According to a fifth aspect of the present invention, in the image display system according to the third aspect , the display means determines the size of the one captured image and the size of the specific composite image in accordance with an operation of a user of the vehicle. Switch to display .

また、請求項6の発明は、請求項に記載の画像表示システムにおいて、前記車両の走行車線の変更に伴う前記車両のユーザの操作を検知する操作検知手段をさらに備え、前記表示手段は、前記ユーザの操作が検知された場合に前記特定合成画像を表示する
The invention of claim 6 is the image display system according to claim 1 , further comprising operation detection means for detecting an operation of a user of the vehicle accompanying a change in a traveling lane of the vehicle, wherein the display means includes: When the user operation is detected, the specific composite image is displayed .

また、請求項7の発明は、請求項に記載の画像表示システムにおいて、前記生成手段は、前記仮想視点の位置を前記車両の前方とし、前記仮想視点の視野方向を前記車両後方として、前記車両の像および前記接近車両の像を含む前記特定合成画像を生成する
Further, the invention of claim 7 is the image display system according to claim 6 , wherein the generating means sets the position of the virtual viewpoint to the front of the vehicle, and sets the visual direction of the virtual viewpoint to the rear of the vehicle. The specific composite image including a vehicle image and an approaching vehicle image is generated .

また、請求項8の発明は、請求項に記載の画像表示システムにおいて、前記生成手段は、前記仮想視点の視点位置を前記接近車両のドライバーの位置とし、前記仮想視点の視野方向を前記車両の存在する方向として、前記特定合成画像を生成する
In addition, according to an eighth aspect of the present invention, in the image display system according to the sixth aspect , the generating means sets the viewpoint position of the virtual viewpoint as the position of the driver of the approaching vehicle, and sets the viewing direction of the virtual viewpoint as the vehicle. The specific composite image is generated as the direction in which the image exists .

また、請求項9の発明は、請求項に記載の画像表示システムにおいて、前記車両が走行車線を変更して移動する場合の移動位置を予測する予測手段と、前記接近車両が前記移動位置に移動する第1移動時間を演算する演算手段と、前記第1移動時間に基づいて前記車両の前記移動位置への移動の可否を判断する判断手段と、をさらに備え、前記生成手段は、前記移動の可否の判断結果を示す警告画像を前記合成画像に重畳させた画像を生成する
Further, the invention of claim 9 is the image display system according to claim 6 , in which the predicting means for predicting the moving position when the vehicle moves by changing the traveling lane, and the approaching vehicle at the moving position. Computation means for computing a first movement time for movement, and judgment means for judging whether or not the vehicle can move to the movement position based on the first movement time, further comprising: the movement means An image is generated by superimposing a warning image indicating the determination result on whether or not the synthesized image is superimposed .

また、請求項10の発明は、請求項に記載の画像表示システムにおいて、前記生成手段は、前記警告画像を前記移動位置に重畳させた画像を生成する
According to a tenth aspect of the present invention, in the image display system according to the ninth aspect , the generation unit generates an image in which the warning image is superimposed on the movement position .

また、請求項11の発明は、請求項に記載の画像表示システムにおいて、前記車両が前記移動位置に移動する第2移動時間を計測する計測手段と、前記第2移動時間を学習記憶する記憶手段と、をさらに備え、前記判断手段は、前記第1移動時間と記憶された前記第2移動時間とに基づいて前記移動の可否を判断する
The invention according to claim 11 is the image display system according to claim 9 , wherein a measuring means for measuring a second moving time during which the vehicle moves to the moving position, and a memory for learning and storing the second moving time. Means for determining whether the movement is possible based on the first movement time and the stored second movement time .

また、請求項12の発明は、請求項6ないし11のいずれかに記載の画像表示システムにおいて、前記ユーザの操作が検知され、かつ、前記接近車両が存在しない場合に、前記生成手段は、前記仮想視点の視点位置を前記車両の前方とし、前記仮想視点の視野方向を前記車両後方として、前記車両の像と隣接車線の像とを含む前記合成画像である車両合成画像を生成し、前記表示手段は、前記車両合成画像を表示する
The invention according to claim 12 is the image display system according to any one of claims 6 to 11 , wherein when the user's operation is detected and the approaching vehicle does not exist, the generation means Generating a vehicle composite image that is the composite image including the image of the vehicle and an image of an adjacent lane, with the viewpoint position of the virtual viewpoint being the front of the vehicle and the visual field direction of the virtual viewpoint being the rear of the vehicle; The means displays the vehicle composite image .

また、請求項13の発明は、請求項1ないし12のいずれかに記載の画像表示システムにおいて、前記車両の位置を取得する位置取得手段と、前記車両の位置に応じて、前記車両の目的地までのルートを案内する案内情報をユーザに報知する報知手段と、をさらに備え、前記表示手段は、前記報知手段が前記案内情報を報知する場合に、前記合成画像を表示する
The invention according to claim 13 is the image display system according to any one of claims 1 to 12 , wherein the position acquisition means for acquiring the position of the vehicle, and the destination of the vehicle according to the position of the vehicle Notification means for notifying the user of guide information for guiding the route to the user, and the display means displays the composite image when the notification means notifies the guide information .

また、請求項14の発明は、請求項13に記載の画像表示システムにおいて、前記生成手段は、前記報知手段が報知する前記案内情報の内容に応じて、前記合成画像の前記仮想視点を変更する
In addition, according to a fourteenth aspect of the present invention, in the image display system according to the thirteenth aspect , the generation unit changes the virtual viewpoint of the composite image according to the content of the guidance information notified by the notification unit. .

また、請求項15の発明は、請求項14に記載の画像表示システムにおいて、前記案内情報は、走行車線の変更を案内する情報と、交差点での方向の変更を案内する情報とを含む
In the image display system according to claim 14 , the guidance information includes information for guiding the change of the traveling lane and information for guiding the direction change at the intersection .

また、請求項16の発明は、車両で用いられる画像処理装置であって、車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する生成手段と、前記車両の後方から接近する接近車両の存在を検出する検出手段と、前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、を備え、前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成する
According to a sixteenth aspect of the present invention, there is provided an image processing apparatus used in a vehicle, wherein an acquisition unit that acquires a plurality of captured images of a camera mounted on the vehicle and the plurality of captured images are combined to generate a virtual viewpoint. Generating means for generating a composite image showing the state of the periphery of the vehicle viewed from the above, detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle, and the position of the approaching vehicle relative to the vehicle. Deriving means for deriving, wherein the generating means is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle, and the virtual vehicle as the approaching vehicle approaches the vehicle A specific composite image in which the height of the viewpoint is increased is generated .

また、請求項17の発明は、車両で用いられる画像表示方法であって、(a)車両に搭載されたカメラの複数の撮影画像を取得する工程と、(b)前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する工程と、(c)前記車両の後方から接近する接近車両の存在を検出する工程と、(d)前記車両に対する相対的な前記接近車両の位置を導出する工程と、(e)前記合成画像を表示する表示する工程と、を備え、前記工程(b)は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成する
The invention of claim 17 is an image display method used in a vehicle, wherein (a) a step of acquiring a plurality of photographed images of a camera mounted on the vehicle, and (b) a combination of the plurality of photographed images. And (c) detecting the presence of an approaching vehicle approaching from the rear of the vehicle; (d) for the vehicle; A step of deriving a relative position of the approaching vehicle; and (e) a step of displaying and displaying the composite image, wherein the step (b) depends on the position of the vehicle and the position of the approaching vehicle. In addition, the composite image viewed from the virtual viewpoint, and a specific composite image in which the height of the virtual viewpoint is increased as the approaching vehicle approaches the vehicle is generated .

請求項1の発明によれば、生成手段は、車両の位置と接近車両の相対的な位置に応じた仮想視点から見た合成画像である特定合成画像を生成することで、接近車両の位置を車両のユーザが正確に把握できる。   According to the first aspect of the present invention, the generation unit generates a specific composite image that is a composite image viewed from a virtual viewpoint corresponding to the position of the vehicle and the relative position of the approaching vehicle, thereby determining the position of the approaching vehicle. The vehicle user can accurately grasp.

また、請求項2の発明によれば、生成手段は、仮想視点の視点位置を車両の前方とし、仮想視点の視野方向を車両後方として、車両の像および接近車両の像を含む特定合成画像を生成することで、車両前方から見た接近車両の位置を車両のユーザが正確に把握できる。   According to a second aspect of the present invention, the generating means generates a specific composite image including a vehicle image and an approaching vehicle image with the viewpoint position of the virtual viewpoint as the front of the vehicle and the visual field direction of the virtual viewpoint as the rear of the vehicle. By generating, the user of the vehicle can accurately grasp the position of the approaching vehicle viewed from the front of the vehicle.

また、請求項3の発明によれば、生成手段は、接近車両が車両に近づくにつれて仮想視点の高さを上昇させた特定合成画像を生成することで、車両の像と接近車両の像とが合成画像中に含まれ、接近車両の位置を車両のユーザが正確に把握できる。   According to the invention of claim 3, the generation means generates a specific composite image in which the height of the virtual viewpoint is increased as the approaching vehicle approaches the vehicle, whereby the vehicle image and the approaching vehicle image are obtained. It is included in the composite image, and the user of the vehicle can accurately grasp the position of the approaching vehicle.

また、請求項4の発明によれば、生成手段は、仮想視点の視点位置を接近車両のドライバーの位置とし、仮想視点の視野方向を車両の存在する方向として、特定合成画像を生成することで、接近車両のドライバー視点から車両の位置を車両のユーザは正確に把握できる。   According to the invention of claim 4, the generating means generates the specific composite image with the viewpoint position of the virtual viewpoint as the position of the driver of the approaching vehicle and the visual field direction of the virtual viewpoint as the direction in which the vehicle exists. The vehicle user can accurately grasp the position of the vehicle from the viewpoint of the driver of the approaching vehicle.

また、請求項5の発明によれば、表示手段は、接近車両が存在しない場合はカメラからの撮影画像のうちの一の撮影画像を表示し、接近車両が存在する場合は一の撮影画像と共に特定合成画像を表示することで、車両のユーザは接近車両の存在を早期に認識でき、接近車両の位置を正確に把握できる。   According to the invention of claim 5, the display means displays one captured image of the captured images from the camera when there is no approaching vehicle, and together with one captured image when there is an approaching vehicle. By displaying the specific composite image, the user of the vehicle can recognize the presence of the approaching vehicle at an early stage, and can accurately grasp the position of the approaching vehicle.

また、請求項6の発明によれば、表示手段は、視点位置を接近車両のドライバーの位置とし視野方向を車両の存在する方向とする仮想視点から見た特定合成画像と、視点位置を車両のドアミラー近傍の位置とし視野方向を接近車両の存在する方向とする仮想視点から見た特定合成画像とを車両のユーザの操作に応じて切り替えて表示することで、ユーザの希望する仮想視点からの見た合成画像を表示して、接近車両の位置を正確に把握できる。   Further, according to the invention of claim 6, the display means includes a specific composite image viewed from a virtual viewpoint in which the viewpoint position is the position of the driver of the approaching vehicle and the visual field direction is the direction in which the vehicle exists, and the viewpoint position is the vehicle position. A specific composite image viewed from a virtual viewpoint having a position near the door mirror and a viewing direction as the direction in which the approaching vehicle is present is displayed by switching according to the operation of the user of the vehicle. The combined image can be displayed to accurately grasp the position of the approaching vehicle.

また、請求項7の発明によれば、表示手段は、車両のユーザの操作に応じて一の撮影画像のサイズと特定合成画像のサイズとを切り替えて表示することで、車両の走行状態に応じて車両のユーザの希望する画像のサイズを他の画像のサイズと比べて調整できる。   According to the seventh aspect of the present invention, the display means switches between the size of the one captured image and the size of the specific composite image in accordance with the operation of the user of the vehicle, so that it corresponds to the traveling state of the vehicle. Thus, the size of the image desired by the user of the vehicle can be adjusted as compared with the sizes of other images.

また、請求項8の発明によれば、表示手段は、ユーザの操作が検知された場合に特定合成画像を表示することで、車両のユーザは接近車両の位置を正確に把握して車両の車線変更の可否を容易に判断できる。   According to the invention of claim 8, the display means displays the specific composite image when the user's operation is detected, so that the user of the vehicle can accurately grasp the position of the approaching vehicle and the lane of the vehicle. It is possible to easily determine whether the change can be made.

また、請求項9の発明によれば、生成手段は、仮想視点の位置を車両の前方とし、仮想視点の視野方向を車両後方として、車両の像および接近車両の像を含む特定合成画像を生成することで、車両前方から見た接近車両の位置を車両のユーザは正確に把握して、車両の車線変更の可否を容易に判断できる。   According to the invention of claim 9, the generating means generates a specific composite image including a vehicle image and an approaching vehicle image with the position of the virtual viewpoint as the front of the vehicle and the visual direction of the virtual viewpoint as the rear of the vehicle. By doing so, the user of the vehicle can accurately grasp the position of the approaching vehicle viewed from the front of the vehicle, and can easily determine whether or not the lane of the vehicle can be changed.

また、請求項10の発明によれば、生成手段は、仮想視点の視点位置を接近車両のドライバーの位置とし、仮想視点の視野方向を車両の存在する方向として、特定合成画像を生成することで、接近車両のドライバー視点から車両の位置を車両のユーザは正確に把握して、車両の車線変更の可否を容易に判断できる。   According to the invention of claim 10, the generating means generates the specific composite image with the viewpoint position of the virtual viewpoint as the position of the driver of the approaching vehicle and the visual field direction of the virtual viewpoint as the direction in which the vehicle exists. The user of the vehicle can accurately grasp the position of the vehicle from the driver's viewpoint of the approaching vehicle, and can easily determine whether the lane of the vehicle can be changed.

また、請求項11の発明によれば、生成手段は、移動の可否の判断結果を示す警告画像を合成画像に重畳させることで、車両のユーザは接近車両の車両への接近状態を正確に把握して、車両の車線変更の可否を容易に判断できる。   According to the eleventh aspect of the present invention, the generation unit superimposes a warning image indicating the determination result of the movement on the composite image, so that the user of the vehicle accurately grasps the approaching state of the approaching vehicle to the vehicle. Thus, it is possible to easily determine whether the lane of the vehicle can be changed.

また、請求項12の発明によれば、表示手段は、現在の車両の位置に対応する表示態様で撮影画像を表示することで、車両の位置に対応する地点を初めて走行するユーザに撮影画像の最適な表示態様を提供できる。   According to the invention of claim 12, the display means displays the photographed image in a display mode corresponding to the current vehicle position, so that the user who travels for the first time at the point corresponding to the vehicle position can display the photographed image. An optimal display mode can be provided.

また、請求項13の発明によれば、判断手段は、第1移動時間と記憶された第2移動時間とに基づいて判断することで、車両9の移動位置への移動の可否を車両9のユーザの固有の車線変更時間に応じて、車両9のユーザが容易に判断できる。   According to the invention of claim 13, the determination means determines whether the vehicle 9 can move to the movement position by determining based on the first movement time and the stored second movement time. The user of the vehicle 9 can easily determine according to the user's specific lane change time.

また、請求項14の発明によれば、生成手段は、ユーザの操作が検知され、かつ、接近車両が存在しない場合に、仮想視点の視点位置を車両の前方とし、仮想視点の視野方向を車両後方として、車両の像を含む合成画像である車両合成画像を生成し、表示手段は、車両合成画像を表示することで、接近車両の存在の有無に関わらず車両の車線変更の可否をユーザが容易に判断できる。   According to the invention of claim 14, when the user's operation is detected and there is no approaching vehicle, the generation means sets the viewpoint position of the virtual viewpoint to the front of the vehicle and sets the visual direction of the virtual viewpoint to the vehicle. As a rear, a vehicle composite image that is a composite image including an image of the vehicle is generated, and the display means displays the vehicle composite image, so that the user can determine whether the lane of the vehicle can be changed regardless of the presence of an approaching vehicle. Easy to judge.

また、請求項15の発明によれば、表示手段は、報知手段が案内情報を報知する場合に、合成画像を表示することで、案内情報に対応した仮想視点位置から見た合成画像をユーザが確認できる。   According to the invention of claim 15, the display means displays the composite image when the notification means notifies the guide information, so that the user can see the composite image viewed from the virtual viewpoint position corresponding to the guide information. I can confirm.

また、請求項16の発明によれば、生成手段は、報知手段が報知する案内情報の内容に応じて、合成画像の仮想視点を変更することで、案内情報の内容に対応する車両の走行状況に応じた合成画像を車両のユーザが確認できる。   According to the sixteenth aspect of the present invention, the generation means changes the virtual viewpoint of the composite image according to the content of the guidance information notified by the notification means, so that the vehicle traveling state corresponding to the content of the guidance information The user of the vehicle can confirm the composite image corresponding to the above.

また、請求項17の発明によれば、案内情報は、走行車線の変更を案内する情報と、交差点での方向の変更を案内する情報とを含むことで、走行車線の変更、および、交差点での進行方向の変更に応じた合成画像を車両のユーザが確認できる。   According to the invention of claim 17, the guidance information includes information for guiding the change of the traveling lane and information for guiding the change of the direction at the intersection, so that the change of the traveling lane and the intersection The user of the vehicle can confirm the composite image corresponding to the change in the traveling direction.

図1は、画像表示システムのブロック図である。FIG. 1 is a block diagram of an image display system. 図2は、車載カメラが車両に配置される位置を示す図である。FIG. 2 is a diagram illustrating a position where the in-vehicle camera is arranged in the vehicle. 図3は、合成画像を生成する手法を説明するための図である。FIG. 3 is a diagram for explaining a method of generating a composite image. 図4は、仮想視点の視点位置を主に説明する図である。FIG. 4 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint. 図5は、仮想視点の視野方向を主に説明する図である。FIG. 5 is a diagram for mainly explaining the viewing direction of the virtual viewpoint. 図6は、仮想視点の視野方向を主に説明する図である。FIG. 6 is a diagram for mainly explaining the viewing direction of the virtual viewpoint. 図7は、ディスプレイに表示される仮想視点から見た合成画像を示した図である。FIG. 7 is a diagram illustrating a composite image viewed from a virtual viewpoint displayed on the display. 図8は、ディスプレイに表示される仮想視点から見た合成画像を示した図である。FIG. 8 is a diagram illustrating a composite image viewed from a virtual viewpoint displayed on the display. 図9は、画像処理装置の処理フローチャートである。FIG. 9 is a process flowchart of the image processing apparatus. 図10は、仮想視点の視点位置を主に説明する図である。FIG. 10 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint. 図11は、仮想視点の視野方向を主に説明する図である。FIG. 11 is a diagram for mainly explaining the viewing direction of the virtual viewpoint. 図12は、仮想視点の視野方向を主に説明する図である。FIG. 12 is a diagram for mainly explaining the viewing direction of the virtual viewpoint. 図13は、ディスプレイに表示される仮想視点から見た合成画像を示した図である。FIG. 13 is a diagram illustrating a composite image viewed from a virtual viewpoint displayed on the display. 図14は、ディスプレイに表示される仮想視点から見た合成画像を示した図である。FIG. 14 is a diagram illustrating a composite image viewed from a virtual viewpoint displayed on the display. 図15は、画像表示システムのブロック図である。FIG. 15 is a block diagram of the image display system. 図16は、ディスプレイに表示される仮想視点から見た合成画像を示した図である。FIG. 16 is a diagram illustrating a composite image viewed from a virtual viewpoint displayed on the display. 図17は、画像処理装置の処理フローチャートである。FIG. 17 is a process flowchart of the image processing apparatus. 図18は、画像処理装置の処理フローチャートである。FIG. 18 is a process flowchart of the image processing apparatus. 図19は、画像表示システムのブロック図である。FIG. 19 is a block diagram of the image display system. 図20は、車両の車線変更時間の計測の一例を示すグラフである。FIG. 20 is a graph illustrating an example of measurement of the lane change time of the vehicle. 図21は、学習部が車線変更時間を計測する処理フローチャートである。FIG. 21 is a process flowchart in which the learning unit measures the lane change time. 図22は、学習部が車線変更時間を計測する処理フローチャートである。FIG. 22 is a process flowchart in which the learning unit measures the lane change time. 図23は、仮想視点の視点位置を主に説明する図である。FIG. 23 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint. 図24は、仮想視点の視野方向を主に説明する図である。FIG. 24 is a diagram for mainly explaining the viewing direction of the virtual viewpoint. 図25は、ディスプレイに表示される仮想視点から見た合成画像を示した図である。FIG. 25 is a diagram illustrating a composite image viewed from a virtual viewpoint displayed on the display. 図26は、画像処理装置の処理フローチャートである。FIG. 26 is a process flowchart of the image processing apparatus. 図27は、画像処理装置の処理フローチャートである。FIG. 27 is a process flowchart of the image processing apparatus. 図28は、ディスプレイに表示される仮想視点から見た合成画像を示した図である。FIG. 28 is a diagram illustrating a composite image viewed from a virtual viewpoint displayed on the display. 図29は、画像処理装置の処理フローチャートである。FIG. 29 is a process flowchart of the image processing apparatus. 図30は、画像処理装置の処理フローチャートである。FIG. 30 is a process flowchart of the image processing apparatus. 図31は、仮想視点の視点位置を主に説明する図である。FIG. 31 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint. 図32は、仮想視点の視野方向を主に説明する図である。FIG. 32 is a diagram for mainly explaining the viewing direction of the virtual viewpoint. 図33は、ディスプレイに表示される仮想視点から見た合成画像を示した図である。FIG. 33 is a diagram illustrating a composite image viewed from a virtual viewpoint displayed on the display. 図34は、画像処理装置の処理フローチャートである。FIG. 34 is a process flowchart of the image processing apparatus. 図35は、画像処理装置の処理フローチャートである。FIG. 35 is a process flowchart of the image processing apparatus. 図36は、一のカメラの撮影画像と共にディスプレイに表示される合成画像の仮想視点の一例を示している。FIG. 36 shows an example of a virtual viewpoint of a composite image displayed on a display together with a photographed image of one camera. 図37は、ディスプレイに表示される画像を示す図である。FIG. 37 is a diagram showing an image displayed on the display. 図38は、ディスプレイに表示される画像を示す図である。FIG. 38 is a diagram showing an image displayed on the display. 図39は、一の撮影画像と合成画像をディスプレイに共に表示する処理フローチャートである。FIG. 39 is a process flowchart for displaying one photographed image and a composite image together on a display. 図40は、一の撮影画像と合成画像をディスプレイに共に表示する処理フローチャートである。FIG. 40 is a process flowchart for displaying one photographed image and a composite image together on a display. 図41は、フロントカメラの撮影画像のサイズと合成画像のサイズとの切替を示す図である。FIG. 41 is a diagram illustrating switching between the size of the captured image of the front camera and the size of the composite image. 図42は、ユーザに案内情報を報知する地点を示す図である。FIG. 42 is a diagram illustrating points where the guide information is notified to the user. 図43は、案内情報を報知する地点での仮想視点の視点位置と視野方向の例を示す図である。FIG. 43 is a diagram illustrating an example of the viewpoint position and visual field direction of the virtual viewpoint at a point where the guidance information is notified. 図44は、仮想視点から見た合成画像を示す図である。FIG. 44 is a diagram illustrating a composite image viewed from a virtual viewpoint. 図45は、表示装置が案内情報の報知を行う場合に、画像処理装置が合成画像をディスプレイに表示する処理フローチャートである。FIG. 45 is a process flowchart in which the image processing apparatus displays the composite image on the display when the display apparatus notifies the guide information. 図46は、表示装置が案内情報の報知を行う場合に、画像処理装置が合成画像をディスプレイに表示する処理フローチャートである。FIG. 46 is a process flowchart in which the image processing apparatus displays the composite image on the display when the display apparatus notifies the guide information.

以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施の形態>   <First Embodiment>

<1.構成>   <1. Configuration>

<1−1.画像表示システム> <1-1. Image display system>

図1は、画像表示システム120のブロック図である。撮影部5が搭載された車両(図2に示す車両9)の周辺を示す周辺画像を生成して画像情報を出力する画像処理装置11と、画像処理装置11から出力された画像を表示する表示装置20とを画像表示システム120は主に有している。   FIG. 1 is a block diagram of the image display system 120. An image processing device 11 that generates a peripheral image showing the periphery of a vehicle (vehicle 9 shown in FIG. 2) on which the photographing unit 5 is mounted and outputs image information, and a display that displays an image output from the image processing device 11 The image display system 120 mainly includes the device 20.

表示装置20は、ナビゲーション案内を表示するディスプレイを有するナビゲーション装置、音楽のタイトル情報やテレビの映像などを表示するディスプレイを備えたオーディオ装置、ユーザが携帯し車両9内へ持ち込んで使用可能なスマートフォンなどである。   The display device 20 includes a navigation device having a display for displaying navigation guidance, an audio device having a display for displaying music title information, television images, and the like, a smartphone that can be carried by the user and brought into the vehicle 9, and the like. It is.

また、表示装置20は装置全体を制御する制御部21と、制御部21の処理データなどを記憶する記憶部22と、画像処理装置11との間で通信を行う通信部23と、タッチパネル機能を備えた液晶などのディスプレイ24と、ユーザが操作を行う操作部25とを備えている。そして、ディスプレイ24の画面がユーザから視認可能なように、表示装置20は車両9のインストルメントパネルなどに設置される。ユーザからの各種の指示は、操作部25とタッチパネルとしてのディスプレイ24とによって受け付けられる。   The display device 20 includes a control unit 21 that controls the entire device, a storage unit 22 that stores processing data of the control unit 21, a communication unit 23 that communicates with the image processing device 11, and a touch panel function. A display 24 such as a liquid crystal is provided, and an operation unit 25 that is operated by the user. And the display apparatus 20 is installed in the instrument panel etc. of the vehicle 9 so that the screen of the display 24 can be visually recognized from a user. Various instructions from the user are received by the operation unit 25 and the display 24 as a touch panel.

制御部21は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。   The control unit 21 is a computer including a CPU, a RAM, a ROM, and the like, and various functions including a navigation function are realized by the CPU performing arithmetic processing according to a predetermined program.

制御部21は、主に表示制御部201、および、位置導出部202の機能を備えている。表示制御部201は、操作部25などからのユーザの操作に伴いディスプレイ24に表示される車載カメラの撮影画像の表示態様を制御する。   The control unit 21 mainly has functions of a display control unit 201 and a position deriving unit 202. The display control unit 201 controls a display mode of a captured image of the in-vehicle camera displayed on the display 24 in accordance with a user operation from the operation unit 25 or the like.

位置導出部202は、車両9の位置に対応する緯度・経度情報を導出する。このような車両9の位置はGPS(Global Positioning System)衛星からの電波の信号を受信し、受信した信号を制御部21で処理することにより実現される。GPSは、地球を周回する多数のGPS衛星のうち少なくとも3つ以上の衛星からの電波に基づいて車両9の位置を測位するシステムである。   The position deriving unit 202 derives latitude / longitude information corresponding to the position of the vehicle 9. Such a position of the vehicle 9 is realized by receiving a radio wave signal from a GPS (Global Positioning System) satellite and processing the received signal by the control unit 21. The GPS is a system that measures the position of the vehicle 9 based on radio waves from at least three or more GPS satellites that orbit the earth.

記憶部22は、制御部21が表示装置20を制御するプログラムを記憶する。また、記憶部22は、ディスプレイ24に表示される地図画像の情報である地図情報202を記憶する。   The storage unit 22 stores a program for the control unit 21 to control the display device 20. Further, the storage unit 22 stores map information 202 that is information of a map image displayed on the display 24.

通信部23は表示装置20と画像処理装置11との通信を行うインターフェースであり、画像処理装置からの画像情報等を受信したり、後述する操作部25がユーザに操作された場合の指示信号を画像処理装置11に送信する。   The communication unit 23 is an interface for performing communication between the display device 20 and the image processing device 11. The communication unit 23 receives image information and the like from the image processing device, and receives an instruction signal when an operation unit 25 described later is operated by the user. It transmits to the image processing apparatus 11.

ディスプレイ24は、各種画像を表示する表示部であり、表示制御部201の制御により、通常は表示装置20単体の機能に基づく画像を表示する。そして、所定の条件下で画像処理装置11で生成された車両9の周辺の様子を示す周辺画像を表示する。これにより、表示装置20は、画像処理装置11で生成された周辺画像を受信して表示する装置としても機能する。   The display 24 is a display unit that displays various images, and normally displays an image based on the function of the display device 20 alone under the control of the display control unit 201. And the surrounding image which shows the mode of the periphery of the vehicle 9 produced | generated with the image processing apparatus 11 on the predetermined conditions is displayed. Thereby, the display device 20 also functions as a device that receives and displays the peripheral image generated by the image processing device 11.

操作部25は、表示装置20の各種機能を実現するためにユーザが操作を行うものであり、例えば、表示装置20に設けられたハードスイッチなどである。また、操作部25をユーザが操作することでディスプレイ24に表示された車載カメラの撮影画像の表示態様を切り替えることができる。   The operation unit 25 is operated by a user to realize various functions of the display device 20, and is, for example, a hard switch provided in the display device 20. The display mode of the captured image of the in-vehicle camera displayed on the display 24 can be switched by the user operating the operation unit 25.

画像処理装置11は、車両9の周辺画像を生成する機能を有するECU(Electronic Control Unit)であり、車両9の所定の位置に配置される。画像処理装置11は、撮影部5で車両9の周辺を撮影して得られる撮影画像に基づいて仮想視点からみた合成画像を生成する画像生成装置として機能する。また、画像処理装置11は撮影部5の一のカメラで撮影された画像を処理する装置としても機能する。撮影部5が備える複数の車載カメラ51、52、53、54は、画像処理装置11とは別の車両9の適位置に配置されるが詳細は後述する。   The image processing apparatus 11 is an ECU (Electronic Control Unit) having a function of generating a peripheral image of the vehicle 9 and is disposed at a predetermined position of the vehicle 9. The image processing device 11 functions as an image generation device that generates a composite image viewed from a virtual viewpoint based on a captured image obtained by photographing the periphery of the vehicle 9 with the photographing unit 5. Further, the image processing device 11 also functions as a device that processes an image shot by one camera of the shooting unit 5. The plurality of in-vehicle cameras 51, 52, 53, and 54 provided in the photographing unit 5 are arranged at appropriate positions of the vehicle 9 different from the image processing apparatus 11, but details will be described later.

画像処理装置11は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の周辺画像を生成する画像処理部3を主に備えている。   The image processing apparatus 11 mainly includes a control unit 1 that controls the entire apparatus and an image processing unit 3 that processes a captured image acquired by the imaging unit 5 to generate a peripheral image for display.

表示装置20の操作部25、および、ディスプレイ24のいずれかによって受け付けられたユーザからの各種の指示は、表示装置20の通信部23を介して制御信号として通信部61に受け付けられて制御部1に入力される。これにより、画像処理装置11は、表示装置20に対するユーザの操作に応答した動作が可能となっている。   Various instructions from the user received by either the operation unit 25 of the display device 20 or the display 24 are received by the communication unit 61 as a control signal via the communication unit 23 of the display device 20 and are received by the control unit 1. Is input. As a result, the image processing apparatus 11 can operate in response to a user operation on the display device 20.

画像処理部3は、各種の画像処理が可能なハードウェア回路として構成されており、画像取得部31、合成画像生成部32、および、画像出力部33を主な機能として備えている。   The image processing unit 3 is configured as a hardware circuit capable of various image processing, and includes an image acquisition unit 31, a composite image generation unit 32, and an image output unit 33 as main functions.

画像取得部31は、車両9の周辺を撮影する撮影部5の車載カメラ51、52、53、54で撮影された複数の撮影画像を取得する。   The image acquisition unit 31 acquires a plurality of captured images captured by the in-vehicle cameras 51, 52, 53, and 54 of the imaging unit 5 that captures the periphery of the vehicle 9.

合成画像生成部32は、車載カメラ51、52、53、54で取得された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた合成画像を生成する。合成画像生成部32が仮想視点からみた合成画像を生成する手法については後述する。   The composite image generation unit 32 generates a composite image viewed from an arbitrary virtual viewpoint around the vehicle, based on a plurality of captured images acquired by the in-vehicle cameras 51, 52, 53, and 54. A method by which the composite image generation unit 32 generates a composite image viewed from a virtual viewpoint will be described later.

また、画像出力部33は合成画像生成部32において生成された合成画像、および、その他の画像(たとえば、一のカメラで撮影された画像)の少なくとも一の画像を通信部61を介して表示装置20へ送信する。これにより、車両の周辺を示す周辺画像が表示装置20のディスプレイ24に表示される。   Further, the image output unit 33 displays at least one image of the composite image generated by the composite image generation unit 32 and other images (for example, images taken by one camera) via the communication unit 61. 20 is transmitted. Thereby, a peripheral image showing the periphery of the vehicle is displayed on the display 24 of the display device 20.

制御部1は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す画像制御部111、検出部112、および、導出部113は、このようにして実現される制御部1の機能のうちの一部である。   The control unit 1 is a computer including a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a predetermined program. The image control unit 111, the detection unit 112, and the derivation unit 113 shown in the drawing are a part of the functions of the control unit 1 realized in this way.

画像制御部111は、画像処理部3によって実行される画像処理を制御するものである。例えば、画像制御部111は、車両9の位置に応じた合成画像の生成に必要な各種パラメータを合成画像生成部32に指示する。このようなパラメータの指示は、例えば撮影画像の表示態様の切り替えに伴うユーザ操作の指示信号を制御部1が受信した場合に、画像制御部111が行う。   The image control unit 111 controls image processing executed by the image processing unit 3. For example, the image control unit 111 instructs the composite image generation unit 32 about various parameters necessary for generating a composite image according to the position of the vehicle 9. For example, when the control unit 1 receives an instruction signal of a user operation accompanying switching of the display mode of the captured image, the image control unit 111 performs such parameter instruction.

また、画像制御部111は車両9の位置と車両9の後方から車両9に接近する車両(以下、「接近車両」ともいう。例えば、図4および図5に示す接近車両10)の位置に応じた仮想視点から見た合成画像の生成を合成画像生成部32に指示する。   The image control unit 111 also corresponds to the position of the vehicle 9 and the position of the vehicle approaching the vehicle 9 from the rear of the vehicle 9 (hereinafter also referred to as “approaching vehicle”. For example, the approaching vehicle 10 shown in FIGS. 4 and 5). The composite image generation unit 32 is instructed to generate a composite image viewed from the virtual viewpoint.

検出部112は、車両9の後方から接近する接近車両10の存在を検出する。つまり、車両9の後方に備えられたバックカメラ52の撮影画像から車両9の後方に存在する接近車両の像(以下、「接近車両像」ともいう。例えば、図7の合成画像PT1および合成画像PT2に示す接近車両像101)をエッジ検出などの処理により検出する。   The detection unit 112 detects the presence of the approaching vehicle 10 approaching from behind the vehicle 9. That is, an image of an approaching vehicle existing behind the vehicle 9 (hereinafter also referred to as “approaching vehicle image”) from a photographed image of the back camera 52 provided behind the vehicle 9. For example, the composite image PT1 and the composite image in FIG. The approaching vehicle image 101) shown in PT2 is detected by processing such as edge detection.

なお、車両9に接近する接近車両10の存在の検出は、検出部112が過去に検出したある車両像の画像中の位置と、今回検出した当該車両像の画像中の位置との差に基づいて行う。また、接近車両10の存在を検出する別の方法としては、過去に検出したある車両像の画像中に占める大きさと今回検出した当該車両像の画像中に占める大きさとを比較により行う。   The detection of the presence of the approaching vehicle 10 approaching the vehicle 9 is based on the difference between the position in the image of a certain vehicle image detected by the detection unit 112 in the past and the position in the image of the vehicle image detected this time. Do it. Another method for detecting the presence of the approaching vehicle 10 is to compare the size of a certain vehicle image detected in the past with the size of the vehicle image detected this time.

導出部113は、車両9に対する接近車両10の相対的な位置を導出する。つまり、検出部112により検出された画像中の車両像91と接近車両像101との位置の差などから車両9に対する接近車両10の位置(車両9に対する接近車両10の距離、および、車両9に対する接近車両10の方向(角度))を導出する。   The deriving unit 113 derives the relative position of the approaching vehicle 10 with respect to the vehicle 9. That is, the position of the approaching vehicle 10 relative to the vehicle 9 (the distance of the approaching vehicle 10 relative to the vehicle 9 and the vehicle 9 based on the difference in the position between the vehicle image 91 and the approaching vehicle image 101 in the image detected by the detection unit 112. The direction (angle) of the approaching vehicle 10 is derived.

また、画像処理装置11は、不揮発性メモリ4、通信部61、および、信号入力部62をさらに備えており、これらは制御部1に接続されている。   The image processing apparatus 11 further includes a nonvolatile memory 4, a communication unit 61, and a signal input unit 62, which are connected to the control unit 1.

不揮発性メモリ4は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ4には、車種別情報40が記憶されている。車種別情報40は、合成画像生成部32が合成画像を生成する際に必要となる車両の種別に応じたデータを含んでいる。   The nonvolatile memory 4 is configured by a flash memory or the like that can maintain stored contents even when the power is turned off. In the nonvolatile memory 4, vehicle type information 40 is stored. The vehicle type information 40 includes data corresponding to the type of vehicle that is required when the composite image generation unit 32 generates a composite image.

また、不揮発性メモリ4は、車両9に対する接近車両10の位置に対応する仮想視点VPの視点位置および視野方向の情報である仮想視点情報41が記憶されている。そして、仮想視点VPの視点位置および視野方向を画像制御部111が設定する際に、車両9に対する接近車両10の位置に対応した仮想視点VPの視点位置および視野方向の情報が画像制御部111により不揮発性メモリ4から読み出される。   In addition, the nonvolatile memory 4 stores virtual viewpoint information 41 that is information on the viewpoint position and visual field direction of the virtual viewpoint VP corresponding to the position of the approaching vehicle 10 with respect to the vehicle 9. When the image control unit 111 sets the viewpoint position and the viewing direction of the virtual viewpoint VP, the image control unit 111 obtains information on the viewpoint position and the viewing direction of the virtual viewpoint VP corresponding to the position of the approaching vehicle 10 with respect to the vehicle 9. Read from the nonvolatile memory 4.

通信部61は、画像処理装置11が表示装置20との間で通信を行うためのインターフェースである。   The communication unit 61 is an interface for the image processing apparatus 11 to communicate with the display device 20.

信号入力部62は、車両9に設けられた各種装置からの信号の入力が行われる際のインターフェースである。信号入力部62を介して、画像処理装置11の外部からの信号が制御部1に入力される。具体的には、シフトセンサ81、車速センサ82、方向指示器83、および、操舵角センサ84などから、各種情報を示す信号が制御部1に入力される。   The signal input unit 62 is an interface when signals are input from various devices provided in the vehicle 9. A signal from the outside of the image processing apparatus 11 is input to the control unit 1 via the signal input unit 62. Specifically, signals indicating various information are input to the control unit 1 from the shift sensor 81, the vehicle speed sensor 82, the direction indicator 83, the steering angle sensor 84, and the like.

シフトセンサ81からは、車両9の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。車速センサ82からは、その時点の車両9の走行速度(km/h)が入力される。   From the shift sensor 81, the operation position of the shift lever of the transmission of the vehicle 9, ie, “P (parking)”, “D (forward)”, “N (neutral)”, “R (reverse)”, etc. The shift position is input. From the vehicle speed sensor 82, the traveling speed (km / h) of the vehicle 9 at that time is input.

方向指示器83からは、ウインカースイッチの操作に基づく方向指示、すなわち、車両9のドライバーが意図する方向指示を示すターン信号が入力される。ウインカースイッチが操作されたときはターン信号が発生し、ターン信号はその操作された方向(左方向あるいは右方向)を示すことになる。ウインカースイッチが中立位置となったときは、ターン信号はオフとなる。   From the direction indicator 83, a turn signal indicating a direction instruction based on the operation of the blinker switch, that is, a direction instruction intended by the driver of the vehicle 9 is input. When the turn signal switch is operated, a turn signal is generated, and the turn signal indicates the operated direction (left direction or right direction). When the turn signal switch is in the neutral position, the turn signal is turned off.

操舵角センサ84からは、ユーザが操作したステアリングホイールの操作方向が制御部1に入力される。詳細には、操舵角センサ84には、ユーザが操作したステアリングホイールの回転方向、回転角度、及び、回転速度が信号入力部62を介して制御部1に入力される。   From the steering angle sensor 84, the operation direction of the steering wheel operated by the user is input to the control unit 1. Specifically, the steering angle sensor 84 receives the rotation direction, rotation angle, and rotation speed of the steering wheel operated by the user via the signal input unit 62.

<1−3.撮影部>
次に、画像処理装置11の撮影部5について詳細に説明する。撮影部5は、制御部1に電気的に接続され、制御部1からの信号に基づいて動作する。
<1-3. Shooting Department>
Next, the photographing unit 5 of the image processing apparatus 11 will be described in detail. The photographing unit 5 is electrically connected to the control unit 1 and operates based on a signal from the control unit 1.

撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54を備えている。これらの車載カメラ51、52、53、54はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。   The imaging unit 5 includes a front camera 51, a back camera 52, a left side camera 53, and a right side camera 54 that are in-vehicle cameras. Each of these vehicle-mounted cameras 51, 52, 53, and 54 includes an image sensor such as a CCD or a CMOS and electronically acquires an image.

図2は、車載カメラ51、52、53、54が車両9に配置される位置を示す図である。なお、以下の説明においては、車両9を例に説明を行う。また、方向および向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は車両9に対して相対的に固定される。ここで、X軸方向は車両9の左右方向に沿い、Y軸方向は車両9の直進方向(前後方向)に沿い、Z軸方向は鉛直方向に沿っている。また、便宜上、+X側を車両A1の右側、+Y側を車両A1の後側、+Z側を上側とする。   FIG. 2 is a diagram illustrating positions where the in-vehicle cameras 51, 52, 53, 54 are arranged on the vehicle 9. In the following description, the vehicle 9 will be described as an example. Also, when indicating the direction and orientation, the three-dimensional XYZ orthogonal coordinates shown in the figure are used as appropriate. The XYZ axes are fixed relative to the vehicle 9. Here, the X-axis direction is along the left-right direction of the vehicle 9, the Y-axis direction is along the straight traveling direction (front-rear direction) of the vehicle 9, and the Z-axis direction is along the vertical direction. For convenience, the + X side is the right side of the vehicle A1, the + Y side is the rear side of the vehicle A1, and the + Z side is the upper side.

フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向(平面視でY軸方向の−Y側)に向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向(平面視でY軸方向の+Y側)に向けられている。また、左サイドカメラ53は、左のドアミラー93に設けられており、右サイドカメラ54は右のドアミラー94に設けられている。そして、光軸53aは車両9の左方向、光軸54aは車両9の右方向(平面視でX軸方向)に沿って外部に向けられている。なお、フロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。   The front camera 51 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 9, and its optical axis 51 a is directed in the straight traveling direction of the vehicle 9 (−Y side in the Y-axis direction in plan view). The back camera 52 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 9, and its optical axis 52 a is directed in the reverse direction of the vehicle 9 in the straight traveling direction (+ Y side in the Y-axis direction in plan view). Yes. The left side camera 53 is provided on the left door mirror 93, and the right side camera 54 is provided on the right door mirror 94. The optical axis 53a is directed to the left side of the vehicle 9, and the optical axis 54a is directed to the outside along the right direction of the vehicle 9 (X-axis direction in plan view). Note that the mounting position of the front camera 51 and the back camera 52 is preferably approximately the center in the left and right, but may be slightly shifted in the left and right directions from the center in the left and right.

これらの車載カメラ51、52、53、54のレンズとしては魚眼レンズなどが採用されており、車載カメラ51、52、53、54は180度以上の画角αを有している。このため、4つの車載カメラ51、52、53、54を利用することで、車両9の全周囲の撮影が可能となっている。   As the lenses of these in-vehicle cameras 51, 52, 53, and 54, fish-eye lenses and the like are employed, and the in-vehicle cameras 51, 52, 53, and 54 have an angle of view α of 180 degrees or more. For this reason, by using the four in-vehicle cameras 51, 52, 53, and 54, it is possible to capture the entire periphery of the vehicle 9.

<1−4.画像変換処理>
次に、画像処理部3の合成画像生成部32が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。合成画像を生成する際には、不揮発性メモリ4に予め記憶された車種別情報40が利用される。図3は、合成画像を生成する手法を説明するための図である。
<1-4. Image conversion processing>
Next, a method in which the composite image generation unit 32 of the image processing unit 3 generates a composite image that shows a state in which the periphery of the vehicle 9 is viewed from an arbitrary virtual viewpoint based on a plurality of captured images obtained by the imaging unit 5. explain. When generating a composite image, vehicle type information 40 stored in advance in the nonvolatile memory 4 is used. FIG. 3 is a diagram for explaining a method of generating a composite image.

撮影部5のフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54で同時に撮影が行われると、車両9の前方、後方、左側方、および、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。   When the front camera 51, the back camera 52, the left side camera 53, and the right side camera 54 of the photographing unit 5 are simultaneously photographed, four images respectively indicating the front, rear, left side, and right side of the vehicle 9 are shown. Captured images P1 to P4 are acquired. That is, the four captured images P1 to P4 acquired by the imaging unit 5 include information indicating the entire periphery of the vehicle 9 at the time of shooting.

次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SPに投影される。立体曲面SPは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9の存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、立体曲面SPの各画素の位置とは予め対応関係が定められている。このため、立体曲面SPの各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。   Next, each pixel of the four captured images P1 to P4 is projected onto a three-dimensional curved surface SP in a virtual three-dimensional space. The three-dimensional curved surface SP has, for example, a substantially hemispherical shape (a bowl shape), and a center portion (a bottom portion of the bowl) is determined as a position where the vehicle 9 exists. A correspondence relationship is determined in advance between the positions of the pixels included in the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface SP. For this reason, the value of each pixel of the solid curved surface SP can be determined based on this correspondence and the value of each pixel included in the captured images P1 to P4.

撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51、52、53、54の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、不揮発性メモリ4に記憶された車種別情報40に含まれている。   The correspondence between the positions of the pixels of the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface SP is the arrangement of the four in-vehicle cameras 51, 52, 53, and 54 in the vehicle 9 (the distance between each other, the ground height, Depending on the optical axis angle, etc.). For this reason, the table data indicating this correspondence is included in the vehicle type information 40 stored in the nonvolatile memory 4.

また、車種別情報40に含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両A1の三次元形状を示すポリゴンモデルである車両像を仮想的に備えている。構成された車両像は、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。   Further, polygon data indicating the shape and size of the vehicle body included in the vehicle type information 40 is used, and a vehicle image that is a polygon model indicating the three-dimensional shape of the vehicle A1 is virtually provided. The configured vehicle image is arranged in a substantially hemispherical central portion determined as the position of the vehicle 9 in the three-dimensional space where the three-dimensional curved surface SP is set.

さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。   Further, the virtual viewpoint VP is set by the control unit 1 for the three-dimensional space where the solid curved surface SP exists. The virtual viewpoint VP is defined by the viewpoint position and the visual field direction, and is set to an arbitrary visual field position corresponding to the periphery of the vehicle 9 in this three-dimensional space toward an arbitrary visual field direction.

そして、設定された仮想視点VPに応じて、立体曲面SPにおける必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ4等に予め記憶されている。つまり、設定された仮想視点VPに応じて画像の領域が切り出されて、ポリゴンで構成された車両像に関してレンダリングがなされ、その結果となる二次元の車両像が、切り出された画像に対して重畳される。これにより、車両9の周辺を任意の仮想視点からみた様子を示す合成画像が生成されることになる。   Then, according to the set virtual viewpoint VP, a necessary area on the three-dimensional curved surface SP is cut out as an image. The relationship between the virtual viewpoint VP and the necessary area in the three-dimensional curved surface SP is determined in advance, and stored in advance in the nonvolatile memory 4 or the like as table data. That is, an image area is cut out according to the set virtual viewpoint VP, rendering is performed on a vehicle image composed of polygons, and the resulting two-dimensional vehicle image is superimposed on the cut out image. Is done. As a result, a composite image showing a state in which the periphery of the vehicle 9 is viewed from an arbitrary virtual viewpoint is generated.

例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VPAを設定した場合は、車両9の略直上から車両9を見下ろすように、車両9(実際には車両像であり、例えば、合成画像PTAに映し出されている車両像91)と車両9の周辺の様子を示す合成画像PTAが生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向を車両9における略前方とした仮想視点VPBを設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9(実際には車両像であり、例えば、合成画像PTBに映し出されている車両像91)と車両9の周辺の様子を示す合成画像PTBが生成される。   For example, when a virtual viewpoint VPA is set in which the viewpoint position is directly above the center of the position of the vehicle 9 and the visual field direction is approximately directly below, the vehicle 9 ( Actually, it is a vehicle image, for example, a vehicle image 91) displayed in the composite image PTA and a composite image PTA showing the state of the periphery of the vehicle 9 are generated. Also, as shown in the figure, when a virtual viewpoint VPB is set in which the viewpoint position is the left rear of the position of the vehicle 9 and the viewing direction is substantially forward in the vehicle 9, the entire periphery from the left rear of the vehicle 9 is set. As seen, the vehicle 9 (actually a vehicle image, for example, the vehicle image 91 shown in the composite image PTB) and the composite image PTB showing the state of the periphery of the vehicle 9 are generated.

なお、実際に合成画像を生成する場合においては、立体曲面SPの全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。
<1−5.仮想視点の視点位置と視野方向>
次に車両9と接近車両10の位置に応じた仮想視点の視点位置および視野方向について説明する。図4は、仮想視点VPの視点位置を主に説明する図である。また、図5および図6は、仮想視点VPの視野方向を主に説明する図である。
In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface SP, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint VP are photographed. By determining based on the images P1 to P4, the processing speed can be improved.
<1-5. Virtual viewpoint position and viewing direction>
Next, the viewpoint position and visual field direction of the virtual viewpoint according to the positions of the vehicle 9 and the approaching vehicle 10 will be described. FIG. 4 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint VP. 5 and 6 are diagrams for mainly explaining the viewing direction of the virtual viewpoint VP.

図4には、車幅方向(X軸方向)の車両9の位置と接近車両10の位置との間の略中央の位置で、車両9の前後方向(Y軸方向)に延伸する軸線sh1が示されている。そして、軸線sh1を通り路面に鉛直な平面上で放物線を描くように移動する仮想視点VP1〜4が示されている。詳細には車両9に接近車両10が近づくにつれて、仮想視点VPの視点位置の高さが上昇する。また、仮想視点VPの移動は、車両像91と接近車両像101とが合成画像中に含まれるように行われる。このように仮想視点VPの視点位置を移動させることで、車両9の像と接近車両10の像とが合成画像中に含まれ、接近車両10の位置を車両9のユーザ(以下単位「ユーザ」ともいう。)が正確に把握できる。なお、仮想視点VP3からVP4への移動は、車両9が接近車両10を追い越した場合に行われる。   In FIG. 4, an axis sh <b> 1 extending in the front-rear direction (Y-axis direction) of the vehicle 9 at a substantially central position between the position of the vehicle 9 and the position of the approaching vehicle 10 in the vehicle width direction (X-axis direction). It is shown. In addition, virtual viewpoints VP1 to VP4 that move so as to draw a parabola on a plane perpendicular to the road surface through the axis sh1 are shown. Specifically, as the approaching vehicle 10 approaches the vehicle 9, the height of the viewpoint position of the virtual viewpoint VP increases. Further, the movement of the virtual viewpoint VP is performed so that the vehicle image 91 and the approaching vehicle image 101 are included in the composite image. By moving the viewpoint position of the virtual viewpoint VP in this way, the image of the vehicle 9 and the image of the approaching vehicle 10 are included in the composite image, and the position of the approaching vehicle 10 is determined by the user of the vehicle 9 (hereinafter referred to as the unit “user”). Can also be accurately grasped. The movement from the virtual viewpoint VP3 to VP4 is performed when the vehicle 9 has overtaken the approaching vehicle 10.

具体的には、例えば仮想視点VP1の視点位置は車両9と接近車両10との距離が30m以上の場合に、仮想視点VP2の視点位置は車両9と接近車両10との距離が30m未満10m以上の場合にそれぞれ画像制御部111により設定される。また、仮想視点VP3の視点位置は車両9と接近車両10との距離が10m未満1m以上の場合に、仮想視点VP4の視点位置は車両9と接近車両10との距離が1m未満となった後、接近車両10が車両9を追い越した場合にそれぞれ画像制御部111により設定される。   Specifically, for example, when the viewpoint position of the virtual viewpoint VP1 is 30 meters or more between the vehicle 9 and the approaching vehicle 10, the viewpoint position of the virtual viewpoint VP2 is 10 meters or more when the distance between the vehicle 9 and the approaching vehicle 10 is less than 30 meters. Are set by the image control unit 111 respectively. The viewpoint position of the virtual viewpoint VP3 is after the distance between the vehicle 9 and the approaching vehicle 10 is less than 1 m, and the viewpoint position of the virtual viewpoint VP4 is after the distance between the vehicle 9 and the approaching vehicle 10 is less than 1 m. When the approaching vehicle 10 overtakes the vehicle 9, the image control unit 111 sets the approaching vehicle 10.

図5は、仮想視点VP1の視野方向と仮想視点VP2の視野方向とを主に説明する図である。図5の左図に示す仮想視点VP1の視野方向は、車両9の前方(−Y方向)の視点位置から車両9の後方に向けられている。
詳細には、合成画像中の接近車両像101の位置から、直接、車両9までを結ぶ直線CL1を導出部113が導出する。つまり、合成画像中の接近車両像101の位置から、車両9に対する接近車両10の方向と、車両9に対する接近車両10の距離を導出部113が導出する。
FIG. 5 is a diagram for mainly explaining the visual field direction of the virtual viewpoint VP1 and the visual field direction of the virtual viewpoint VP2. The visual field direction of the virtual viewpoint VP1 shown in the left diagram of FIG. 5 is directed to the rear of the vehicle 9 from the viewpoint position in front of the vehicle 9 (−Y direction).
Specifically, the deriving unit 113 derives a straight line CL1 directly connecting the vehicle 9 from the position of the approaching vehicle image 101 in the composite image. That is, the deriving unit 113 derives the direction of the approaching vehicle 10 relative to the vehicle 9 and the distance of the approaching vehicle 10 relative to the vehicle 9 from the position of the approaching vehicle image 101 in the composite image.

なお、別の導出方法としては、車両9および接近車両10の前後方向(Y軸方向)における車両9(例えば車体の重心位置CP)と接近車両10(例えば車両9の後方に存在する接近車両で、車両9との距離が最も近い接近車両の車体位置DP)との直線ALを導出部113に導出する。そして、横方向(X方向)に車両9と接近車両10との直線BLを導出部113に導出する。その結果、直線ALと直線BLとから車両9と接近車両10とを結ぶ直線CL1を導出部113が導出するようにしてもよい。このような直線CL1を導出することは、車両9に対する接近車両10の位置を導出することに相当する。   As another derivation method, the vehicle 9 (for example, the center of gravity position CP of the vehicle body) in the front-rear direction (Y-axis direction) of the vehicle 9 and the approaching vehicle 10 and the approaching vehicle 10 (for example, an approaching vehicle existing behind the vehicle 9). The straight line AL with the approaching vehicle body position DP) closest to the vehicle 9 is derived to the deriving unit 113. Then, a straight line BL between the vehicle 9 and the approaching vehicle 10 is derived to the deriving unit 113 in the lateral direction (X direction). As a result, the deriving unit 113 may derive a straight line CL1 connecting the vehicle 9 and the approaching vehicle 10 from the straight line AL and the straight line BL. Deriving such a straight line CL1 corresponds to deriving the position of the approaching vehicle 10 relative to the vehicle 9.

そして、直線CL1の略中央となる地点CE1の方向に仮想視点VP1の視野方向が向けられる。このような仮想視点VP1の視点位置および視野方向から見た合成画像には車両9と接近車両10との両方の像が含まれる。そして、ディスプレイ24に表示される画像中の車両像91と接近車両像101の位置から、車両9に対する接近車両10の位置をユーザが正確に把握できる。   Then, the visual field direction of the virtual viewpoint VP1 is directed to the direction of the point CE1 that is substantially the center of the straight line CL1. Such a composite image viewed from the viewpoint position and the visual field direction of the virtual viewpoint VP1 includes images of both the vehicle 9 and the approaching vehicle 10. The user can accurately grasp the position of the approaching vehicle 10 relative to the vehicle 9 from the positions of the vehicle image 91 and the approaching vehicle image 101 in the image displayed on the display 24.

次に、図5の右図は先に述べた図5の左図よりも接近車両10が車両9に接近した状態を示している。そして、仮想視点VP2は車両9の前方(−Y方向)に視点位置があり、視野方向は車両9後方(+Y方向)となる車両9の位置と接近車両10の位置とを結ぶ直線CL2の略中央の地点CE2に向けられている。また、仮想視点VP2の視点位置は仮想視点VP1よりも高い視点位置となっている。   Next, the right diagram in FIG. 5 shows a state in which the approaching vehicle 10 is closer to the vehicle 9 than the left diagram in FIG. 5 described above. The virtual viewpoint VP2 has a viewpoint position in front of the vehicle 9 (−Y direction), and the visual field direction is an abbreviation of a straight line CL2 that connects the position of the vehicle 9 that is behind the vehicle 9 (+ Y direction) and the position of the approaching vehicle 10. It is directed to the central point CE2. Further, the viewpoint position of the virtual viewpoint VP2 is higher than the virtual viewpoint VP1.

図6は、仮想視点VP3の視野方向と仮想視点VP4の視野方向を主に説明する図である。図6の左図に示す仮想視点VP3の視点位置は車両9と接近車両10とを結ぶ直線CL3の略中央の略直上の位置にあり、視野方向は鉛直下方(+Z方向から−Z方向)の地点CE3に向けられている。   FIG. 6 is a diagram mainly illustrating the visual field direction of the virtual viewpoint VP3 and the visual field direction of the virtual viewpoint VP4. The viewpoint position of the virtual viewpoint VP3 shown in the left diagram of FIG. 6 is at a position almost immediately above the center of the straight line CL3 connecting the vehicle 9 and the approaching vehicle 10, and the visual field direction is vertically downward (from the + Z direction to the −Z direction). Pointed to point CE3.

図6の右図に示す仮想視点VP4は、視点位置が車両9の後方(+Y方向)で、視野方向が車両9の位置および接近車両10の位置とを結ぶ直線CL4の略中央の地点CE4に向けられている。つまり、仮想視点VP4の視野方向は、車両9の前方(−Y方向)に向けられている。   The virtual viewpoint VP4 shown in the right diagram of FIG. 6 is located at a point CE4 at the center of the straight line CL4 that connects the position of the vehicle 9 and the position of the approaching vehicle 10 with the viewpoint position behind the vehicle 9 (+ Y direction). Is directed. That is, the visual field direction of the virtual viewpoint VP4 is directed in front of the vehicle 9 (−Y direction).

なお、図4から図6で示した視点位置および視野方向の仮想視点VPから見た合成画像には車両9に対応する車両像91と接近車両10に対応する接近車両像101とが含まれる。このように、仮想視点VPの視点位置および視野方向は、車両9と接近車両10との位置に応じた視点位置となる。これにより、接近車両10の位置をユーザが正確に把握できる。   Note that the composite image viewed from the virtual viewpoint VP in the viewpoint position and visual field direction shown in FIGS. 4 to 6 includes a vehicle image 91 corresponding to the vehicle 9 and an approaching vehicle image 101 corresponding to the approaching vehicle 10. As described above, the viewpoint position and the visual field direction of the virtual viewpoint VP are viewpoint positions corresponding to the positions of the vehicle 9 and the approaching vehicle 10. Thereby, the user can grasp | ascertain the position of the approaching vehicle 10 correctly.

<1−6.表示画像> <1-6. Display image>

図7および図8は、ディスプレイ24に表示される仮想視点VPから見た合成画像を示した図である。なお、図7および図8に示す合成画像PT1からPT4は時間的に連続した合成画像である。   FIGS. 7 and 8 are views showing a composite image viewed from the virtual viewpoint VP displayed on the display 24. FIG. The composite images PT1 to PT4 shown in FIGS. 7 and 8 are temporally continuous composite images.

図7に示す合成画像PT1は仮想視点VP1から見た合成画像であり、車両9に対応する車両像91の後方に接近車両10に対応する接近車両像101が映し出されている。合成画像PT2は、仮想視点VP2から見た合成画像であり、車両像91の後方に接近車両像101が映し出されている。そして、合成画像PT2では、合成画像PT1よりも接近車両像101が車両像91に接近した位置にある。このような合成画像の表示により、接近車両の位置をユーザが正確に把握できる。   A composite image PT1 shown in FIG. 7 is a composite image viewed from the virtual viewpoint VP1, and an approaching vehicle image 101 corresponding to the approaching vehicle 10 is displayed behind the vehicle image 91 corresponding to the vehicle 9. The composite image PT2 is a composite image viewed from the virtual viewpoint VP2, and the approaching vehicle image 101 is displayed behind the vehicle image 91. In the composite image PT2, the approaching vehicle image 101 is closer to the vehicle image 91 than the composite image PT1. By displaying such a composite image, the user can accurately grasp the position of the approaching vehicle.

図8の合成画像PT3は仮想視点VP3から見た合成画像であり、車両9および接近車両10の直上の仮想視点位置から鉛直下方を見た車両9に対応する車両像91の側方に接近車両10に対応する接近車両像101が位置している状態の画像が映し出されている。
合成画像PT4では、仮想視点VP4から見た合成画像であり、接近車両像101が車両像91を追い越した状態の画像が映し出されている。図7および図8に示すように仮想視点VP1、VP2、VP3、およびVP4から見た合成画像中には車両9に対応する車両像91と接近車両10に対応する接近車両像101との両方の車両の像が映し出されている。このように車両9に対する接近車両の位置を時系列に表示することで、接近車両の位置を車両9のユーザは正確に把握できる。
The composite image PT3 in FIG. 8 is a composite image viewed from the virtual viewpoint VP3, and the vehicle approaching to the side of the vehicle image 91 corresponding to the vehicle 9 viewed vertically downward from the virtual viewpoint position directly above the vehicle 9 and the approaching vehicle 10. An image in a state where the approaching vehicle image 101 corresponding to 10 is located is displayed.
The composite image PT4 is a composite image viewed from the virtual viewpoint VP4, and an image with the approaching vehicle image 101 overtaking the vehicle image 91 is displayed. As shown in FIG. 7 and FIG. 8, both the vehicle image 91 corresponding to the vehicle 9 and the approaching vehicle image 101 corresponding to the approaching vehicle 10 are included in the composite image viewed from the virtual viewpoints VP1, VP2, VP3, and VP4. An image of the vehicle is shown. Thus, by displaying the position of the approaching vehicle relative to the vehicle 9 in time series, the user of the vehicle 9 can accurately grasp the position of the approaching vehicle.

<1−7.処理フローチャート> <1-7. Processing flowchart>

図9は、画像処理装置11の処理フローチャートである。ステップS101では、撮影部5のバックカメラ52で撮影された画像中に接近車両10の存在を検出部112が検出した場合(ステップS101がYes)、ステップS102の処理に進む。なお、接近車両10の存在を検出部112が検出していない場合(ステップS101がNo)は、処理を終了する。   FIG. 9 is a process flowchart of the image processing apparatus 11. In step S101, when the detection unit 112 detects the presence of the approaching vehicle 10 in the image captured by the back camera 52 of the imaging unit 5 (Yes in step S101), the process proceeds to step S102. If the detection unit 112 has not detected the presence of the approaching vehicle 10 (No in step S101), the process ends.

ステップS102では、車両9に対する接近車両10の位置、つまり、車両9に対する接近車両10の位置を導出部113が導出して(ステップS102)、ステップS103の処理に進む。   In step S102, the deriving unit 113 derives the position of the approaching vehicle 10 relative to the vehicle 9, that is, the position of the approaching vehicle 10 relative to the vehicle 9 (step S102), and the process proceeds to step S103.

ステップS103では、車両9に対する接近車両10の位置から仮想視点VPの視点位置、および、視野方向を画像制御部111が設定して(ステップS103)、ステップS104の処理に進む。なお、車両9に対する接近車両10の位置からの仮想視点VPの視点位置および視野方向の設定は、車両9に対する接近車両10の位置に対応する仮想視点VPの視点位置、および、視野方向の情報を不揮発性メモリ4から画像制御部111が読み出して設定する。   In step S103, the image control unit 111 sets the viewpoint position of the virtual viewpoint VP and the visual field direction from the position of the approaching vehicle 10 with respect to the vehicle 9 (step S103), and the process proceeds to step S104. Note that the setting of the viewpoint position and the visual field direction of the virtual viewpoint VP from the position of the approaching vehicle 10 with respect to the vehicle 9 includes information on the viewpoint position and visual field direction of the virtual viewpoint VP corresponding to the position of the approaching vehicle 10 with respect to the vehicle 9. The image control unit 111 reads out and sets from the nonvolatile memory 4.

ステップS104では、仮想視点VPから見た合成画像を合成画像生成部32が生成して(ステップS104)、ステップS105の処理に進む。
ステップS105では、合成画像生成部32により生成された合成画像を通信部61を介して表示装置20に画像出力部33が出力する(ステップS105)。
In step S104, the composite image generation unit 32 generates a composite image viewed from the virtual viewpoint VP (step S104), and the process proceeds to step S105.
In step S105, the image output unit 33 outputs the composite image generated by the composite image generation unit 32 to the display device 20 via the communication unit 61 (step S105).

<第2の実施の形態> <Second Embodiment>

次に、第2の実施の形態について説明する。第2の実施の形態と第1の実施形態との相違点は、仮想視点の視点位置および視野方向である。つまり、第1の実施の形態では、車両9の位置と接近車両10の位置との間の略中央で車両9の前後方向に延伸する軸線sh1上で放物線を描くように移動する仮想視点VP1〜VP4について説明した。   Next, a second embodiment will be described. The differences between the second embodiment and the first embodiment are the viewpoint position and the viewing direction of the virtual viewpoint. That is, in the first embodiment, the virtual viewpoints VP1 to VP1 move so as to draw a parabola on the axis sh1 extending in the front-rear direction of the vehicle 9 at the approximate center between the position of the vehicle 9 and the position of the approaching vehicle 10. VP4 has been described.

これに対して、第2の実施の形態では図10に示すように車両9の車体の略中央位置にあり、車両9の前後方向(Y軸方向)に延伸する軸線sh2を通り路面の鉛直方向から所定角度(例えば20度)傾いた平面上で放物線を描くように移動する仮想視点VPがVP11からVP14の位置に移動する。なお、その他の構成および処理については第1の実施の形態の構成および処理と同一である。そのため、構成および処理が同一の部分についての記載は省略する。   On the other hand, in the second embodiment, as shown in FIG. 10, the vehicle 9 is located approximately at the center of the vehicle body and passes through the axis sh2 extending in the front-rear direction (Y-axis direction) of the vehicle 9. The virtual viewpoint VP that moves so as to draw a parabola on a plane inclined by a predetermined angle (for example, 20 degrees) from VP11 moves to the position of VP14. Other configurations and processes are the same as those in the first embodiment. For this reason, description of parts having the same configuration and processing is omitted.

<2−1.仮想視点の視点位置と視野方向>   <2-1. Virtual viewpoint position and viewing direction>

図10は、仮想視点VPの視点位置を主に説明する図である。また、図11および図12は、仮想視点VPの視野方向を主に説明する図である。   FIG. 10 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint VP. 11 and 12 are diagrams for mainly explaining the viewing direction of the virtual viewpoint VP.

図10に示すように、仮想視点VPは、車両9の車体の略中央(例えば、フロントバンパーの中央)に位置し、車両9の前後方向(Y軸方向)に延伸する軸線sh2を通り路面の鉛直方向から所定角度傾いた平面上で放物線を描くように、すなわち車両9の左側情報から斜め下方向に見下ろすように、VP11〜VP14の位置に移動する。
詳細には仮想視点VP11からVP12、仮想視点VP12からVP13への視点位置の移動は、車両9に対して接近車両10が近づくにつれて、視点位置の高さが上昇する。また、車両9と接近車両10との直線距離が短くなる(例えば、車両9の後方のバンパー部分と接近車両10の前方のバンパー部分との距離が短くなる)ほど仮想視点VPの位置が車両9の前方から車両9の側方に移動する。
As shown in FIG. 10, the virtual viewpoint VP is positioned substantially at the center of the vehicle body of the vehicle 9 (for example, the center of the front bumper) and passes through the axis sh2 extending in the front-rear direction (Y-axis direction) of the vehicle 9 It moves to the positions of VP11 to VP14 so as to draw a parabola on a plane inclined by a predetermined angle from the direction, that is, looking down diagonally downward from the left side information of the vehicle 9.
Specifically, in the movement of the viewpoint position from the virtual viewpoint VP11 to VP12 and from the virtual viewpoint VP12 to VP13, the height of the viewpoint position increases as the approaching vehicle 10 approaches the vehicle 9. Further, the position of the virtual viewpoint VP becomes closer to the vehicle 9 as the linear distance between the vehicle 9 and the approaching vehicle 10 becomes shorter (for example, the distance between the bumper portion behind the vehicle 9 and the bumper portion ahead of the approaching vehicle 10 becomes shorter). From the front of the vehicle to the side of the vehicle 9.

そして、車両9と接近車両10との直線距離が更に短くなるほど仮想視点VPの位置が車両9の側方から車両9の後方に移動する。このように視点位置が移動することで、車両9の像と接近車両10の像とが合成画像中に含まれ、接近車両10の位置をユーザが正確に把握できる。   Then, as the linear distance between the vehicle 9 and the approaching vehicle 10 is further shortened, the position of the virtual viewpoint VP moves from the side of the vehicle 9 to the rear of the vehicle 9. As the viewpoint position moves in this way, the image of the vehicle 9 and the image of the approaching vehicle 10 are included in the composite image, and the user can accurately grasp the position of the approaching vehicle 10.

なお、仮想視点VP13からVP14への移動は、車両9が接近車両10を追い越した場合に行われる。つまり、仮想視点VPの視点位置は車両9と接近車両10との位置に応じた視点位置となる。   The movement from the virtual viewpoint VP13 to VP14 is performed when the vehicle 9 has overtaken the approaching vehicle 10. That is, the viewpoint position of the virtual viewpoint VP is a viewpoint position corresponding to the positions of the vehicle 9 and the approaching vehicle 10.

また、例えば、仮想視点VP11の視点位置は車両9と接近車両10との距離が30m以上の場合に、仮想視点VP12の視点位置は車両9と接近車両10との距離が30m未満10m以上の場合にそれぞれの仮想視点の視点位置となる。また、仮想視点VP13の視点位置は車両9と接近車両10との距離が10m未満1m以上の場合に、仮想視点VP14の視点位置は車両9と接近車両10との距離が1m未満となった後、接近車両10が車両9を追い越した場合にそれぞれの仮想視点の視点位置となる。   Further, for example, the viewpoint position of the virtual viewpoint VP11 is when the distance between the vehicle 9 and the approaching vehicle 10 is 30 m or more, and the viewpoint position of the virtual viewpoint VP12 is when the distance between the vehicle 9 and the approaching vehicle 10 is less than 30 m and 10 m or more. It becomes the viewpoint position of each virtual viewpoint. In addition, when the distance between the vehicle 9 and the approaching vehicle 10 is less than 1 m and the distance between the vehicle 9 and the approaching vehicle 10 is 1 m or more, the viewpoint position of the virtual viewpoint VP13 is after the distance between the vehicle 9 and the approaching vehicle 10 is less than 1 m. When the approaching vehicle 10 passes the vehicle 9, the viewpoint position of each virtual viewpoint is obtained.

図11は、仮想視点VP11の視野方向と仮想視点VP12の視野方向とを主に説明する図である。図11の左図に示す仮想視点VP11は、車両9の左斜め前方の視点位置から車両9の車体の略重心の位置である重心位置CP上を仮想視点VP11の視線が通過する。そして、車両9の後方(+Y方向)にある重心位置CPと接近車両10の位置とを結ぶ直線の略中央の地点CE11に視野が向く視野方向となっている。   FIG. 11 is a diagram mainly illustrating the visual field direction of the virtual viewpoint VP11 and the visual field direction of the virtual viewpoint VP12. In the virtual viewpoint VP11 shown in the left diagram of FIG. 11, the line of sight of the virtual viewpoint VP11 passes from the viewpoint position diagonally left front of the vehicle 9 to the center of gravity position CP that is the position of the approximate center of gravity of the vehicle body of the vehicle 9. Then, the viewing direction is such that the field of view is directed to a substantially central point CE11 connecting the center of gravity position CP located behind the vehicle 9 (+ Y direction) and the position of the approaching vehicle 10.

次に、図11の右図に示す仮想視点VP12は、仮想視点VP11よりもさらに左側に傾いた車両9の前方の視点位置から重心位置CP上を仮想視点VP12の視線が通過し、重心位置CPと接近車両10の位置とを結ぶ直線の略中央の地点CE12に視線が向くような視野方向となっている。   Next, the virtual viewpoint VP12 shown in the right diagram of FIG. 11 passes the line of sight of the virtual viewpoint VP12 from the viewpoint position in front of the vehicle 9 tilted further to the left than the virtual viewpoint VP11 on the center of gravity position CP. The viewing direction is such that the line of sight is directed to a point CE12 at the approximate center of the straight line connecting the position of the approaching vehicle 10.

図12は、仮想視点VP13の視野方向と仮想視点VP14の視野方向とを主に説明する図である。図12の左図に示す仮想視点VP13は、車両9の左側方(−X方向)の視点位置から重心位置CP上を仮想視点VP13の視線が通過し、重心位置CPと車両9の右側方(+X方向)に存在する接近車両10の位置とを結ぶ直線の略中央の地点CE13に視線が向く視野方向となっている。   FIG. 12 is a diagram for mainly explaining the visual field direction of the virtual viewpoint VP13 and the visual field direction of the virtual viewpoint VP14. The virtual viewpoint VP13 shown in the left diagram of FIG. 12 passes the line of sight of the virtual viewpoint VP13 from the viewpoint position on the left side (−X direction) of the vehicle 9 over the center of gravity position CP, and the center of gravity CP and the right side of the vehicle 9 ( The visual field direction is such that the line of sight is directed to a point CE13 at substantially the center of a straight line connecting the position of the approaching vehicle 10 existing in the (+ X direction).

図12の右図に示す仮想視点VP14は、車両9の後方(+Y方向)の視点位置から重心位置CP上を仮想視点VP14の視線が通過し、重心位置CPと車両9の右斜め前方に存在する接近車両10の位置とを結ぶ略中央の地点CE14に視線が向く視野方向となっている。なお、図10から図12で示した視点位置および視野方向の仮想視点VPから見た合成画像には車両9に対応する車両像91および接近車両10に対応する接近車両像101が含まれる。   The virtual viewpoint VP14 shown in the right figure of FIG. 12 passes from the viewpoint position of the rear side (+ Y direction) of the vehicle 9 to the center of gravity position CP, and the line of sight of the virtual viewpoint VP14 passes through the center of gravity position CP and the vehicle 9 diagonally to the right. The visual field direction is directed to a substantially central point CE14 that connects the position of the approaching vehicle 10 that moves. 10 to 12 include a vehicle image 91 corresponding to the vehicle 9 and an approaching vehicle image 101 corresponding to the approaching vehicle 10 in the synthesized image viewed from the virtual viewpoint VP in the viewpoint position and the viewing direction.

<2−2.表示画像>   <2-2. Display image>

図13および図14はディスプレイ24に表示される仮想視点から見た合成画像を示した図である。なお、図7および図8に示す合成画像PT11からPT14は時間的に連続した合成画像である。合成画像PT11は仮想視点VP11から見た合成画像であり、車両像91の後方に接近車両像101が映し出されている。合成画像PT12は、仮想視点VP12から見た合成画像であり、車両像91の後方に接近車両像101が映し出されている。そして、合成画像PT12では、合成画像PT11よりも接近車両像101が車両像91に接近した位置にある。このような合成画像の表示により接近車両の位置を車両のユーザが正確に把握できる。   FIG. 13 and FIG. 14 are diagrams showing the composite image viewed from the virtual viewpoint displayed on the display 24. Note that the composite images PT11 to PT14 shown in FIGS. 7 and 8 are temporally continuous composite images. The composite image PT11 is a composite image viewed from the virtual viewpoint VP11, and the approaching vehicle image 101 is displayed behind the vehicle image 91. The composite image PT12 is a composite image viewed from the virtual viewpoint VP12, and the approaching vehicle image 101 is displayed behind the vehicle image 91. In the composite image PT12, the approaching vehicle image 101 is closer to the vehicle image 91 than the composite image PT11. The user of the vehicle can accurately grasp the position of the approaching vehicle by displaying such a composite image.

図14の合成画像PT13は仮想視点VP13から見た合成画像であり、車両像91と車両像91の側方の位置に存在する接近車両像101とを含む画像が映し出されている。そして、合成画像PT14では、仮想視点VP14から見た合成画像であり、接近車両像101が車両像91を追い越した状態の画像が映し出されている。このように車両9に対する接近車両の位置を時系列に表示することで、接近車両の位置をユーザは正確に把握できる。   The composite image PT13 in FIG. 14 is a composite image viewed from the virtual viewpoint VP13, and an image including the vehicle image 91 and the approaching vehicle image 101 that exists at a side position of the vehicle image 91 is displayed. The composite image PT14 is a composite image viewed from the virtual viewpoint VP14, and an image in a state where the approaching vehicle image 101 overtakes the vehicle image 91 is displayed. Thus, by displaying the position of the approaching vehicle with respect to the vehicle 9 in time series, the user can accurately grasp the position of the approaching vehicle.

<第3の実施の形態>   <Third Embodiment>

次に、第3の実施の形態について説明する。第3の実施の形態と第1の実施形態との相違点は、車両9の走行車線の変更に伴う車両9のユーザの操作を図15に示す操作検知部114が検知した場合に、車両9と接近車両10の位置に応じた仮想視点から見た合成画像を合成画像生成部32が生成することである。   Next, a third embodiment will be described. The difference between the third embodiment and the first embodiment is that when the operation detection unit 114 shown in FIG. 15 detects an operation of the user of the vehicle 9 associated with the change of the travel lane of the vehicle 9, the vehicle 9 The composite image generation unit 32 generates a composite image viewed from a virtual viewpoint according to the position of the approaching vehicle 10.

また、第3の実施の形態では、車両9の車線変更の可否の判断結果を示す警告画像を合成画像に重畳させて、表示装置20のディスプレイ24に表示する点が第1の実施の形態で説明した内容と異なる点である。なお、その他の構成および処理については第1の実施の形態の構成および処理と同一である。そのため、構成および処理が同一の部分についての記載は省略する。   Further, in the third embodiment, a warning image indicating a determination result of whether or not the lane of the vehicle 9 can be changed is superimposed on the composite image and displayed on the display 24 of the display device 20 in the first embodiment. This is different from the contents explained. Other configurations and processes are the same as those in the first embodiment. For this reason, description of parts having the same configuration and processing is omitted.

<3−1.システム構成> <3-1. System configuration>

図15は、画像表示システム120aのブロック図である。画像処理装置11aの制御部1aは、第1の実施の形態で説明した画像制御部111、検出部112、および、導出部113に加えて、操作検知部114、予測部115、演算部116、および、判断部117を備えている。   FIG. 15 is a block diagram of the image display system 120a. The control unit 1a of the image processing apparatus 11a includes an operation detection unit 114, a prediction unit 115, a calculation unit 116, in addition to the image control unit 111, the detection unit 112, and the derivation unit 113 described in the first embodiment. And the judgment part 117 is provided.

操作検知部114は、車両9の走行車線の変更に伴うユーザの操作を検知する。例えば、ユーザのウインカースイッチの操作に基づく方向指示、すなわち、方向指示器83からのユーザが意図する方向指示を示すターン信号のオン状態、および、ウインカースイッチが中立位置となった場合のターン信号のオフ状態を検知する。また、別の例として操舵角センサ84からのユーザが操作したステアリングホイールの回転方向、回転角度、および、回転速度の信号を検知する。   The operation detection unit 114 detects a user operation associated with a change in the travel lane of the vehicle 9. For example, direction indication based on the user's operation of the blinker switch, that is, an ON state of a turn signal indicating a direction indication intended by the user from the direction indicator 83, and a turn signal when the turn signal switch is in a neutral position Detects the off state. As another example, the steering angle sensor 84 detects a steering wheel rotation direction, rotation angle, and rotation speed signal operated by the user.

予測部115は、車両9が走行車線を変更して移動する場合の移動位置を予測する。詳細には車両9がユーザの操作により走行車線を変更する時間の情報である車線変更時間42aを予め不揮発性メモリ4aに記憶する。そして、車両9の移動位置を予測する際に車線変更時間42aを予測部115が読み出して、車線変更時間42aおよび車両9の走行速度などに基づく移動位置の予測を予測部115が行う。   The prediction unit 115 predicts the movement position when the vehicle 9 moves while changing the travel lane. Specifically, the lane change time 42a, which is information on the time when the vehicle 9 changes the travel lane by the user's operation, is stored in advance in the nonvolatile memory 4a. Then, when predicting the movement position of the vehicle 9, the prediction unit 115 reads the lane change time 42 a, and the prediction unit 115 predicts the movement position based on the lane change time 42 a and the traveling speed of the vehicle 9.

ここで、車両9の走行車線を変更する時間とは、ユーザの操作に伴い車両9の走行車線の変更が開始されて、車両9の走行車線の変更が終了するまでの時間である。例えば、ユーザが方向指示器83を操作したターン信号のオン状態を操作検知部114が検知したときから、ステアリングホイールの回転方向が車両9の車線変更を行う方向に変更された後、ステアリングホイールの回転方向が車両9の直進移動する方向(ステアリングホイールの回転角度が略0度となる状態、つまりステアリングホイールが略中立位置となる状態)に変更されるまでの所定の時間(例えば、5秒)である。   Here, the time for changing the travel lane of the vehicle 9 is the time from the start of the change of the travel lane of the vehicle 9 to the end of the change of the travel lane of the vehicle 9 in accordance with the user's operation. For example, after the operation detection unit 114 detects that the turn signal is turned on when the user operates the direction indicator 83, the rotation direction of the steering wheel is changed to the direction in which the lane of the vehicle 9 is changed, and then the steering wheel A predetermined time (for example, 5 seconds) until the rotation direction is changed to a direction in which the vehicle 9 moves straight (a state in which the rotation angle of the steering wheel is approximately 0 degrees, that is, a state in which the steering wheel is in a substantially neutral position). It is.

演算部116は、車両9が走行車線を変更することにより移動する移動位置に接近車両10が移動する時間を演算する。例えば、連続する撮影画像中の接近車両像101の位置の変化から接近車両10の走行速度の情報を演算部116が演算し、当該走行速度の情報から接近車両10の移動位置への移動時間を演算部116が演算する。   The calculating part 116 calculates the time for the approaching vehicle 10 to move to the moving position where the vehicle 9 moves by changing the traveling lane. For example, the calculation unit 116 calculates information on the traveling speed of the approaching vehicle 10 from a change in the position of the approaching vehicle image 101 in successive captured images, and calculates the travel time from the information on the traveling speed to the moving position of the approaching vehicle 10. The calculation unit 116 calculates.

判断部117は、車両9の移動位置への移動時間と、接近車両10の移動位置への移動時間とから、車両9の移動位置への移動の可否、つまり車両9の車線変更の可否を判断する。なお、車両9の移動位置への移動が困難であると判断部117が判断した場合は、合成画像生成部32に、後述する警告画像が重畳した合成画像を生成する指示信号を判断部117が出力する。   The determination unit 117 determines whether or not the vehicle 9 can be moved to the movement position, that is, whether or not the lane of the vehicle 9 can be changed, from the movement time of the vehicle 9 to the movement position and the movement time of the approaching vehicle 10 to the movement position. To do. When the determination unit 117 determines that it is difficult to move the vehicle 9 to the movement position, the determination unit 117 generates an instruction signal for generating a composite image in which a warning image described later is superimposed on the composite image generation unit 32. Output.

なお、判断部117が車両9の移動位置への移動が可能であると判断した場合は、合成画像生成部32への警告画像を表示する指示信号を判断部117が出力しないようにしてもよいし、警告画像以外の画像を表示する指示信号を判断部117が出力するようにしてもよい。ここで、警告画像以外の画像とは、例えば、車両9の移動位置を示す画像(以下、「移動位置画像」ともいう)、および、接近車両10の接近状態を示す画像(以下、「接近状態画像」ともいう。)などのうち少なくとも一つの画像をいう。
不揮発性メモリ4aの車線変更時間42aは、車両9のユーザの操作に伴い車両9が走行車線の変更を開始して走行車線の変更が終了するまでの時間である。
If the determination unit 117 determines that the vehicle 9 can move to the movement position, the determination unit 117 may not output an instruction signal for displaying a warning image to the composite image generation unit 32. Then, the determination unit 117 may output an instruction signal for displaying an image other than the warning image. Here, the images other than the warning image include, for example, an image indicating the movement position of the vehicle 9 (hereinafter also referred to as “movement position image”) and an image indicating the approaching state of the approaching vehicle 10 (hereinafter referred to as “approaching state”). At least one image.
The lane change time 42a of the non-volatile memory 4a is a time from when the vehicle 9 starts changing the travel lane to when the change of the travel lane ends in accordance with the operation of the user of the vehicle 9.

<3−2.表示画像> <3-2. Display image>

図16はディスプレイ24に表示される仮想視点から見た合成画像を示した図である。合成画像PT1aは仮想視点VP1から見た合成画像であり、車両像91の後方に接近車両像101が映し出されている。そして、車両像91の側方に車両9の車線変更後の位置を示す移動位置画像trが合成画像に重畳して映し出されている。   FIG. 16 is a view showing a composite image viewed from the virtual viewpoint displayed on the display 24. The composite image PT1a is a composite image viewed from the virtual viewpoint VP1, and the approaching vehicle image 101 is displayed behind the vehicle image 91. A moving position image tr indicating the position of the vehicle 9 after the lane change is displayed on the side of the vehicle image 91 superimposed on the composite image.

また、接近車両像101の進行方向に表示されている接近状態画像ad1が合成画像に重畳して映し出されている。接近状態画像ad1は、車両像91に対応する車両9が移動位置に移動する時間の間に接近車両像101に対応する接近車両10が移動する移動量を示している。そして、合成画像PT1aに示す接近車両像101の移動位置への接近状態においては、車両像91に対応する車両9は走行する車線の変更が可能となる。このようにユーザは車両9の移動位置に対する車線変更の可否を明確に把握できる。   Further, an approaching state image ad1 displayed in the traveling direction of the approaching vehicle image 101 is displayed superimposed on the composite image. The approach state image ad1 shows the amount of movement of the approaching vehicle 10 corresponding to the approaching vehicle image 101 during the time when the vehicle 9 corresponding to the vehicle image 91 moves to the movement position. And in the approaching state to the moving position of the approaching vehicle image 101 shown in the composite image PT1a, the vehicle 9 corresponding to the vehicle image 91 can change the lane in which it travels. Thus, the user can clearly grasp whether or not the lane change with respect to the moving position of the vehicle 9 is possible.

合成画像PT2aは、PT1aとは異なるタイミングで撮影された撮影画像に基づいて生成された合成画像である。合成画像PT2aは仮想視点VP2から見た合成画像であり、車両像91の後方に接近車両像101が映し出されている。合成画像PT2aでは、合成画像PT1aと比べて接近車両10に対応する接近車両像101が車両9に対応する車両像91に接近した状態であり、車両9の車線変更が困難な状態を表している。   The composite image PT2a is a composite image generated based on a photographed image photographed at a timing different from that of PT1a. The composite image PT2a is a composite image viewed from the virtual viewpoint VP2, and the approaching vehicle image 101 is displayed behind the vehicle image 91. In the composite image PT2a, the approaching vehicle image 101 corresponding to the approaching vehicle 10 is closer to the vehicle image 91 corresponding to the vehicle 9 than the composite image PT1a, and represents a state in which it is difficult to change the lane of the vehicle 9. .

具体的には、車両像91の側方に、車両9の車線変更後の位置を示す移動位置画像traが合成画像に重畳して映し出されている。このtraは合成画像PT1aに示した移動位置画像trと比べて表示態様が変更されており、車両像91に対応する車両9の移動が困難であることを示す警告画像が重畳された状態となっている。つまり、車両9の移動位置に車両9が移動すると接近車両10と接触する可能性があることを示す警告画像(例えば、移動位置に対応する範囲に対して警告状態を示す色で表示するなど)を重畳させている。これによりユーザは車両9の移動位置に対する車線変更の可否を明確に把握できる。   Specifically, on the side of the vehicle image 91, a moving position image tra indicating the position of the vehicle 9 after the lane change is displayed superimposed on the composite image. The display mode of this tra is changed compared to the movement position image tr shown in the composite image PT1a, and a warning image indicating that the movement of the vehicle 9 corresponding to the vehicle image 91 is difficult is superimposed. ing. That is, a warning image indicating that there is a possibility of contact with the approaching vehicle 10 when the vehicle 9 moves to the movement position of the vehicle 9 (for example, a color indicating a warning state for a range corresponding to the movement position) Are superimposed. Thereby, the user can grasp | ascertain clearly whether the lane change with respect to the movement position of the vehicle 9 is possible.

また、接近車両像101の進行方向に表示されている接近状態画像ad2の一部が移動位置画像traの範囲内に含まれるように合成画像に重畳されて映し出されている。これは、車両像91に対応する車両9が移動位置に移動する時間の間に接近車両像101に対応する接近車両10が移動する移動量を示しており、車両9が移動位置へ車線変更すると接近車両10と接触する危険があることを示す警告画像として合成画像に重畳して映し出されている。   Further, a part of the approaching state image ad2 displayed in the traveling direction of the approaching vehicle image 101 is projected and superimposed on the composite image so as to be included in the range of the movement position image tra. This indicates the amount of movement of the approaching vehicle 10 corresponding to the approaching vehicle image 101 during the time when the vehicle 9 corresponding to the vehicle image 91 moves to the movement position, and when the vehicle 9 changes the lane to the movement position. A warning image indicating that there is a risk of coming into contact with the approaching vehicle 10 is displayed superimposed on the composite image.

さらに、車両像91と接近車両像101との間の略中央位置の区画線上に車両像91に対応する車両9の走行車線の変更が困難であることを示す警告ライン像LNが警告画像として合成画像に重畳表示されている。これにより車両9のユーザは接近車両10の接近状態を正確に把握して、車両の車線変更の可否を容易に判断できる。  Further, a warning line image LN indicating that it is difficult to change the traveling lane of the vehicle 9 corresponding to the vehicle image 91 on the lane marking at a substantially central position between the vehicle image 91 and the approaching vehicle image 101 is synthesized as a warning image. It is superimposed on the image. As a result, the user of the vehicle 9 can accurately grasp the approaching state of the approaching vehicle 10 and easily determine whether or not the lane of the vehicle can be changed.

なお、合成画像PT2aに示した警告画像の組み合わせはこれ以外にも他の組み合わせ(例えば、警告ライン像LNのみを重畳して映し出したり、移動位置画像traおよび接近状態画像ad2のみを重畳して映し出す)が可能である。   Other combinations of warning images shown in the composite image PT2a (for example, only the warning line image LN is superimposed and projected, or only the moving position image tra and the approach state image ad2 are projected and projected). Is possible.

また、第3の実施の形態では車両9の走行車線の変更に伴うユーザの車両9の操作を操作検知部114が検知した場合に車両9に対する接近車両10の位置に応じて合成画像に警告画像を重畳してディスプレイ24に表示する処理について述べた。これに対して、車両9の走行車線の変更に伴うユーザの操作を操作検知部114が検知した場合に、警告画像を重畳した表示を行わずに合成画像(第1の実施の形態で説明した車両9と接近車両10の位置に応じた仮想視点から見た合成画像)のみをディスプレイ24に表示するようにしてもよい。これにより、ユーザは接近車両10の位置を正確に把握して車両9の車線変更の可否を容易に判断できる。   In the third embodiment, when the operation detection unit 114 detects the user's operation of the vehicle 9 associated with the change of the travel lane of the vehicle 9, a warning image is displayed on the composite image according to the position of the approaching vehicle 10 with respect to the vehicle 9. The process of superimposing and displaying on the display 24 has been described. On the other hand, when the operation detection unit 114 detects a user operation associated with a change in the travel lane of the vehicle 9, a composite image (described in the first embodiment) is displayed without displaying a superimposed warning image. Only a composite image viewed from a virtual viewpoint according to the positions of the vehicle 9 and the approaching vehicle 10 may be displayed on the display 24. Accordingly, the user can accurately grasp the position of the approaching vehicle 10 and easily determine whether or not the lane of the vehicle 9 can be changed.

<3−3.処理フローチャート>   <3-3. Processing flowchart>

図17および図18は、画像処理装置11aの処理フローチャートである。ステップS201では、車両9の走行車線の変更に伴うユーザの操作を操作検知部114が検知した場合(ステップS201がYes)、ステップS101の処理に進んだ後、ステップS101からステップS104の処理が行われる。そして、ステップS104において仮想視点VPから見た合成画像が生成され、ステップS202の処理に進む。なお、ステップS201の処理において、車両9の走行する車線の変更に伴うユーザの操作を操作検知部114が検知していない場合(ステップS201がNo)は処理を終了する。   17 and 18 are process flowcharts of the image processing apparatus 11a. In step S201, when the operation detection unit 114 detects a user operation associated with a change in the travel lane of the vehicle 9 (Yes in step S201), the process proceeds to step S101, and then the process from step S101 to step S104 is performed. Is called. In step S104, a composite image viewed from the virtual viewpoint VP is generated, and the process proceeds to step S202. In addition, in the process of step S201, when the operation detection part 114 has not detected the user's operation accompanying the change of the lane in which the vehicle 9 travels (step S201 is No), the process ends.

ステップS202では、車両9の走行車線の変更に伴う移動位置を予測部115が導出して(ステップS202)、ステップS203の処理に進む。   In step S202, the prediction unit 115 derives the movement position associated with the change of the travel lane of the vehicle 9 (step S202), and the process proceeds to step S203.

ステップS203では、接近車両10の移動位置への移動時間を演算部116が演算して(ステップS203)、ステップS204の処理に進む。   In step S203, the calculation part 116 calculates the movement time to the movement position of the approaching vehicle 10 (step S203), and proceeds to the process of step S204.

ステップS204では、車両9の移動位置への移動時間が接近車両10の移動位置への移動時間よりも長い時間の場合は(ステップS204がYes)、判断部117が合成画像生成部32に警告画像を表示する指示信号を出力して(ステップS205)、ステップS206の処理に進む。なお、車両9の移動位置への移動時間が接近車両10の移動位置への移動時間よりも短い場合(ステップS204がNo)は、ステップS105の処理に進み、ステップS104で生成された合成画像を画像出力部33が表示装置20に出力する(ステップS105)。   In step S204, when the movement time of the vehicle 9 to the movement position is longer than the movement time of the approaching vehicle 10 to the movement position (Yes in step S204), the determination unit 117 displays a warning image on the composite image generation unit 32. Is output (step S205), and the process proceeds to step S206. If the moving time of the vehicle 9 to the moving position is shorter than the moving time of the approaching vehicle 10 to the moving position (No in step S204), the process proceeds to step S105, and the composite image generated in step S104 is displayed. The image output unit 33 outputs to the display device 20 (step S105).

ステップS206では、合成画像に警告画像を合成画像生成部32が重畳する。そして警告画像が重畳された合成画像が画像出力部33により表示装置20に出力される(ステップS206)。   In step S206, the composite image generation unit 32 superimposes the warning image on the composite image. Then, the composite image on which the warning image is superimposed is output to the display device 20 by the image output unit 33 (step S206).

<第4の実施の形態>   <Fourth embodiment>

次に、第4の実施の形態について説明する。第4の実施の形態と第3の実施形態との相違点は、車両9のユーザの複数回の車線変更における車線変更時間からユーザの固有の車線変更時間(例えば、車両9のユーザの車線変更時間の平均値)を学習し、当該時間を不揮発性メモリ4bに記憶しておく点である。つまり、学習とは、車両9のユーザの複数回の車線変更における車線変更時間からユーザの固有の車線変更時間を学習部118が導出することである。   Next, a fourth embodiment will be described. The difference between the fourth embodiment and the third embodiment is that the user's own lane change time (for example, the user's lane change of the vehicle 9 is changed from the lane change time in the lane change of the user of the vehicle 9 multiple times). The average time) is learned, and the time is stored in the nonvolatile memory 4b. That is, learning means that the learning unit 118 derives the user's unique lane change time from the lane change time in the lane change of the user of the vehicle 9 multiple times.

また、記憶とは、学習部118により導出された車両9のユーザの固有の車線変更時間を不揮発性メモリ4bの車線変更時間42bとして記憶しておくことである。これにより、判断部117が車両9の移動位置への移動の可否を判断する場合に、ユーザごとの車線変更の際の車両の操作時間に応じた車線変更の可否判断が可能となる。なお、その他の構成および処理については第3の実施の形態の構成および処理と同一である。そのため、構成および処理が同一の部分についての記載は省略する。   In addition, storing means storing the lane change time unique to the user of the vehicle 9 derived by the learning unit 118 as the lane change time 42b of the nonvolatile memory 4b. Thereby, when the judgment part 117 judges whether the movement to the movement position of the vehicle 9 is possible, it becomes possible to judge whether the lane change according to the operation time of the vehicle at the time of the lane change for each user. Other configurations and processes are the same as those of the third embodiment. For this reason, description of parts having the same configuration and processing is omitted.

<4−1.システム構成>   <4-1. System configuration>

図19は、画像表示システム120bのブロック図である。画像処理装置11bの制御部1bは、第3の実施の形態で説明した構成に加えて、学習部118を備えている。学習部118は、ユーザの操作に伴い車両9の走行車線の変更開始から車両9の走行車線の変更終了までの複数回の車線変更に要した時間を積算してユーザの固有の車線変更時間を計測する。   FIG. 19 is a block diagram of the image display system 120b. The control unit 1b of the image processing apparatus 11b includes a learning unit 118 in addition to the configuration described in the third embodiment. The learning unit 118 adds the time required for multiple lane changes from the start of the change of the travel lane of the vehicle 9 to the end of the change of the travel lane of the vehicle 9 in accordance with the user's operation, and obtains the user's unique lane change time. measure.

不揮発性メモリ4bの車線変更時間42bは学習部118で導出された車線変更時間の情報を記憶する。つまり、一定値の車線変更情報ではなく、ユーザの車線変更動作を学習した結果の値である車線変更時間42bを不揮発性メモリ4bが記憶する。
判断部117は、接近車両10が移動位置に移動する時間と、ユーザの固有の車線変更時間である車線変更時間42bとに基づいて、車両9の移動位置への移動の可否を判断する。これにより、車両9の移動位置への移動の可否をユーザの固有の車線変更時間に応じて、ユーザが容易に判断できる。
The lane change time 42b of the nonvolatile memory 4b stores information on the lane change time derived by the learning unit 118. That is, the non-volatile memory 4b stores the lane change time 42b, which is a value obtained as a result of learning the user's lane change operation, instead of the constant lane change information.
The determination unit 117 determines whether or not the vehicle 9 can move to the movement position based on the time when the approaching vehicle 10 moves to the movement position and the lane change time 42b that is the user's unique lane change time. Thereby, the user can easily determine whether or not the vehicle 9 can move to the moving position according to the user's unique lane change time.

<4−2.車線変更時間グラフ>   <4-2. Lane change time graph>

図20は、車両9の車線変更時間の計測の一例を示すグラフである。時刻t1において、ユーザが方向指示器83を操作するとターン信号のオン状態が操作検知部14に検出されたことにより、制御部1bの学習部118が車線変更時間の学習を開始する。
次に、方向指示器83のターン信号がオン状態となっている時刻t2で、車両9の走行車線を変更する方向と同じ方向のステアリングホイールの回転角度が操作検知部14に検出される。そして、時刻t3でステアリングホイールの操舵角のグラフの傾きが右下がりとなったところで、ターン信号がオフ状態となる。その後ステアリングホイールの操舵角の角度が略0度(ステアリングホイールが中立位置)となった場合に、時刻t1からt4までの時間を車両9のユーザの1回の車線変更時間として学習部118が学習する。そして、当該車線変更時間をユーザが1回の車線変更に要した時間として不揮発性メモリ4bに記憶される。
FIG. 20 is a graph showing an example of measurement of the lane change time of the vehicle 9. When the user operates the direction indicator 83 at time t1, the learning unit 118 of the control unit 1b starts learning the lane change time because the operation detection unit 14 detects the turn signal ON state.
Next, at the time t <b> 2 when the turn signal of the direction indicator 83 is in the on state, the rotation angle of the steering wheel in the same direction as the direction in which the traveling lane of the vehicle 9 is changed is detected by the operation detection unit 14. Then, when the inclination of the steering angle graph of the steering wheel is lowered to the right at time t3, the turn signal is turned off. Thereafter, when the steering angle of the steering wheel becomes approximately 0 degrees (the steering wheel is in the neutral position), the learning unit 118 learns the time from time t1 to t4 as one lane change time of the user of the vehicle 9 To do. And the said lane change time is memorize | stored in the non-volatile memory 4b as time which the user required for one lane change.

以降、車両9の車線変更が行われるごとに車線変更時間を学習部118が積算し、その積算時間を車線変更回数で除算して、ユーザの固有の車線変更時間である車線変更時間42bとして不揮発性メモリ4bに記憶する。そして、予測部115が移動位置を予測する場合、および、判断部117が車両9の移動位置への移動の可否を判断する場合などに、不揮発性メモリ4bから車線変更時間42bが読み出される。   Thereafter, each time the lane of the vehicle 9 is changed, the learning unit 118 adds up the lane change time, and divides the accumulated time by the number of lane changes, so that it is non-volatile as the lane change time 42b that is the user's unique lane change time. Stored in the memory 4b. The lane change time 42b is read from the nonvolatile memory 4b when the prediction unit 115 predicts the movement position and when the determination unit 117 determines whether the vehicle 9 can move to the movement position.

<4−3.処理フローチャート>   <4-3. Processing flowchart>

図21および図22は学習部118が車線変更時間を計測する処理フローチャートである。ステップ401ではユーザが方向指示器83を操作してターン信号がオン状態となった場合(ステップS401がYes)、ステップS402の処理に進む。なお、ユーザが方向指示器83を操作していない場合(ステップS401がNo)は、処理を終了する。
ステップS402では、ターン信号がオン状態となったことにより、制御部1の方向指示器フラグがオン状態となり(ステップS402)、ステップ403において、車線変更時間の計測を学習部118が開始して(ステップS403)、ステップS404の処理に進む。
21 and 22 are process flowcharts in which the learning unit 118 measures the lane change time. In step 401, when the user operates the direction indicator 83 and the turn signal is turned on (Yes in step S401), the process proceeds to step S402. If the user is not operating the direction indicator 83 (No in step S401), the process ends.
In step S402, when the turn signal is turned on, the direction indicator flag of the control unit 1 is turned on (step S402). In step 403, the learning unit 118 starts measuring the lane change time ( The process proceeds to step S403) and step S404.

ステップS404では、方向指示器83の左右いずれかの方向のうち方向指示器83を操作した側へステアリングホイールを操舵した場合(ステップS404がYes)は、ステップS405の処理へ進む。例えば、方向指示器83を右側に操作した場合にステアリングホイールを右側に操舵して、車両9の走行する車線の右側に隣接する走行車線に車両9を移動させる場合である。
なお、方向指示器83の左右いずれかの方向のうち方向指示器83を操作した側へステアリングホイールを操舵していない場合、つまり方向指示器83を操作した側と反対側にステアリングホイールを操舵した場合(ステップS404がNo)は、ステップS406の処理へ進む。
In step S404, when the steering wheel is steered to the side in which the direction indicator 83 is operated in one of the left and right directions of the direction indicator 83 (Yes in step S404), the process proceeds to step S405. For example, when the direction indicator 83 is operated to the right side, the steering wheel is steered to the right side to move the vehicle 9 to a traveling lane adjacent to the right side of the lane in which the vehicle 9 travels.
When the steering wheel is not steered to the side where the direction indicator 83 is operated in either the left or right direction of the direction indicator 83, that is, the steering wheel is steered to the side opposite to the side where the direction indicator 83 is operated. In the case (No in step S404), the process proceeds to step S406.

ステップS405では、方向指示器83を操作した側に対応するステアリングホイールの操舵フラグをオン状態として(ステップS405)、ステップS406の処理に進む。   In step S405, the steering flag of the steering wheel corresponding to the side on which the direction indicator 83 is operated is turned on (step S405), and the process proceeds to step S406.

ステップS406では、方向指示器83を操作した側とは反対側にステアリングホイールを操舵した場合(ステップS406がYes)は、ステップS407の処理に進む。例えば、方向指示器83を右側に操作した場合にステアリングホイールを右側に操作した後に、ステアリングホイールを反対側(左側)に切り返す操作をした場合である。なお、方向指示器83を操作した側とは反対側にステアリングホイールを操舵していない場合(ステップS406がNo)は、ステップS408の処理に進む。   In step S406, when the steering wheel is steered to the side opposite to the side on which the direction indicator 83 is operated (step S406 is Yes), the process proceeds to step S407. For example, when the direction indicator 83 is operated to the right side, the steering wheel is operated to the right side, and then the steering wheel is turned back to the opposite side (left side). When the steering wheel is not steered to the side opposite to the side on which the direction indicator 83 is operated (No at Step S406), the process proceeds to Step S408.

ステップS407では、方向指示器83を操作した側とは反対側に対応する反対側操舵フラグをオン状態として、ステップS408の処理に進む。   In step S407, the opposite side steering flag corresponding to the side opposite to the side on which the direction indicator 83 is operated is turned on, and the process proceeds to step S408.

ステップS408では、操舵フラグおよび反対側操舵フラグがオン状態の場合(ステップS408がYes)は、ステップS409の処理に進む。なお、操舵フラグおよび反対側操舵フラグがオン状態ではない場合(ステップS408がNo)は、処理を終了する。   In step S408, when the steering flag and the opposite side steering flag are on (step S408 is Yes), the process proceeds to step S409. If the steering flag and the opposite side steering flag are not in the on state (No in step S408), the process ends.

ステップS409では、ステアリングホイールの操舵角が略0度の場合(ステップS409がYes)はステップS410の処理に進む。なお、ステアリングホイールの操舵角が略0度ではない場合(ステップS409がNo)は処理を終了する。   In step S409, if the steering angle of the steering wheel is approximately 0 degrees (step S409 is Yes), the process proceeds to step S410. Note that if the steering angle of the steering wheel is not approximately 0 degrees (No in step S409), the process ends.

ステップS410では、ユーザの固有の車線変更時間を学習部118が導出して(ステップS410)、ステップS411に進む。ステップS411では、各フラグをOFF状態とする(ステップS411)。このような処理を車線変更を行うたびに繰り返し行うことで、車両9の移動位置への移動の可否をユーザの車線変更時間の応じて正確に判断できる。   In step S410, the learning unit 118 derives the user's unique lane change time (step S410), and the process proceeds to step S411. In step S411, each flag is turned off (step S411). By repeatedly performing such processing every time the lane is changed, it is possible to accurately determine whether the vehicle 9 can move to the moving position according to the lane change time of the user.

<第5の実施の形態>   <Fifth embodiment>

次に、第5の実施の形態について説明する。第5の実施の形態と第3の実施形態との相違点は仮想視点の視点位置が接近車両10のドライバーの位置で、視野方向が車両9の存在する方向となる点である。なお、その他の構成および処理については第3の実施の形態の構成および処理と同一である。そのため、構成および処理が同一の部分についての記載は省略する。   Next, a fifth embodiment will be described. The difference between the fifth embodiment and the third embodiment is that the viewpoint position of the virtual viewpoint is the position of the driver of the approaching vehicle 10 and the viewing direction is the direction in which the vehicle 9 exists. Other configurations and processes are the same as those of the third embodiment. For this reason, description of parts having the same configuration and processing is omitted.

<5−1.仮想視点の視点位置および視野方向>   <5-1. Viewpoint and view direction of virtual viewpoint>

図23は、仮想視点VP31の視点位置を主に説明する図である。図23に示すように、接近車両10のドライバーの位置が仮想視点VP31の視点位置となっている。詳細には車両10のドライバーが着座する位置(運転席の位置)が視点位置となっている。なお、接近車両10のドライバーの位置の導出は導出部113が行うが、詳細な説明は次の図24を用いて行う。   FIG. 23 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint VP31. As shown in FIG. 23, the position of the driver of the approaching vehicle 10 is the viewpoint position of the virtual viewpoint VP31. Specifically, the position at which the driver of the vehicle 10 is seated (the position of the driver's seat) is the viewpoint position. Although the derivation unit 113 derives the position of the driver of the approaching vehicle 10, detailed description will be given with reference to FIG.

図24は、仮想視点VP31の視野方向を主に説明する図である。図24に示す仮想視点VP31の視野方向は、車両9の存在する方向である。つまり、接近車両10のドライバーの位置から見る接近車両10の進行方向(−Y方向)と略同一の方向である。   FIG. 24 is a diagram for mainly explaining the visual field direction of the virtual viewpoint VP31. The viewing direction of the virtual viewpoint VP31 shown in FIG. 24 is the direction in which the vehicle 9 exists. That is, the direction is substantially the same as the traveling direction (−Y direction) of the approaching vehicle 10 viewed from the position of the driver of the approaching vehicle 10.

ここで、接近車両10のドライバーの位置となる車両9に対する接近車両10の位置の導出は、合成画像中の接近車両像101の画像中の位置から、重心位置CPから接近車両10の位置(例えば接近車両10のフロントバンパーの位置)までを結ぶ直線CLを導出部113が導出する。そして、直線CLに補正値clを加えた直線CLaを導出部113が導出する。この補正値clは、接近車両10の位置(例えば、接近車両10のフロントバンパーの位置)から接近車両10のドライバーの位置である着座位置UPまでの距離である。   Here, the position of the approaching vehicle 10 with respect to the vehicle 9 that is the position of the driver of the approaching vehicle 10 is derived from the position in the image of the approaching vehicle image 101 in the composite image from the center of gravity position CP (for example, The deriving unit 113 derives a straight line CL connecting to the position of the front bumper of the approaching vehicle 10. Then, the deriving unit 113 derives a straight line CLa obtained by adding the correction value cl to the straight line CL. The correction value cl is a distance from the position of the approaching vehicle 10 (for example, the position of the front bumper of the approaching vehicle 10) to the seating position UP that is the position of the driver of the approaching vehicle 10.

また、これ以外にも次のように接近車両10のドライバーの位置を導出してもよい。図24に示す車両9に対する接近車両10の前後方向(Y軸方向)の位置を第1の実施の形態の図5に示した直線ALに補正値alを加えた位置として導出部113が導出する。また、車両9に対する接近車両10の横方向(X軸方向)の位置を直線BLに補正値blを加えた位置として導出部113が導出する。そして、例えば三平方の定理などにより車両9の重心位置CPから着座位置UPまでを結ぶ直線CLaを導出部113が導出する。   In addition to this, the position of the driver of the approaching vehicle 10 may be derived as follows. The deriving unit 113 derives the position in the front-rear direction (Y-axis direction) of the approaching vehicle 10 with respect to the vehicle 9 shown in FIG. 24 as the position obtained by adding the correction value al to the straight line AL shown in FIG. 5 of the first embodiment. . Further, the deriving unit 113 derives the position in the lateral direction (X-axis direction) of the approaching vehicle 10 with respect to the vehicle 9 as the position obtained by adding the correction value bl to the straight line BL. Then, the deriving unit 113 derives a straight line CLa that connects the center of gravity position CP of the vehicle 9 to the seating position UP by using, for example, the three square theorem.

そして、着座位置UPが接近車両10のドライバーの位置となり、この位置が仮想視点VP31の視点位置となる。また、接近車両10の進行方向(−Y方向)と略同一の方向が仮想視点VP31の視野方向となる。   Then, the seating position UP becomes the position of the driver of the approaching vehicle 10, and this position becomes the viewpoint position of the virtual viewpoint VP31. Further, the direction substantially the same as the traveling direction (−Y direction) of the approaching vehicle 10 is the visual field direction of the virtual viewpoint VP31.

なお、補正値cl等の各補正値は、不揮発性メモリ4aに記録されており、例えば、接近車両10のフロントバンパー部分の位置から着座位置UPまでの直線を導出する際に用いられる補正値となる。   Each correction value such as the correction value cl is recorded in the non-volatile memory 4a, and is, for example, a correction value used when deriving a straight line from the position of the front bumper portion of the approaching vehicle 10 to the seating position UP. .

<5−2.表示画像>   <5-2. Display image>

図25は、ディスプレイ24に表示される仮想視点VP31から見た合成画像を示した図である。合成画像PT31は仮想視点VP31から見た合成画像であり、車両像91が前方に映し出されている。つまり、接近車両10のドライバーの視点位置で、車両9の存在する視野方向から見た合成画像がディスプレイ24に映し出されている。これにより接近車両10のドライバーの視点で車両9の位置をユーザが正確に把握できる。なお、接近車両10の一部の画像は不揮発性メモリ4bに予め記憶されているイメージ図である。   FIG. 25 is a diagram illustrating a composite image viewed from the virtual viewpoint VP31 displayed on the display 24. As illustrated in FIG. The composite image PT31 is a composite image viewed from the virtual viewpoint VP31, and the vehicle image 91 is projected forward. In other words, a composite image viewed from the visual field direction where the vehicle 9 exists is displayed on the display 24 at the viewpoint position of the driver of the approaching vehicle 10. Thus, the user can accurately grasp the position of the vehicle 9 from the viewpoint of the driver of the approaching vehicle 10. In addition, the one part image of the approaching vehicle 10 is an image figure previously stored in the non-volatile memory 4b.

また、合成画像PT31には、前方に移動位置画像traが合成画像に重畳して映し出されており、接近車両10の進行方向に表示されている接近状態画像ad2の一部が移動位置画像traの範囲内に含まれるように合成画像に重畳して映し出されている。さらに、警告ライン像LNが警告画像として合成画像に重畳して映し出されている。このような場合は、ユーザは車両9の車線変更が困難であることが明確に判断できる。   In addition, in the composite image PT31, the movement position image tra is projected forward on the composite image, and a part of the approach state image ad2 displayed in the traveling direction of the approaching vehicle 10 is part of the movement position image tra. The image is superimposed on the composite image so as to be included in the range. Further, the warning line image LN is projected and superimposed on the composite image as a warning image. In such a case, the user can clearly determine that it is difficult to change the lane of the vehicle 9.

<5−3.処理フローチャート> <5-3. Processing flowchart>

図26および図27は、画像処理装置11aの処理フローチャートである。ステップS102aでは、前の処理のステップS101において検出部112が接近車両10の存在を検出した場合に、接近車両10のドライバーの位置を導出部113が導出して、ステップS103aの処理に進む。   26 and 27 are process flowcharts of the image processing apparatus 11a. In step S102a, when the detecting unit 112 detects the presence of the approaching vehicle 10 in step S101 of the previous process, the deriving unit 113 derives the position of the driver of the approaching vehicle 10, and the process proceeds to step S103a.

ステップS103aでは、仮想視点の視点位置を接近車両10のドライバー位置とし、仮想視点の視野方向を車両9の存在する方向として(ステップS103a)、ステップS104の処理に進む。そして、以降は第3の実施の形態で説明した処理を行う。 In step S103a, the viewpoint position of the virtual viewpoint is set as the driver position of the approaching vehicle 10, the viewing direction of the virtual viewpoint is set as the direction in which the vehicle 9 exists (step S103a), and the process proceeds to step S104. Thereafter, the processing described in the third embodiment is performed.

<第6の実施の形態> <Sixth Embodiment>

次に、第6の実施の形態について説明する。第6の実施の形態と第3の実施形態との相違点は、車両9がユーザの操作により車線変更を行う場合に、検出部112が接近車両10の存在を検出しないときの合成画像の表示について説明した点である。このような場合は、視点位置が車両9の前方で視野方向が車両9の後方となる仮想視点VPから見た合成画像がディスプレイ24に映し出される。   Next, a sixth embodiment will be described. The difference between the sixth embodiment and the third embodiment is that, when the vehicle 9 changes lanes by a user operation, the composite image is displayed when the detection unit 112 does not detect the presence of the approaching vehicle 10. It is the point which explained about. In such a case, a composite image viewed from the virtual viewpoint VP in which the viewpoint position is in front of the vehicle 9 and the viewing direction is behind the vehicle 9 is displayed on the display 24.

<6−1.表示画像> <6-1. Display image>

図28は、ディスプレイ24に表示される仮想視点VPから見た合成画像を示した図である。合成画像PT1bには車両像91を含んだ合成画像が映し出されている。合成画像PT1bは、操作検知部114が車両9のユーザの操作を検知した場合に、検出部112が接近車両10の存在を検出していない(接近車両10が車両9の後方に存在しない)ときは、次に示す仮想視点から見た合成画像を合成画像生成部32が生成する。つまり、車両像91の少なくとも一部の像を含み、視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点VPから見た合成画像を合成画像生成部32が生成する。これにより接近車両10の存在の有無に関わらず車両9の車線変更の可否をユーザが容易に判断できる。   FIG. 28 is a diagram showing a composite image viewed from the virtual viewpoint VP displayed on the display 24. A composite image including the vehicle image 91 is displayed on the composite image PT1b. The composite image PT1b is when the detection unit 112 does not detect the presence of the approaching vehicle 10 when the operation detection unit 114 detects the operation of the user of the vehicle 9 (the approaching vehicle 10 does not exist behind the vehicle 9). The composite image generation unit 32 generates a composite image viewed from the following virtual viewpoint. That is, the composite image generation unit 32 includes a composite image viewed from the virtual viewpoint VP including at least a part of the vehicle image 91, the viewpoint position in front of the vehicle 9, and the visual field direction in the rear of the vehicle 9. Accordingly, the user can easily determine whether or not the lane of the vehicle 9 can be changed regardless of the presence or absence of the approaching vehicle 10.

<6−2.処理フローチャート> <6-2. Processing flowchart>

図29および図30は、画像処理装置11aの処理フローチャートである。ステップS101において、接近車両10の存在を検出部112が検出していない場合(ステップS101がNo)は、ステップS301の処理に進む。
ステップS301では、仮想視点VPの視点位置および視野方向を画像制御部111が設定する(ステップS301)。つまり、車両像91の少なくとも一部の像を含み、視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点VPを画像制御部111が設定する。そして、仮想視点VPから見た合成画像を合成画像生成部32が生成する(ステップS104)。以降は第3の実施の形態で説明した処理を行う。
29 and 30 are processing flowcharts of the image processing apparatus 11a. In step S101, when the detection unit 112 does not detect the presence of the approaching vehicle 10 (No in step S101), the process proceeds to step S301.
In step S301, the image control unit 111 sets the viewpoint position and viewing direction of the virtual viewpoint VP (step S301). That is, the image control unit 111 sets a virtual viewpoint VP that includes at least a part of the vehicle image 91, the viewpoint position is the front of the vehicle 9, and the visual field direction is the rear of the vehicle 9. Then, the composite image generation unit 32 generates a composite image viewed from the virtual viewpoint VP (step S104). Thereafter, the processing described in the third embodiment is performed.

<第7の実施の形態> <Seventh embodiment>

次に、第7の実施の形態について説明する。第7の実施の形態と第6の実施形態との相違点は、車両9がユーザの操作により車線変更を行う場合に、視点位置が車両9のドアミラー近傍の位置で、視野方向が車両9の後方となる仮想視点VP41から見た合成画像を合成画像生成部32が生成することである。   Next, a seventh embodiment will be described. The difference between the seventh embodiment and the sixth embodiment is that when the vehicle 9 changes lanes by a user operation, the viewpoint position is a position near the door mirror of the vehicle 9 and the visual field direction is that of the vehicle 9. That is, the composite image generation unit 32 generates a composite image viewed from the virtual viewpoint VP41 that is behind.

<7−1.仮想視点の視点位置および視野方向> <7-1. Viewpoint and view direction of virtual viewpoint>

図31は、仮想視点VP41の視点位置を主に説明する図である。図31に示すように、仮想視点VP41の視点位置は車両9のドアミラー近傍の位置がとなっている。なお、図31では右側(+X方向)の車線に車両9が走行車線の変更を行う場合について説明しているため、右側(+X方向)のドラミラー近傍に仮想視点VP41の視点位置が設定されるが、左側(−X方向)に車両9が走行車線の変更を行う場合は、左側(−X方向)にドアミラー近傍に仮想視点の視点位置を設定してもよい。   FIG. 31 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint VP41. As shown in FIG. 31, the viewpoint position of the virtual viewpoint VP41 is a position near the door mirror of the vehicle 9. Note that FIG. 31 illustrates the case where the vehicle 9 changes the driving lane in the right (+ X direction) lane, so the viewpoint position of the virtual viewpoint VP41 is set in the vicinity of the right (+ X direction) drag mirror. When the vehicle 9 changes the traveling lane on the left side (−X direction), the viewpoint position of the virtual viewpoint may be set near the door mirror on the left side (−X direction).

図32は、仮想視点VP41の視野方向を主に説明する図である。図32に示す仮想視点VP41は車両9のドアミラー近傍を視点位置とし、視野方向を車両9の後方(+Y方向)としている。つまり車両9の進行方向(−Y方向)と反対の方向に視野が向けられている。   FIG. 32 is a diagram for mainly explaining the viewing direction of the virtual viewpoint VP41. A virtual viewpoint VP41 shown in FIG. 32 has the vicinity of the door mirror of the vehicle 9 as the viewpoint position and the visual field direction as the rear of the vehicle 9 (+ Y direction). That is, the field of view is directed in the direction opposite to the traveling direction of the vehicle 9 (−Y direction).

<7−2.表示画像> <7-2. Display image>

図33は、ディスプレイ24に表示される仮想視点VP41から見た合成画像を示した図である。合成画像P41は仮想視点VP41から見た合成画像であり、車両9の右側のドアミラーに映し出される像を含む合成画像として表示されている。これにより接近車両が存在しない場合でも車両9の車線変更の可否をユーザが容易に判断できる。
<7−3.処理フローチャート>
図34および図35は、画像処理装置11aの処理フローチャートである。ステップS101において、接近車両10の存在を検出部112が検出していない場合(ステップS101がNo)は、ステップS401の処理に進む。
FIG. 33 is a diagram showing a composite image viewed from the virtual viewpoint VP41 displayed on the display 24. As shown in FIG. The composite image P41 is a composite image viewed from the virtual viewpoint VP41, and is displayed as a composite image including an image displayed on the right door mirror of the vehicle 9. Thereby, even when there is no approaching vehicle, the user can easily determine whether or not the lane of the vehicle 9 can be changed.
<7-3. Processing flowchart>
34 and 35 are process flowcharts of the image processing apparatus 11a. In step S101, when the detection unit 112 does not detect the presence of the approaching vehicle 10 (No in step S101), the process proceeds to step S401.

ステップS401では、車両9のドアミラー近傍となる視点位置で、視野方向が車両9の後方となる仮想視点VP41の視点位置および視野方向を画像制御部111が設定する(ステップS401)。そして、仮想視点VP41から見た合成画像を合成画像生成部32が生成する(ステップS104)。以降は第6の実施の形態で説明した処理を行う。   In step S401, the image control unit 111 sets the viewpoint position and the viewing direction of the virtual viewpoint VP41 whose viewing direction is behind the vehicle 9 at the viewing position near the door mirror of the vehicle 9 (step S401). Then, the composite image generation unit 32 generates a composite image viewed from the virtual viewpoint VP41 (step S104). Thereafter, the processing described in the sixth embodiment is performed.

<第8の実施の形態> <Eighth Embodiment>

次に、第8の実施の形態について説明する。第8の実施の形態は、フロントカメラ51などの一のカメラで撮影した撮影画像をディスプレイ24に表示する。そして、一のカメラの撮影画像がディスプレイ24に表示されている場合に、接近車両10の存在が検出部112により検出されたときは、車両9と接近車両10の位置に応じた仮想視点から見た合成画像を一のカメラで撮影した画像と共にディスプレイ24に表示する。   Next, an eighth embodiment will be described. In the eighth embodiment, a captured image captured by one camera such as the front camera 51 is displayed on the display 24. When the photographed image of one camera is displayed on the display 24 and the presence of the approaching vehicle 10 is detected by the detection unit 112, the image is viewed from a virtual viewpoint corresponding to the positions of the vehicle 9 and the approaching vehicle 10. The combined image is displayed on the display 24 together with the image photographed by one camera.

ここで、車両9と接近車両10の位置に応じた仮想視点は、例えば、視点位置を接近車両10のドライバーの位置とし、視野方向を車両9の存在する方向とする仮想視点(例えば図36に示す仮想視点VP52a)である。また、例えば視点位置を車両9のドアミラー近傍の位置とし、視野方向を接近車両10の存在する方向とする仮想視点(例えば図36に示す仮想視点VP52b)である。これらの仮想視点は後述するようにユーザの操作に応じて変更され、この変更によりディスプレイ24に表示される合成画像の表示態様が切り替えられる。これによりユーザは接近車両10の存在を早期に認識でき、接近車両10の位置を正確に判断できる。   Here, the virtual viewpoint according to the positions of the vehicle 9 and the approaching vehicle 10 is, for example, a virtual viewpoint (for example, as shown in FIG. 36) in which the viewpoint position is the position of the driver of the approaching vehicle 10 and the viewing direction is the direction in which the vehicle 9 exists. This is a virtual viewpoint VP52a). Further, for example, it is a virtual viewpoint (for example, virtual viewpoint VP52b shown in FIG. 36) in which the viewpoint position is a position near the door mirror of the vehicle 9 and the visual field direction is the direction in which the approaching vehicle 10 exists. As will be described later, these virtual viewpoints are changed according to a user operation, and the display mode of the composite image displayed on the display 24 is switched by this change. As a result, the user can recognize the presence of the approaching vehicle 10 at an early stage, and can accurately determine the position of the approaching vehicle 10.

<8−1.仮想視点の視点位置および視野方向>
図36は、一のカメラの撮影画像と共にディスプレイ24に表示される合成画像の仮想視点の一例を示している。詳細には視点位置を接近車両10のドライバーの位置とし、視野方向を車両9の存在する方向とする仮想視点VP52aと、視点位置を車両9のドアミラー近傍の位置とし、視野方向を接近車両10の存在する方向とする仮想視点VP52bが示されている。そして、これらの仮想視点はユーザの操作に応じて変更され、この変更によりディスプレイ24に表示される合成画像の表示態様が切り替えられる。
<8-1. Viewpoint and view direction of virtual viewpoint>
FIG. 36 shows an example of a virtual viewpoint of a composite image displayed on the display 24 together with a photographed image of one camera. Specifically, the viewpoint position is the position of the driver of the approaching vehicle 10, the viewing direction is the direction in which the vehicle 9 exists, the virtual viewpoint VP 52 a is the position near the door mirror of the vehicle 9, and the viewing direction is the approaching vehicle 10. A virtual viewpoint VP52b with the existing direction is shown. And these virtual viewpoints are changed according to a user's operation, and the display mode of the composite image displayed on the display 24 is switched by this change.

<8−2.表示画像>   <8-2. Display image>

図37および図38はディスプレイ24に表示される画像を示す図である。なお、図37および図38の画像PT51、PT51a、および、PT51bは時間的に連続した画像である。画像PT51は車両9に備えられたフロントカメラのみで撮影した撮影画像であり、車両9の前方(−Y方向)を走行する前方車両の車両像102(以下、「前方車両像102」ともいう)がディスプレイ24に映し出されている。画像PT51には後述するような合成画像は重畳表示されていない。つまり、車両9の後方から接近する接近車両10の存在が検出部112により検出されていない。   37 and 38 are diagrams showing images displayed on the display 24. FIG. Note that the images PT51, PT51a, and PT51b in FIGS. 37 and 38 are temporally continuous images. The image PT51 is a captured image taken only by the front camera provided in the vehicle 9, and is a vehicle image 102 of a forward vehicle traveling in front of the vehicle 9 (in the -Y direction) (hereinafter also referred to as "front vehicle image 102"). Is displayed on the display 24. A composite image as described later is not superimposed on the image PT51. That is, the presence of the approaching vehicle 10 approaching from the rear of the vehicle 9 is not detected by the detection unit 112.

次に、画像PT51aは、検出部112が接近車両10の存在を検出した場合にディスプレイ24に表示される画像を示している。画像TP51aには、前方車両像102が表示されており、この画像PT51aに,接近車両10のドライバーの位置の仮想視点VP52aから見た合成画像PT52aが重畳して映し出されている。つまり、画像PT51aと共に合成画像PT52aがディスプレイ24に映し出されている。これにより、ユーザは接近車両10の存在を早期に認識でき、接近車両10の位置を正確に把握できる。   Next, the image PT51a shows an image displayed on the display 24 when the detecting unit 112 detects the presence of the approaching vehicle 10. A forward vehicle image 102 is displayed in the image TP51a, and a composite image PT52a viewed from the virtual viewpoint VP52a of the position of the driver of the approaching vehicle 10 is superimposed on the image PT51a and displayed. That is, the composite image PT52a is displayed on the display 24 together with the image PT51a. Thereby, the user can recognize presence of approaching vehicle 10 at an early stage, and can grasp the position of approaching vehicle 10 correctly.

なお、この合成画像PT52の仮想視点の視点位置は接近車両10のドライバーの位置であり、視野方向は接近車両10の存在する方向である。そして、車両9に対する接近車両10の位置において、その距離が所定の距離を下回っているため、車両像91を含むような視野方向(接近車両10のドライバーの位置から見て左斜め前方の方向)の仮想視点から見た合成画像となっている。   The viewpoint position of the virtual viewpoint of the composite image PT52 is the position of the driver of the approaching vehicle 10, and the visual field direction is the direction in which the approaching vehicle 10 exists. Since the distance of the approaching vehicle 10 with respect to the vehicle 9 is less than a predetermined distance, the visual field direction including the vehicle image 91 (the direction diagonally forward left when viewed from the driver of the approaching vehicle 10) This is a composite image viewed from the virtual viewpoint.

また、画像PT51aには相手視点ボタンB1、および、自車視点ボタンB2とが重畳して表示されている。この相手視点ボタンB1、および、自車視点ボタンB2のいずれかのボタンをユーザが操作することにより各ボタンに対応した仮想視点から見た合成画像がディスプレイ24に映し出される。つまり、フロントカメラ51で撮影された撮影画像と共に合成画像がディスプレイ24に映し出される。   Further, the partner viewpoint button B1 and the own vehicle viewpoint button B2 are displayed superimposed on the image PT51a. When the user operates one of the partner viewpoint button B1 and the own vehicle viewpoint button B2, a composite image viewed from the virtual viewpoint corresponding to each button is displayed on the display 24. That is, the composite image is displayed on the display 24 together with the photographed image photographed by the front camera 51.

画像PT51aでは相手視点ボタンB1が選択されているため、接近車両10のドライバーの位置の仮想視点VP52aから見た合成画像PT52aが、画像PT51aと共にディスプレイ24に映し出されている。   Since the partner viewpoint button B1 is selected in the image PT51a, the composite image PT52a viewed from the virtual viewpoint VP52a at the position of the driver of the approaching vehicle 10 is displayed on the display 24 together with the image PT51a.

次に、図38に示す画像PT51bでは、ユーザの操作により、自車視点ボタンB2が選択されている。そして、このユーザ操作に応じてフロントカメラの撮影画像と共にディスプレイ24に映し出される合成画像が、合成画像PT52aから合成画像PT52bに切り替えられる。これにより、ユーザの希望する仮想視点から見た合成画像を表示して、接近車両の位置を正確に把握できる。   Next, in the image PT51b shown in FIG. 38, the own vehicle viewpoint button B2 is selected by the user's operation. In response to the user operation, the composite image displayed on the display 24 together with the image captured by the front camera is switched from the composite image PT52a to the composite image PT52b. Thereby, the composite image viewed from the virtual viewpoint desired by the user is displayed, and the position of the approaching vehicle can be accurately grasped.

<8−3.処理フローチャート>   <8-3. Processing flowchart>

図39および図40は、一の撮影画像と共に合成画像をディスプレイ24に表示する処理フローチャートである。ステップS501では、フロントカメラ51で撮影された撮影画像が画像処理部3で処理され(ステップS501)、画像出力部33から通信部61を介して表示装置20に出力され(ステップS502)、ステップS101の処理に進む。   39 and 40 are process flowcharts for displaying a composite image together with one captured image on the display 24. In step S501, an image captured by the front camera 51 is processed by the image processing unit 3 (step S501), and is output from the image output unit 33 to the display device 20 via the communication unit 61 (step S502). Proceed to the process.

ステップS101では、接近車両10の存在を検出部112が検出した場合(ステップS101がYes)、ステップS503の処理に進み、車両9と接近車両10の位置に応じた仮想視点から見た合成画像を画像出力部33が通信部61を介して表示装置20に出力して(ステップS503)、ステップS504の処理に進む。これにより、フロントカメラ51で撮影された撮影画像と共に合成画像がディスプレイ24に表示される。   In step S101, when the detection unit 112 detects the presence of the approaching vehicle 10 (step S101 is Yes), the process proceeds to step S503, and a composite image viewed from a virtual viewpoint corresponding to the positions of the vehicle 9 and the approaching vehicle 10 is displayed. The image output unit 33 outputs to the display device 20 via the communication unit 61 (step S503), and the process proceeds to step S504. As a result, a composite image is displayed on the display 24 together with the photographed image photographed by the front camera 51.

なお、合成画像の仮想視点の視点位置、および、視野方向は、過去に接近車両を検出部が検出した際にユーザの操作により選択された仮想視点の視点位置、および、視野方向から見た合成画像がディスプレイ24に表示される。   Note that the viewpoint position and the visual field direction of the virtual viewpoint of the composite image are the composites viewed from the viewpoint position and the visual field direction of the virtual viewpoint selected by the user operation when the detection unit detects the approaching vehicle in the past. An image is displayed on the display 24.

また、ステップS101で、検出部112が接近車両10の存在を検出していない場合(ステップS101がNo)は、処理を終了する。   Moreover, when the detection part 112 has not detected presence of the approaching vehicle 10 by step S101 (step S101 is No), a process is complete | finished.

ステップS504に戻り、ディスプレイ24にフロントカメラ51により撮影された撮影画像の画像PT51aと共に、合成画像PT52bがディスプレイ24に映し出されている場合に、ユーザの操作により相手視点ボタンB1が選択されたとき(ステップS504がYes)は、ステップS505の処理に進む。   Returning to step S504, when the partner viewpoint button B1 is selected by the user's operation when the composite image PT52b is displayed on the display 24 together with the image PT51a of the captured image captured by the front camera 51 on the display 24 ( If step S504 is YES, the process proceeds to step S505.

なお、相手視点ボタンB1がユーザの操作により選択されていない場合(ステップS504がNo)は、ステップS507の処理に進む。また、過去のユーザの操作により既に相手視点ボタンB1が選択されている場合も同様の処理を行う。   If the partner viewpoint button B1 is not selected by the user's operation (No in step S504), the process proceeds to step S507. The same process is performed when the partner viewpoint button B1 has already been selected by a past user operation.

ステップS505では、接近車両10のドライバーの位置の仮想視点VP52aから見た合成画像PT52aが合成画像生成部32により生成され(ステップS505)、ステップS506の処理に進む。   In step S505, the composite image PT52a viewed from the virtual viewpoint VP52a of the position of the driver of the approaching vehicle 10 is generated by the composite image generation unit 32 (step S505), and the process proceeds to step S506.

ステップS506では、合成画像PT52aが画像出力部33により表示装置20に出力され(ステップS506)、ステップS507の処理に進む。   In step S506, the composite image PT52a is output to the display device 20 by the image output unit 33 (step S506), and the process proceeds to step S507.

ステップS507では、ディスプレイ24にフロントカメラ51により撮影された撮影画像の画像PT51aと共に、仮想視点VP52aから見た合成画像PT52aがディスプレイ24に映し出されている場合に、ユーザの操作により自車視点ボタンB2が選択されたとき(ステップS507がYes)は、ステップS508の処理に進む。   In step S507, when the composite image PT52a viewed from the virtual viewpoint VP52a is displayed on the display 24 together with the image PT51a of the captured image captured by the front camera 51 on the display 24, the vehicle viewpoint button B2 is operated by the user's operation. Is selected (step S507 is Yes), the process proceeds to step S508.

なお、自車視点ボタンB2がユーザの操作により選択されていない場合(ステップS507がNo)は、処理を終了する。また、過去のユーザの操作により既に自車視点ボタンB2が選択されている場合も同様の処理を行う。   If the vehicle viewpoint button B2 is not selected by the user's operation (No in step S507), the process ends. The same processing is also performed when the vehicle viewpoint button B2 has already been selected by a past user operation.

ステップS508では、車両9のドアミラー近傍の仮想視点VP52bから見た合成画像PT52bが合成画像生成部32により生成され(ステップS508)、ステップS509の処理に進む。   In step S508, the composite image PT52b viewed from the virtual viewpoint VP52b near the door mirror of the vehicle 9 is generated by the composite image generation unit 32 (step S508), and the process proceeds to step S509.

ステップS509では、合成画像PT52bが画像出力部33により表示装置20に出力される(ステップS509)。   In step S509, the composite image PT52b is output to the display device 20 by the image output unit 33 (step S509).

<第9の実施の形態> <Ninth embodiment>

次に、第9の実施の形態について説明する。第9の実施の形態では、第8の実施の形態で説明した車両9のフロントカメラ51で撮影された画像のサイズと合成画像のサイズとをユーザの操作により切り替えてディスプレイ24に表示する。   Next, a ninth embodiment will be described. In the ninth embodiment, the size of the image captured by the front camera 51 of the vehicle 9 described in the eighth embodiment and the size of the composite image are switched by a user operation and displayed on the display 24.

<9−1.表示画像> <9-1. Display image>

図41は、フロントカメラ51の撮影画像のサイズと合成画像のサイズとの切替を示す図である。図41の上図では、フロントカメラ51で撮影された画像PT51cと共に、車両9と接近車両10の位置に応じた仮想視点から見た合成画像PT52cがディスプレイ24に映し出されている状態を示している。なお、画像PT51cはディスプレイ24の画面の大きさと略同じサイズの画像でディスプレイ24に表示され、合成画像PT52cは、画像PT51cの略1/10のサイズでディスプレイ24に表示されている。   FIG. 41 is a diagram illustrating switching between the size of the captured image of the front camera 51 and the size of the composite image. 41 shows a state in which the composite image PT52c viewed from the virtual viewpoint corresponding to the positions of the vehicle 9 and the approaching vehicle 10 is displayed on the display 24 together with the image PT51c photographed by the front camera 51. . Note that the image PT51c is displayed on the display 24 as an image that is substantially the same size as the screen of the display 24, and the composite image PT52c is displayed on the display 24 as approximately 1/10 the size of the image PT51c.

なお、ユーザの操作により一の撮影画像のサイズと合成画像のサイズとを切り替えてディスプレイ24に表示する画像切替ボタンB3が画像PT51cに重畳して表示されている。   It should be noted that an image switching button B3 for switching between the size of one captured image and the size of the composite image by the user's operation and displaying it on the display 24 is displayed superimposed on the image PT51c.

そして、図41の下図には、画像切替ボタンB3がユーザに操作された場合、合成画像PT52cのサイズをユーザの画像切替ボタンB3の操作前の画像PT51cと略同じサイズとする。つまり、切替前の合成画像PT52cのサイズよりも拡大された合成画像PT52dとしてディスプレイ24に映し出す。   In the lower part of FIG. 41, when the image switching button B3 is operated by the user, the size of the composite image PT52c is set to be approximately the same as the image PT51c before the user operates the image switching button B3. That is, it is displayed on the display 24 as a composite image PT52d that is larger than the size of the composite image PT52c before switching.

また、このような画像切替に伴い、画像PT51cのサイズを車両9のユーザの画像切替ボタンB3の操作前の合成画像PT52cと略同じサイズとする。つまり、切替前の画像PT51cよりも縮小された画像PT51dとしてディスプレイ24に映し出す。これにより、車両9の走行状態に応じて、ユーザの希望する画像のサイズを他の画像のサイズと比べて調整できる。   In addition, with such image switching, the size of the image PT51c is set to be approximately the same size as the synthesized image PT52c before the user operates the image switching button B3 of the vehicle 9. That is, the image PT51d that is reduced in size than the image PT51c before switching is displayed on the display 24. Thereby, according to the driving | running | working state of the vehicle 9, the size of the image which a user desires can be adjusted compared with the size of another image.

<第10の実施の形態> <Tenth Embodiment>

次に、第10の実施の形態について説明する。第10の実施の形態では、車両9が表示装置20のナビテーション機能を用いて車両9を走行させる場合に、表示装置20からのユーザへの案内情報の報知に応じて、仮想視点から見た合成画像をユーザに提供するものである。   Next, a tenth embodiment will be described. In the tenth embodiment, when the vehicle 9 travels using the navigation function of the display device 20, the vehicle 9 is viewed from the virtual viewpoint according to the notification of the guidance information from the display device 20 to the user. A composite image is provided to the user.

この実施の形態の目的は、次の内容である。表示装置20に表示されたナビゲーション画面により目的地までの経路案内に沿ってユーザが車両9を走行させている場合に、車両9の進路変更を行う必要がない地点でナビゲーション画像から別の画像(例えば、仮想視点から見た合成画像)に表示装置20画像が切り替わるときがある。このような場合、ユーザは本来見たいナビゲーション画像が見ることができないため、煩わしさを感じることがある。そのため、以下の第10の実施の形態では、ユーザが車両9を操作する上で必要となるタイミングで表示装置20に仮想視点から見た合成画像を表示する構成について説明する。   The purpose of this embodiment is as follows. When the user is driving the vehicle 9 along the route guidance to the destination on the navigation screen displayed on the display device 20, another image (from the navigation image at a point where it is not necessary to change the course of the vehicle 9). For example, the display device 20 image may be switched to a composite image viewed from a virtual viewpoint. In such a case, the user may not be able to see the navigation image that the user originally wants to see, and may feel annoyed. Therefore, in the following tenth embodiment, a configuration will be described in which a composite image viewed from a virtual viewpoint is displayed on the display device 20 at a timing required for the user to operate the vehicle 9.

<10−1.案内情報地点> <10-1. Guidance information point>

図42は、ユーザに案内情報を報知する地点を示す図である。図42では道路の左車線LAを車両9が走行しており、区画線で区切られた右車線RBを車両9の後方に位置する接近車両10が走行している。そして、車両9のユーザの操作により車両9が到達する目的地が表示装置20に設定された場合の当該目的地に到達するために走行すべきルートである経路RUが示されている。   FIG. 42 is a diagram illustrating points where the guide information is notified to the user. In FIG. 42, the vehicle 9 is traveling in the left lane LA of the road, and the approaching vehicle 10 that is located behind the vehicle 9 is traveling in the right lane RB divided by the lane marking. In addition, a route RU that is a route that should be traveled to reach the destination when the destination to which the vehicle 9 arrives is set in the display device 20 by the operation of the user of the vehicle 9 is shown.

次に、車両9が経路RUに沿って走行する場合、左車線LA上の地点PN1に車両9が接近したときに、車両9の位置を左車線LAから右車線RBに変更する旨の案内情報が表示装置20からユーザに報知される。そして、このような案内情報が報知される場合に、仮想視点から見た合成画像(例えば、接近車両10のドライバーの視点位置で、車両9の存在する視野方向の仮想視点から見た合成画像)が合成画像生成部32により生成される。生成された合成画像はディスプレイ24に映し出される。このように、表示装置20から報知される案内情報に対応した仮想視点位置から見た合成画像をユーザが確認できる。   Next, when the vehicle 9 travels along the route RU, when the vehicle 9 approaches the point PN1 on the left lane LA, guidance information indicating that the position of the vehicle 9 is changed from the left lane LA to the right lane RB. Is notified from the display device 20 to the user. When such guidance information is notified, a composite image viewed from a virtual viewpoint (for example, a composite image viewed from a virtual viewpoint in the viewing direction of the vehicle 9 at the viewpoint position of the driver of the approaching vehicle 10) Is generated by the composite image generation unit 32. The generated composite image is displayed on the display 24. In this way, the user can confirm the composite image viewed from the virtual viewpoint position corresponding to the guidance information notified from the display device 20.

また、交差点CR上の地点PN2に車両9が接近した場合に、交差点CRで車両9を右折させ、右車線RBから車線MCに車両9を移動させる旨の案内情報が表示装置20からユーザに報知される。そして、このような案内情報が報知される場合に、仮想視点から見た合成画像(例えば、車両9に対応する車両像91の少なくとも一部を含むように視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点から見た合成画像)が合成画像生成部32により生成される。これにより、車両9の走行車線の変更、および、交差点での進行方向の変更に応じた合成画像をユーザが確認できる。   When the vehicle 9 approaches the point PN2 on the intersection CR, the display device 20 informs the user of guidance information that the vehicle 9 is turned right at the intersection CR and moved from the right lane RB to the lane MC. Is done. When such guidance information is notified, the viewpoint position is the front of the vehicle 9 so as to include at least a part of the vehicle image 91 corresponding to the vehicle 9 when viewed from the virtual viewpoint, and the field of view A composite image viewed from a virtual viewpoint with the direction behind the vehicle 9) is generated by the composite image generation unit 32. Thereby, the user can confirm the composite image according to the change of the travel lane of the vehicle 9 and the change of the traveling direction at the intersection.

なお、案内情報を報知する地点に車両9が接近した場合とは、例えば車両9と案内情報を報知する地点との直線の距離が50mとなった場合をいうが、これ以外の距離としてもよい。   The case where the vehicle 9 approaches the point where the guidance information is notified refers to, for example, a case where the distance of the straight line between the vehicle 9 and the point where the guidance information is notified becomes 50 m, but other distances may be used. .

<10−2.仮想視点の視点位置と視野方向> <10-2. Virtual viewpoint position and viewing direction>

図43は、案内情報を報知する地点での仮想視点の視点位置と視野方向の例を示す図である。図43の左図は、車両9が地点PN1に接近した場合に車両9が左車線LAから右車線RBに車線変更する案内の報知がユーザへ行われたときに、合成画像が生成される仮想視点VP61の視点位置と視野方向を示すものである。詳細には、仮想視点VP61は接近車両10のドライバーの視点位置で、車両9の存在する視野方向の仮想視点であり、この仮想視点VP61から見た合成画像が合成画像生成部32により生成される。   FIG. 43 is a diagram illustrating an example of the viewpoint position and visual field direction of the virtual viewpoint at a point where the guidance information is notified. The left diagram in FIG. 43 shows a virtual image in which a composite image is generated when the user is informed of a guidance for changing the lane from the left lane LA to the right lane RB when the vehicle 9 approaches the point PN1. It shows the viewpoint position and viewing direction of the viewpoint VP61. Specifically, the virtual viewpoint VP61 is a viewpoint position of the driver of the approaching vehicle 10 and is a virtual viewpoint in the visual field direction where the vehicle 9 exists, and a composite image viewed from the virtual viewpoint VP61 is generated by the composite image generation unit 32. .

また、図43の右図は、車両9が地点PN2に接近した場合に車両9が右車線RBから交差点CRを右折して車線MCに移動する案内情報の報知がユーザに行われたときに、合成画像が生成される仮想視点VP62の視点位置と視野方向を示すものである。詳細には、仮想視点VP62は車両9に対応する車両像91の少なくとも一部を含むように視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点である。そして、この仮想視点VP62から見た合成画像が合成画像生成部32により生成される。   43, when the vehicle 9 approaches the point PN2, when the user is notified of guidance information that the vehicle 9 turns right from the right lane RB at the intersection CR and moves to the lane MC. It shows the viewpoint position and visual field direction of the virtual viewpoint VP62 where the composite image is generated. Specifically, the virtual viewpoint VP62 is a virtual viewpoint in which the viewpoint position is the front of the vehicle 9 and the visual field direction is the rear of the vehicle 9 so as to include at least a part of the vehicle image 91 corresponding to the vehicle 9. Then, the composite image viewed from the virtual viewpoint VP62 is generated by the composite image generation unit 32.

<10−3.表示画像>   <10-3. Display image>

図44は、仮想視点VP61およびVP62から見た合成画像を示す図である。合成画像PT61は車両9の車線変更の案内情報がユーザに報知される場合に、ディスプレイ24に映し出される合成画像である。詳細には、接近車両10のドライバーの仮想視点から見た合成画像であり、接近車両10の前方を走行する車両9の車両像91aがディスプレイ24に映し出されている。また、車両9が左車線LAから右車線RBに車線変更する場合の車両9の移動位置である移動位置画像trがディスプレイ24に映し出されている。また、接近車両像101の進行方向を示す接近状態画像ad1が合成画像に重畳して映し出されている。   FIG. 44 is a diagram illustrating a composite image viewed from the virtual viewpoints VP61 and VP62. The composite image PT61 is a composite image displayed on the display 24 when the user is notified of the lane change guidance information of the vehicle 9. Specifically, it is a composite image viewed from the virtual viewpoint of the driver of the approaching vehicle 10, and the vehicle image 91 a of the vehicle 9 traveling in front of the approaching vehicle 10 is displayed on the display 24. In addition, a movement position image tr that is the movement position of the vehicle 9 when the vehicle 9 changes lanes from the left lane LA to the right lane RB is displayed on the display 24. Further, an approaching state image ad1 indicating the traveling direction of the approaching vehicle image 101 is displayed superimposed on the composite image.

また、合成画像PT62は、車両9の交差点での方向変更の案内情報がユーザに報知される場合に、ディスプレイ24に映し出される合成画像である。詳細には、仮想視点VP62は車両9に対応する車両像91の少なくとも一部を含むように車両9の前方から後方の仮想視点から見た合成画像であり、車両9に対応する車両像91bを含む画像が映し出されている。このようにユーザに報知される案内情報の内容に応じて、合成画像の仮想視点を変更する。これにより、案内情報の内容に対応する車両の走行状況に応じた合成画像をユーザが確認できる。   The composite image PT62 is a composite image that is displayed on the display 24 when the direction change guidance information at the intersection of the vehicle 9 is notified to the user. Specifically, the virtual viewpoint VP62 is a composite image viewed from the virtual viewpoint behind the vehicle 9 so as to include at least a part of the vehicle image 91 corresponding to the vehicle 9, and the vehicle image 91b corresponding to the vehicle 9 is displayed. The image including it is projected. Thus, the virtual viewpoint of the composite image is changed according to the content of the guidance information notified to the user. Thereby, the user can confirm the composite image according to the driving | running | working condition of the vehicle corresponding to the content of guidance information.

なお、合成画像PT62には接近車両10に対応する接近車両像101が画像中に映し出されていないが、接近車両10が車両9に接近している場合は、接近車両に対応する接近車両像101を含む合成画像を映し出すようにしてもよい。
<10−4.処理フローチャート>
図45および図46は、表示装置20が案内情報の報知を行う場合に、画像処理装置11aが合成画像をディスプレイ24に表示する処理フローチャートである。ステップS601では、車両9に備えられた車載カメラで撮影した車両9の周辺の撮影画像を画像処理装置11aが取得して(ステップS601)、ステップS602の処理に進む。
In the composite image PT62, the approaching vehicle image 101 corresponding to the approaching vehicle 10 is not shown in the image. However, when the approaching vehicle 10 is approaching the vehicle 9, the approaching vehicle image 101 corresponding to the approaching vehicle is displayed. You may make it project the composite image containing.
<10-4. Processing flowchart>
45 and 46 are processing flowcharts in which the image processing device 11a displays a composite image on the display 24 when the display device 20 notifies the guidance information. In step S601, the image processing device 11a acquires a photographed image around the vehicle 9 photographed by the in-vehicle camera provided in the vehicle 9 (step S601), and the process proceeds to step S602.

ステップS602では、車両9が目的地までの経路RUに沿って走行する場合に,表示装置20からユーザに報知する案内情報を画像処理装置11aが取得して(ステップS602)、ステップS603の処理に進む。   In step S602, when the vehicle 9 travels along the route RU to the destination, the image processing device 11a acquires guidance information to be notified to the user from the display device 20 (step S602), and the processing in step S603 is performed. move on.

ステップS603では、ユーザへの第1案内情報(例えば、車両9の走行車線の変更に対応した案内情報)を表示装置20から通信部23を介して画像処理装置11aが取得した場合(ステップS603がYes)は、ステップS604の処理に進む。なお、ユーザへの第1案内情報を表示装置20から通信部23を介して画像処理装置11aが取得していない場合(ステップS603がNo)は処理を終了する。   In step S603, when the image processing apparatus 11a acquires the first guidance information to the user (for example, guidance information corresponding to the change of the travel lane of the vehicle 9) from the display device 20 via the communication unit 23 (step S603). Yes), the process proceeds to step S604. If the image processing apparatus 11a has not acquired the first guidance information for the user from the display device 20 via the communication unit 23 (No in step S603), the process ends.

ステップS604では、車両9に備えられたバックカメラ52により車両9の後方から接近する接近車両10の存在が検出部112により検知された場合(ステップS604がYes)は、ステップS605に進む。   In step S604, when the presence of the approaching vehicle 10 approaching from the rear of the vehicle 9 is detected by the back camera 52 provided in the vehicle 9 (step S604 is Yes), the process proceeds to step S605.

ステップS605では、接近車両10が存在するため第1仮想視点(例えば、接近車両10のドライバーの視点位置で、車両9の存在する視野方向の仮想視点VP61)が画像処理装置11aにより設定され(ステップS605)、ステップS607の処理に進む。   In step S605, since the approaching vehicle 10 exists, the first virtual viewpoint (for example, the virtual viewpoint VP61 in the visual field direction where the vehicle 9 exists at the viewpoint position of the driver of the approaching vehicle 10) is set by the image processing apparatus 11a (step S605). S605), the process proceeds to step S607.

ステップS604に戻り、バックカメラ52で撮影された画像により車両9の後方から接近する接近車両10の存在が検出部112により検知されていない場合(ステップS604がNo)は、ステップS606の処理に進む。   Returning to step S604, if the presence of the approaching vehicle 10 approaching from the rear of the vehicle 9 is not detected by the detection unit 112 based on the image captured by the back camera 52 (step S604 is No), the process proceeds to step S606. .

ステップS606では、接近車両10が存在しないため、第2仮想視点(例えば、車両9に対応する車両像91の少なくとも一部を含むように視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点VP62)が画像処理装置11aにより設定され(ステップS606)、ステップS607の処理に進む。   In step S606, since the approaching vehicle 10 does not exist, the second virtual viewpoint (for example, the viewpoint position is the front of the vehicle 9 so as to include at least a part of the vehicle image 91 corresponding to the vehicle 9, and the viewing direction is the vehicle 9). The rear virtual viewpoint VP62) is set by the image processing apparatus 11a (step S606), and the process proceeds to step S607.

ステップS607では、画像処理装置11aにより設定された仮想視点から見た合成画像を合成画像生成部32が生成し(ステップS607)、通信部61を介して表示装置20に合成画像が出力され(ステップS608)、ステップS609の処理に進む。   In step S607, the composite image generation unit 32 generates a composite image viewed from the virtual viewpoint set by the image processing apparatus 11a (step S607), and the composite image is output to the display device 20 via the communication unit 61 (step S607). S608), the process proceeds to step S609.

ステップS609では、ユーザへの第2案内情報(例えば、交差点を右折する車両9の進行方向の変更に対応した案内情報)を表示装置20から通信部23を介して画像処理装置11aが取得した場合(ステップS609がYes)は、ステップS610の処理に進む。なお、ユーザへの第2案内情報を表示装置20から通信部23を介して画像処理装置11aが取得していない場合(ステップS609がNo)は処理を終了する。   In step S609, when the image processing apparatus 11a acquires second guidance information for the user (for example, guidance information corresponding to a change in the traveling direction of the vehicle 9 turning right at the intersection) from the display device 20 via the communication unit 23. In step S609, the process proceeds to step S610. If the image processing apparatus 11a has not acquired the second guidance information for the user from the display device 20 via the communication unit 23 (No in step S609), the process ends.

ステップS610では、車両9に備えられたバックカメラ52で撮影された画像により車両9の後方から接近する接近車両10の存在が検出部112により検知された場合(ステップS610がYes)は、ステップS611に進む。   In step S610, when the presence of the approaching vehicle 10 approaching from the rear of the vehicle 9 is detected by the image captured by the back camera 52 provided in the vehicle 9 (step S610 is Yes), the process proceeds to step S611. Proceed to

ステップS611では、接近車両10が存在するため第1仮想視点(例えば、接近車両10のドライバーの視点位置で、車両9の存在する視野方向の仮想視点VP61)が画像処理装置11aにより設定され(ステップS611)、ステップS613の処理に進む。   In step S611, since the approaching vehicle 10 exists, the first virtual viewpoint (for example, the virtual viewpoint VP61 in the visual field direction where the vehicle 9 exists at the viewpoint position of the driver of the approaching vehicle 10) is set by the image processing device 11a (step S611). S611), the process proceeds to step S613.

ステップS610に戻って、バックカメラ52により車両9の後方から接近する接近車両10の存在が検出部112により検知されていない場合(ステップS610がNo)は、ステップS612の処理に進む。   Returning to step S610, if the detection unit 112 has not detected the presence of the approaching vehicle 10 approaching from the rear of the vehicle 9 by the back camera 52 (No in step S610), the process proceeds to step S612.

ステップS612では、接近車両10が存在しないため、第2仮想視点(例えば、車両9に対応する車両像91の少なくとも一部を含むように視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点VP62)が画像処理装置11aにより設定され(ステップS612)、ステップS613の処理に進む。   In step S612, since the approaching vehicle 10 does not exist, the second virtual viewpoint (for example, the viewpoint position is the front of the vehicle 9 so as to include at least a part of the vehicle image 91 corresponding to the vehicle 9, and the visual field direction is the vehicle 9). The rear virtual viewpoint VP62) is set by the image processing apparatus 11a (step S612), and the process proceeds to step S613.

ステップS613では、画像処理装置11aにより設定された仮想視点から見た合成画像を合成画像生成部32が生成し(ステップS613)、通信部61を介して表示装置20に合成画像が出力される(ステップS614)。   In step S613, the composite image generation unit 32 generates a composite image viewed from the virtual viewpoint set by the image processing device 11a (step S613), and the composite image is output to the display device 20 via the communication unit 61 (step S613). Step S614).

<変形例>   <Modification>

以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。なお、上記実施の形態で説明した形態、および、以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. In addition, all the forms including the form demonstrated in the said embodiment and the form demonstrated below are combinable suitably.

上記実施の形態において、接近車両10とは車両9の後方を走行する車両で、かつ、車両9の走行する車線に隣接する車線を走行する車両以外にも、車両9の後方を走行する車両で、かつ、車両9の走行する車線と同じ車線を走行する車両も含む。   In the above embodiment, the approaching vehicle 10 is a vehicle that travels behind the vehicle 9 and is a vehicle that travels behind the vehicle 9 in addition to a vehicle that travels in the lane adjacent to the lane in which the vehicle 9 travels. And the vehicle which drive | works the same lane as the lane which the vehicle 9 drive | works is also included.

上記実施の形態において、接近車両10とは車両9の後方を走行する車両以外に車両9の側方を走行する車両も含む。   In the above embodiment, the approaching vehicle 10 includes a vehicle that travels on the side of the vehicle 9 in addition to a vehicle that travels behind the vehicle 9.

上記実施の形態において、不揮発性メモリ4に仮想視点情報41を予め記録しておき、仮想視点VPの視点位置および視野方向を設定する場合に、画像処理部3が読み出すことについて説明した。これ以外にも仮想視点VPの視点位置および視野方向を設定する場合に、車両9に対する接近車両10の位置に基づいて画像制御部111が仮想視点の視点位置および視野方向を演算して導出するようにしてもよい。   In the above embodiment, it has been described that the virtual viewpoint information 41 is recorded in the nonvolatile memory 4 in advance and the image processing unit 3 reads the virtual viewpoint information VP when the viewpoint position and the visual field direction of the virtual viewpoint VP are set. In addition to this, when setting the viewpoint position and viewing direction of the virtual viewpoint VP, the image control unit 111 calculates and derives the viewpoint position and viewing direction of the virtual viewpoint based on the position of the approaching vehicle 10 with respect to the vehicle 9. It may be.

また、上記実施の形態において、検出部112が、車両9の後方からの接近車両10の存在を検出する場合、車両9の後方に備えられたバックカメラ52の撮影画像から画像中の車両9の後方に存在する接近車両10を検出することを説明した。そのほかにもバックカメラ以外の他のカメラを接近車両10の存在を検出するカメラとして用いてもよい。   Moreover, in the said embodiment, when the detection part 112 detects presence of the approaching vehicle 10 from the back of the vehicle 9, from the picked-up image of the back camera 52 with which the back of the vehicle 9 was equipped, the vehicle 9 in an image It has been described that the approaching vehicle 10 existing behind is detected. In addition, a camera other than the back camera may be used as a camera for detecting the presence of the approaching vehicle 10.

また、上記実施の形態において、接近車両10の存在の検出、および、車両9に対する接近車両10の位置情報の取得は、車両9に車両9の外部に送信した送信波のうち物体から反射した反射波を受信して、車両9からの物体の距離、角度、および、相対速度の情報を取得するレーダ装置などの装置を車両9に備えて行ってもよい。   Further, in the above embodiment, the detection of the presence of the approaching vehicle 10 and the acquisition of the position information of the approaching vehicle 10 relative to the vehicle 9 are reflected from the object among the transmitted waves transmitted to the vehicle 9 outside the vehicle 9. The vehicle 9 may be provided with a device such as a radar device that receives information on the distance, angle, and relative speed of the object from the vehicle 9 by receiving waves.

また、上記実施の形態において、接近車両10が存在する車線は車両9の走行する右側(+X方向)に隣接する車線について述べたが、車両9の走行する左側(−X方向)に隣接する車線に接近車両10が存在する場合も上記実施の形態の内容を同様に適用できる。   In the above embodiment, the lane where the approaching vehicle 10 exists is described as the lane adjacent to the right side (+ X direction) where the vehicle 9 travels, but the lane adjacent to the left side (−X direction) where the vehicle 9 travels. Even when the approaching vehicle 10 exists, the contents of the above embodiment can be similarly applied.

また、上記実施の形態において、車両像91および接近車両像101が合成画像中に含まれる場合とは、車両像91および接近車両像101の全体像だけでなく一部の像だけでもよい。   In the above embodiment, the case where the vehicle image 91 and the approaching vehicle image 101 are included in the composite image may be not only the entire image of the vehicle image 91 and the approaching vehicle image 101 but also a part of the images.

また、上記実施の形態において、ディスプレイ24に表示される合成画像中の車両像91、および、接近車両像101の少なくとも一の像の位置を鏡に映したような位置としてもよい。   In the above-described embodiment, the position of at least one of the vehicle image 91 and the approaching vehicle image 101 in the composite image displayed on the display 24 may be set as a mirrored position.

また、上記実施の形態において、車両9の左右それぞれの方向から接近する接近車両が存在する場合は、車両9との前後方向(Y軸方向)の直線の値が小さい(車両9に最も接近している)接近車両10を導出部113が導出する。そして、当該接近車両と車両9との位置を結ぶ横方向(X軸方向)の直線の略中央の位置を仮想視点VPの視点位置とし、車両9の後方(+Y方向)を視野方向としてもよい。   Further, in the above embodiment, when there is an approaching vehicle approaching from the left and right directions of the vehicle 9, the value of the straight line with the vehicle 9 in the front-rear direction (Y-axis direction) is small (the vehicle 9 is closest). The deriving unit 113 derives the approaching vehicle 10. Then, the position of the approximate center of the straight line in the lateral direction (X-axis direction) connecting the approaching vehicle and the vehicle 9 may be the viewpoint position of the virtual viewpoint VP, and the rear (+ Y direction) of the vehicle 9 may be the viewing direction. .

また、上記実施の形態において、車両9に対する接近車両10の位置に応じて、仮想視点から見た合成画像をディスプレイ24に表示を行わないようにしてもよい。つまり、車両9に対する接近車両10の位置が所定の位置よりも大きく離れている場合は、車両9と接近車両10との衝突の危険性が少ないため、ディスプレイ24に合成画像を表示しないようにしてもよい。   Moreover, in the said embodiment, according to the position of the approaching vehicle 10 with respect to the vehicle 9, you may make it not display on the display 24 the synthesized image seen from the virtual viewpoint. In other words, when the position of the approaching vehicle 10 with respect to the vehicle 9 is far away from the predetermined position, there is less risk of a collision between the vehicle 9 and the approaching vehicle 10, so that the composite image is not displayed on the display 24. Also good.

また、上記実施の形態において、車両9に対する接近車両10の位置に応じて合成画像中に表示される車両像91および接近車両像101の少なくともいずれか一つの画像のサイズを変更するようにしてもよい。   In the above embodiment, the size of at least one of the vehicle image 91 and the approaching vehicle image 101 displayed in the composite image may be changed according to the position of the approaching vehicle 10 with respect to the vehicle 9. Good.

また、第1の実施の形態において、軸線sh1は、例えば車両9が走行する車線と接近車両10が走行する車線を区画する区画線である。   Further, in the first embodiment, the axis sh1 is a lane marking that divides, for example, a lane in which the vehicle 9 travels and a lane in which the approaching vehicle 10 travels.

また、第2の実施の形態において、仮想視点VPの移動を軸線sh2を基準に反時計回りの方向としたが、車両9に対する接近車両10の位置に応じて、仮想視点VPの移動を軸線sh2を基準に時計回りとしてもよい。   In the second embodiment, the virtual viewpoint VP is moved in the counterclockwise direction with respect to the axis sh2, but the virtual viewpoint VP is moved in the axis sh2 according to the position of the approaching vehicle 10 with respect to the vehicle 9. It is good also as clockwise with reference to.

また、第1および第2の実施の形態において、車両9の走行車線の変更に伴うユーザの操作を操作検知部114が検知した場合に、合成画像生成部32が合成画像を生成し、生成された合成画像をディスプレイ24に表示するようにしてもよい。   Further, in the first and second embodiments, when the operation detection unit 114 detects a user operation associated with a change in the travel lane of the vehicle 9, the composite image generation unit 32 generates a composite image and generates the composite image. The synthesized image may be displayed on the display 24.

また、第3の実施の形態において、接近車両10が車両9の移動位置へ到達する時間、および、接近車両10と車両9との位置の少なくともいずれか一の条件に応じて合成画像に重畳表示させる警告画像の種類および数など変更するようにしてもよい。   In the third embodiment, the superimposed image is superimposed and displayed on the composite image according to at least one of the time for the approaching vehicle 10 to reach the moving position of the vehicle 9 and the position of the approaching vehicle 10 and the vehicle 9. The type and number of warning images to be changed may be changed.

また、第3の実施の形態において、車両9の走行車線変更に伴う動作の有無の判断処理(ステップS201の処理)を接近車両10の存在の有無を判定する処理(ステップS101の処理)の前に行うようにしたが、当該処理を別の処理位置で行うようにしてもよい。例えば、車両9の移動時間と接近車両10の移動時間とを比較する処理(ステップS204の処理)の前にステップS201の処理を行うようにしてもよい。   Further, in the third embodiment, before the process of determining whether or not the approaching vehicle 10 is present (the process of step S101), the process of determining the presence or absence of an operation accompanying the change of the traveling lane of the vehicle 9 (the process of step S201). However, the processing may be performed at a different processing position. For example, the process of step S201 may be performed before the process of comparing the travel time of the vehicle 9 and the travel time of the approaching vehicle 10 (process of step S204).

また、第3および第4の実施の形態において、車両9の走行する車線と隣接車線とを区画する区画線の画像の位置の変化により車両9の車線変更時間を導出するようにしてもよい。   In the third and fourth embodiments, the lane change time of the vehicle 9 may be derived from the change in the position of the image of the lane marking that divides the lane in which the vehicle 9 travels and the adjacent lane.

また、第4の実施の形態において、学習部118が車線変更時間を導出する際にステアリングホイールの操舵角の情報を用いる説明を行ったが、ステアリングホイールの操舵角の角速度の情報を用いて処理を行ってもよい。   Further, in the fourth embodiment, the learning unit 118 has been described using the information on the steering angle of the steering wheel when deriving the lane change time. May be performed.

また、第4の実施の形態において、車両9のユーザの車線変更時間は車両9の速度ごとに記録してもよい。例えば、車両9の速度を低速(例えば40km/h)、中速(例えば60km/h)、高速(例えば80km/h)の速度帯に分けて、各速度帯ごとのユーザの車線変更時間を記録してもよい。また、車両9の車線変更時間を車載カメラで撮影した区画線の画像に基づいて導出してもよい。   In the fourth embodiment, the lane change time of the user of the vehicle 9 may be recorded for each speed of the vehicle 9. For example, the speed of the vehicle 9 is divided into low speed (for example, 40 km / h), medium speed (for example, 60 km / h), and high speed (for example, 80 km / h), and the lane change time of the user for each speed band is recorded. May be. Moreover, you may derive | lead-out the lane change time of the vehicle 9 based on the image of the lane marking image | photographed with the vehicle-mounted camera.

また、第5の実施の形態において、画像処理装置11bに操作検知部114、予測部115、演算部116、および、判断部117を備え、車両9が車線変更する場合で、かつ、所定の条件を満たしたときに警告画像を表示するものとして説明した。これに対して、操作検知部114、予測部115、演算部116、および、判断部117を備えずに、接近車両10が検出部112により検出された場合に接近車両10のドライバーの位置の仮想視点から見た合成画像を合成画像生成部32が生成して、表示装置20のディスプレイ24に表示するようにしてもよい。   In the fifth embodiment, the image processing apparatus 11b includes the operation detection unit 114, the prediction unit 115, the calculation unit 116, and the determination unit 117, and the vehicle 9 changes lanes and a predetermined condition is satisfied. It has been described that a warning image is displayed when the condition is satisfied. In contrast, when the approaching vehicle 10 is detected by the detection unit 112 without the operation detection unit 114, the prediction unit 115, the calculation unit 116, and the determination unit 117, the virtual position of the driver of the approaching vehicle 10 is determined. The composite image viewed from the viewpoint may be generated by the composite image generation unit 32 and displayed on the display 24 of the display device 20.

また、第7の実施の形態において、仮想視点VP41から見た合成画像を生成は、接近車両10の存在を検出部112が検出していない場合に行うこととして説明したが、接近車両10の存在を検出部112が検出している場合に行うようにしてもよい。   Further, in the seventh embodiment, the generation of the composite image viewed from the virtual viewpoint VP41 has been described as being performed when the detection unit 112 does not detect the presence of the approaching vehicle 10, but the presence of the approaching vehicle 10 is described. May be performed when the detection unit 112 detects the above.

また、第8および第9の実施の形態において、フロントカメラ51により撮影された画像(例えば画像PT51a)を車両9と共に、接近車両10の位置に応じた仮想視点から見た合成画像をディスプレイ24に映し出す構成について説明した。これに対して、画像PT51aはフロントカメラ51により撮影された画像に限定されることなく、それ以外の一のカメラ(例えば、左サイドカメラ53など)で撮影した画像であってもよい。   In the eighth and ninth embodiments, a composite image obtained by viewing an image (for example, image PT51a) taken by the front camera 51 together with the vehicle 9 from a virtual viewpoint according to the position of the approaching vehicle 10 is displayed on the display 24. The configuration to project was explained. On the other hand, the image PT51a is not limited to the image captured by the front camera 51, and may be an image captured by another camera (for example, the left side camera 53).

また、第8および第9の実施の形態において、車両9の前方を走行する前方車両と車両9との距離が所定の距離を下回った場合に、フロントカメラ51の画像中の前方車両像102の周囲を囲う枠の画像を表示するようにしてもよい。これによりユーザは前方車両と衝突を回避するための車両9に対する操作を行える。   In the eighth and ninth embodiments, the front vehicle image 102 in the image of the front camera 51 is displayed when the distance between the vehicle traveling ahead of the vehicle 9 and the vehicle 9 is less than a predetermined distance. You may make it display the image of the frame which surrounds the circumference | surroundings. Thereby, the user can perform an operation on the vehicle 9 for avoiding a collision with the preceding vehicle.

また、第10の実施の形態において、表示装置20を用いて目的地を設定した場合に表示装置20からユーザに案内情報を報知する場合について述べた。これに対して、目的地を設定していない場合に表示装置20からユーザに案内情報が報知される場合に、合成画像生成部32が仮想視点から見た合成画像を生成するようにしてもよい。例えば、表示装置20を用いた目的地の設定がなされていない場合に、車両9が走行する車線の先で車線数が減少するときに、予め車線変更を行う必要がある旨の案内情報に対応する仮想視点から見た合成画像をディスプレイ24に映し出すようにしてもよい。   Further, in the tenth embodiment, a case has been described in which guidance information is notified from the display device 20 to the user when a destination is set using the display device 20. In contrast, when the destination information is notified from the display device 20 to the user when the destination is not set, the composite image generation unit 32 may generate a composite image viewed from the virtual viewpoint. . For example, when the destination is not set using the display device 20, when the number of lanes decreases ahead of the lane on which the vehicle 9 travels, it corresponds to guidance information indicating that it is necessary to change lanes in advance. The composite image viewed from the virtual viewpoint may be displayed on the display 24.

また、第10の実施の形態において、第1仮想視点設定および第2仮想視点設定として説明した仮想視点VP61およびVP62の視点位置および視野方向は一例であり、その他の視点位置および視野方向とする仮想視点から見た合成画像を生成するようにしてもよい。例えば、視点位置が車両9の車体の略中央、かつ、略直上の位置にあり、視野方向が車両9の鉛直下方に向けられている仮想視点である。   In the tenth embodiment, the viewpoint positions and viewing directions of the virtual viewpoints VP61 and VP62 described as the first virtual viewpoint setting and the second virtual viewpoint setting are examples, and other viewpoint positions and viewing directions are assumed to be virtual. A composite image viewed from the viewpoint may be generated. For example, it is a virtual viewpoint in which the viewpoint position is substantially in the center of the vehicle body of the vehicle 9 and a position just above it, and the visual field direction is directed vertically downward of the vehicle 9.

また、第10の実施の形態において、案内情報に対応した仮想視点から見た合成画像をディスプレイ24に映し出す場合、一の合成画像のみでなく仮想視点の視点位置等が異なる複数の合成画像をディスプレイ24に映し出すようにしてもよい。   In the tenth embodiment, when a composite image viewed from a virtual viewpoint corresponding to the guidance information is displayed on the display 24, not only one composite image but also a plurality of composite images with different viewpoint positions of the virtual viewpoint are displayed. 24 may be displayed.

1・・・・・制御部
3・・・・・画像処理部
5・・・・・撮影部
10・・・・画像処理装置
20・・・・表示装置
DESCRIPTION OF SYMBOLS 1 ... Control part 3 ... Image processing part 5 ... Imaging | photography part 10 ... Image processing apparatus 20 ... Display apparatus

Claims (17)

車両で用いられる画像表示システムであって、
車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画
像を生成する生成手段と、
前記車両の後方から接近する接近車両の存在を検出する検出手段と、
前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、
前記合成画像を表示する表示手段と、
を備え、
前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成すること、
を特徴とする画像表示システム。
An image display system used in a vehicle,
Acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle;
Generating means for combining the plurality of captured images to generate a combined image showing a state of the periphery of the vehicle viewed from a virtual viewpoint;
Detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle;
Deriving means for deriving the position of the approaching vehicle relative to the vehicle;
Display means for displaying the composite image;
With
It said generating means, Ri the composite image der viewed from the virtual viewpoint corresponding to the position of the approaching vehicle and the position of the vehicle, the approaching vehicle is increased the height of the virtual viewpoint closer to the vehicle Generating a specific composite image,
An image display system characterized by the above.
車両で用いられる画像表示システムであって、
車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画
像を生成する生成手段と、
前記車両の後方から接近する接近車両の存在を検出する検出手段と、
前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、
前記合成画像を表示する表示手段と、
を備え、
前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た
前記合成画像であり、前記仮想視点の視点位置を前記接近車両のドライバーの位置とし、前記仮想視点の視野方向を前記車両の存在する方向とする特定合成画像を生成すること、
を特徴とする画像表示システム。
An image display system used in a vehicle,
Acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle;
A composite image showing the surroundings of the vehicle viewed from a virtual viewpoint by combining the plurality of captured images
Generating means for generating an image;
Detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle;
Deriving means for deriving the position of the approaching vehicle relative to the vehicle;
Display means for displaying the composite image;
With
The generation means is viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle.
Generating a specific composite image that is the composite image, wherein the viewpoint position of the virtual viewpoint is the position of the driver of the approaching vehicle, and the visual field direction of the virtual viewpoint is the direction in which the vehicle exists ;
An image display system characterized by the above.
車両で用いられる画像表示システムであって、
車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画
像を生成する生成手段と、
前記車両の後方から接近する接近車両の存在を検出する検出手段と、
前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、
前記合成画像を表示する表示手段と、
を備え、
前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像である特定合成画像を生成し、
前記表示手段は、前記接近車両が存在しない場合は前記カメラからの前記撮影画像のうちの一の撮影画像を表示し、前記接近車両が存在する場合は前記一の撮影画像と共に前記特定合成画像を表示すること、
を特徴とする画像表示システム。
An image display system used in a vehicle,
Acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle;
A composite image showing the surroundings of the vehicle viewed from a virtual viewpoint by combining the plurality of captured images
Generating means for generating an image;
Detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle;
Deriving means for deriving the position of the approaching vehicle relative to the vehicle;
Display means for displaying the composite image;
With
The generation means generates a specific composite image that is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle,
The display means displays one captured image of the captured images from the camera when the approaching vehicle does not exist, and displays the specific composite image together with the one captured image when the approaching vehicle exists. Displaying,
An image display system characterized by the above.
車両で用いられる画像表示システムであって、
車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画
像を生成する生成手段と、
前記車両の後方から接近する接近車両の存在を検出する検出手段と、
前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、
前記合成画像を表示する表示手段と、
を備え、
前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像である特定合成画像を生成し、
前記表示手段は、視点位置を前記接近車両のドライバーの位置とし視野方向を前記車両の存在する方向とする前記仮想視点から見た前記特定合成画像と、視点位置を前記車両のドアミラー近傍の位置とし視野方向を前記接近車両の存在する方向とする前記仮想視点から見た前記特定合成画像とを前記車両のユーザの操作に応じて切り替えて表示すること、
を特徴とする画像表示システム。
An image display system used in a vehicle,
Acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle;
A composite image showing the surroundings of the vehicle viewed from a virtual viewpoint by combining the plurality of captured images
Generating means for generating an image;
Detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle;
Deriving means for deriving the position of the approaching vehicle relative to the vehicle;
Display means for displaying the composite image;
With
The generation means generates a specific composite image that is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle,
The display means uses the specific composite image viewed from the virtual viewpoint with the viewpoint position as the position of the driver of the approaching vehicle and the viewing direction as the direction in which the vehicle exists, and the viewpoint position as a position near the door mirror of the vehicle. Switching and displaying the specific composite image viewed from the virtual viewpoint with the view direction as the direction in which the approaching vehicle exists, according to the operation of the user of the vehicle;
An image display system characterized by the above.
請求項に記載の画像表示システムにおいて、
前記表示手段は、前記車両のユーザの操作に応じて前記一の撮影画像のサイズと前記特定合成画像のサイズとを切り替えて表示すること、
を特徴とする画像表示システム。
The image display system according to claim 3 ,
The display means switches between the size of the one captured image and the size of the specific composite image in accordance with an operation of a user of the vehicle;
An image display system characterized by the above.
請求項に記載の画像表示システムにおいて、
前記車両の走行車線の変更に伴う前記車両のユーザの操作を検知する操作検知手段をさらに備え、
前記表示手段は、前記ユーザの操作が検知された場合に前記特定合成画像を表示すること、
を特徴とする画像表示システム。
The image display system according to claim 1 ,
Further comprising an operation detecting means for detecting an operation of a user of the vehicle accompanying a change in a traveling lane of the vehicle,
The display means displays the specific composite image when an operation of the user is detected;
An image display system characterized by the above.
請求項に記載の画像表示システムにおいて、
前記生成手段は、前記仮想視点の位置を前記車両の前方とし、前記仮想視点の視野方向を前記車両後方として、前記車両の像および前記接近車両の像を含む前記特定合成画像を生成すること、
を特徴とする画像表示システム。
The image display system according to claim 6 ,
The generating means generates the specific composite image including the image of the vehicle and the image of the approaching vehicle with the position of the virtual viewpoint as the front of the vehicle and the visual field direction of the virtual viewpoint as the rear of the vehicle;
An image display system characterized by the above.
請求項に記載の画像表示システムにおいて、
前記生成手段は、前記仮想視点の視点位置を前記接近車両のドライバーの位置とし、前記仮想視点の視野方向を前記車両の存在する方向として、前記特定合成画像を生成すること、
を特徴とする画像表示システム。
The image display system according to claim 6 ,
The generating means generates the specific composite image with a viewpoint position of the virtual viewpoint as a position of a driver of the approaching vehicle and a visual field direction of the virtual viewpoint as a direction in which the vehicle exists;
An image display system characterized by the above.
請求項に記載の画像表示システムにおいて、
前記車両が走行車線を変更して移動する場合の移動位置を予測する予測手段と、
前記接近車両が前記移動位置に移動する第1移動時間を演算する演算手段と、
前記第1移動時間に基づいて前記車両の前記移動位置への移動の可否を判断する判断手段と、
をさらに備え、
前記生成手段は、前記移動の可否の判断結果を示す警告画像を前記合成画像に重畳させた画像を生成すること、
を特徴とする画像表示システム。
The image display system according to claim 6 ,
Predicting means for predicting a moving position when the vehicle moves by changing a traveling lane;
A calculation means for calculating a first movement time for the approaching vehicle to move to the movement position;
Determination means for determining whether the vehicle can move to the movement position based on the first movement time;
Further comprising
The generating unit generates an image in which a warning image indicating a determination result of the movement is superimposed on the composite image;
An image display system characterized by the above.
請求項に記載の画像表示システムにおいて、
前記生成手段は、前記警告画像を前記移動位置に重畳させた画像を生成すること、
を特徴とする画像表示システム。
The image display system according to claim 9 ,
The generating means generates an image in which the warning image is superimposed on the movement position;
An image display system characterized by the above.
請求項に記載の画像表示システムにおいて、
前記車両が前記移動位置に移動する第2移動時間を計測する計測手段と、
前記第2移動時間を学習記憶する記憶手段と、
をさらに備え、
前記判断手段は、前記第1移動時間と記憶された前記第2移動時間とに基づいて前記移動の可否を判断すること、
を特徴とする画像表示システム。
The image display system according to claim 9 ,
Measuring means for measuring a second moving time during which the vehicle moves to the moving position;
Storage means for learning and storing the second travel time;
Further comprising
The determination means determines whether the movement is possible based on the first movement time and the stored second movement time;
An image display system characterized by the above.
請求項6ないし11のいずれかに記載の画像表示システムにおいて、
前記ユーザの操作が検知され、かつ、前記接近車両が存在しない場合に、
前記生成手段は、前記仮想視点の視点位置を前記車両の前方とし、前記仮想視点の視野方向を前記車両後方として、前記車両の像と隣接車線の像とを含む前記合成画像である車両合成画像を生成し、
前記表示手段は、前記車両合成画像を表示すること、
を特徴とする画像表示システム。
The image display system according to any one of claims 6 to 11 ,
When the user's operation is detected and the approaching vehicle does not exist,
The generation means is a vehicle composite image that is the composite image including the image of the vehicle and the image of the adjacent lane, with the viewpoint position of the virtual viewpoint as the front of the vehicle and the visual field direction of the virtual viewpoint as the rear of the vehicle. Produces
The display means displays the vehicle composite image;
An image display system characterized by the above.
請求項1ないし12のいずれかに記載の画像表示システムにおいて、
前記車両の位置を取得する位置取得手段と、
前記車両の位置に応じて、前記車両の目的地までのルートを案内する案内情報をユーザ
に報知する報知手段と
をさらに備え、
前記表示手段は、前記報知手段が前記案内情報を報知する場合に、前記合成画像を表示すること、
を特徴とする画像表示システム。
The image display system according to any one of claims 1 to 12 ,
Position acquisition means for acquiring the position of the vehicle;
According to the position of the vehicle, the user receives guidance information for guiding a route to the destination of the vehicle.
An informing means for informing ;
Further comprising
The display means displays the composite image when the notification means notifies the guidance information;
An image display system characterized by the above.
請求項13に記載の画像表示システムにおいて、
前記生成手段は、前記報知手段が報知する前記案内情報の内容に応じて、前記合成画像の前記仮想視点を変更すること、
を特徴とする画像表示システム。
The image display system according to claim 13 ,
The generation means changes the virtual viewpoint of the composite image according to the content of the guidance information notified by the notification means,
An image display system characterized by the above.
請求項14に記載の画像表示システムにおいて、
前記案内情報は、走行車線の変更を案内する情報と、交差点での方向の変更を案内する情報とを含むこと、
を特徴とする画像表示システム。
The image display system according to claim 14 ,
The guidance information includes information for guiding a change in the driving lane and information for guiding a change in direction at an intersection.
An image display system characterized by the above.
車両で用いられる画像処理装置であって、
車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画
像を生成する生成手段と、
前記車両の後方から接近する接近車両の存在を検出する検出手段と、
前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、
を備え、
前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成すること、
を特徴とする画像処理装置。
An image processing apparatus used in a vehicle,
Acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle;
A composite image showing the surroundings of the vehicle viewed from a virtual viewpoint by combining the plurality of captured images
Generating means for generating an image;
Detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle;
Deriving means for deriving the position of the approaching vehicle relative to the vehicle;
With
The generation means is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle, and the height of the virtual viewpoint is increased as the approaching vehicle approaches the vehicle Generating a composite image,
An image processing apparatus.
車両で用いられる画像表示方法であって、
(a)車両に搭載されたカメラの複数の撮影画像を取得する工程と、
(b)前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す
合成画像を生成する工程と、
(c)前記車両の後方から接近する接近車両の存在を検出する工程と、
(d)前記車両に対する相対的な前記接近車両の位置を導出する工程と、
(e)前記合成画像を表示する表示する工程と、
を備え、
前記工程(b)は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成すること、
を特徴とする画像表示方法。
An image display method used in a vehicle,
(A) acquiring a plurality of captured images of a camera mounted on the vehicle;
(B) Combining the plurality of captured images to show the surroundings of the vehicle viewed from a virtual viewpoint
Generating a composite image; and
(C) detecting the presence of an approaching vehicle approaching from behind the vehicle;
(D) deriving a position of the approaching vehicle relative to the vehicle;
(E) displaying the composite image; and
With
The step (b) is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle, and increases the height of the virtual viewpoint as the approaching vehicle approaches the vehicle. Generating a specific composite image,
An image display method characterized by the above.
JP2011122387A 2011-05-31 2011-05-31 Information processing system, server device, and in-vehicle device Expired - Fee Related JP5681569B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011122387A JP5681569B2 (en) 2011-05-31 2011-05-31 Information processing system, server device, and in-vehicle device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011122387A JP5681569B2 (en) 2011-05-31 2011-05-31 Information processing system, server device, and in-vehicle device

Publications (2)

Publication Number Publication Date
JP2012253428A JP2012253428A (en) 2012-12-20
JP5681569B2 true JP5681569B2 (en) 2015-03-11

Family

ID=47525870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011122387A Expired - Fee Related JP5681569B2 (en) 2011-05-31 2011-05-31 Information processing system, server device, and in-vehicle device

Country Status (1)

Country Link
JP (1) JP5681569B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10464484B2 (en) 2015-08-04 2019-11-05 Denso Corporation Apparatus for presenting support images to a driver and method thereof
US11858424B2 (en) 2020-03-26 2024-01-02 Samsung Electronics Co., Ltd. Electronic device for displaying image by using camera monitoring system (CMS) side display mounted in vehicle, and operation method thereof

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6202240B2 (en) * 2013-02-05 2017-09-27 スズキ株式会社 Overhead image presentation device
JP6488628B2 (en) * 2014-10-14 2019-03-27 株式会社デンソー Video processing apparatus and in-vehicle video processing system
JP2017033402A (en) 2015-08-04 2017-02-09 株式会社デンソー Vehicle-mounted display control device and vehicle-mounted display control method
JP6406175B2 (en) * 2015-08-27 2018-10-17 株式会社デンソー In-vehicle display control device, in-vehicle display control method
JP6586849B2 (en) * 2015-10-01 2019-10-09 日産自動車株式会社 Information display device and information display method
RU2678436C1 (en) * 2015-10-08 2019-01-29 Ниссан Мотор Ко., Лтд. Display aid device and method of display aid
JP6744744B2 (en) * 2016-03-31 2020-08-19 株式会社Subaru Display device
JP6723820B2 (en) * 2016-05-18 2020-07-15 株式会社デンソーテン Image generation apparatus, image display system, and image display method
JP6769187B2 (en) * 2016-09-05 2020-10-14 日産自動車株式会社 Display method of display device and display device
JP6812181B2 (en) * 2016-09-27 2021-01-13 キヤノン株式会社 Image processing device, image processing method, and program
JP6816436B2 (en) * 2016-10-04 2021-01-20 アイシン精機株式会社 Peripheral monitoring device
JP6889587B2 (en) * 2017-03-31 2021-06-18 株式会社Subaru Image display device
JP6543313B2 (en) 2017-10-02 2019-07-10 株式会社エイチアイ Image generation record display device and program for mobile object
US11225193B2 (en) * 2017-10-26 2022-01-18 Harman International Industries, Incorporated Surround view system and method thereof
JP2019169042A (en) * 2018-03-26 2019-10-03 株式会社デンソーテン Viewpoint switching device and viewpoint switching method
JP6697115B2 (en) * 2019-06-14 2020-05-20 株式会社カンデラジャパン Image generating / recording / displaying device for moving body and program
JP7429865B2 (en) 2020-05-28 2024-02-09 パナソニックIpマネジメント株式会社 Display control device, vehicle and display control method
JP7398637B2 (en) 2020-05-28 2023-12-15 パナソニックIpマネジメント株式会社 Display control device, vehicle and display control method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4134939B2 (en) * 2004-04-22 2008-08-20 株式会社デンソー Vehicle periphery display control device
JP5070809B2 (en) * 2006-11-10 2012-11-14 アイシン精機株式会社 Driving support device, driving support method, and program
JP5088669B2 (en) * 2007-03-23 2012-12-05 株式会社デンソー Vehicle periphery monitoring device
JP2008269580A (en) * 2007-03-29 2008-11-06 Denso Corp Information providing device for vehicle
JP5104397B2 (en) * 2008-02-27 2012-12-19 富士通株式会社 Image processing apparatus and image processing method
JP5262515B2 (en) * 2008-09-25 2013-08-14 日産自動車株式会社 Vehicle display device and display method
JP5087051B2 (en) * 2009-07-02 2012-11-28 富士通テン株式会社 Image generating apparatus and image display system
JP5436086B2 (en) * 2009-08-03 2014-03-05 アルパイン株式会社 Vehicle periphery image display device and vehicle periphery image display method
JP5077307B2 (en) * 2009-08-05 2012-11-21 株式会社デンソー Vehicle surrounding image display control device
JP2010157252A (en) * 2010-02-04 2010-07-15 Sony Corp In-vehicle device, method for providing information of in-vehicle device, program of method for providing information of in-vehicle device, and recording medium having the program recorded therein

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10464484B2 (en) 2015-08-04 2019-11-05 Denso Corporation Apparatus for presenting support images to a driver and method thereof
US11858424B2 (en) 2020-03-26 2024-01-02 Samsung Electronics Co., Ltd. Electronic device for displaying image by using camera monitoring system (CMS) side display mounted in vehicle, and operation method thereof

Also Published As

Publication number Publication date
JP2012253428A (en) 2012-12-20

Similar Documents

Publication Publication Date Title
JP5681569B2 (en) Information processing system, server device, and in-vehicle device
EP3650285B1 (en) Parking assistance method and parking assistance device
KR101983957B1 (en) Display support device and display support method
JP5337878B2 (en) Driving assistance device
JP5743652B2 (en) Image display system, image generation apparatus, and image generation method
CN102740056B (en) Image display system
US8036823B2 (en) Navigation system
CN103140377A (en) Method for displaying images on a display device and driver assistance system
JP6699370B2 (en) Vehicle image processing device
JP2014189097A (en) Parking support device
JP2016134001A (en) Image generation apparatus, image generation method, and program
JP2012073836A (en) Image display system, image processing apparatus, and image display method
JP2012076551A (en) Parking support device, parking support method, and parking support system
JP2016063390A (en) Image processing system and image display system
JP2011148369A (en) Driving support device
JP2007168560A (en) Parking support apparatus
CN107539218B (en) Display control device
JP2008145364A (en) Route guiding device
US20200369151A1 (en) Display unit
JP4059309B2 (en) In-vehicle camera image display control method and apparatus
JP2012046124A (en) Image display system, image processing device and image display method
JP5677168B2 (en) Image display system, image generation apparatus, and image generation method
JP5651491B2 (en) Image display system, image display apparatus, and image display method
JP2010156627A (en) On-vehicle image display device
JP5643028B2 (en) Image display system, image processing apparatus, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150109

R150 Certificate of patent or registration of utility model

Ref document number: 5681569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees