JP5681569B2 - Information processing system, server device, and in-vehicle device - Google Patents
Information processing system, server device, and in-vehicle device Download PDFInfo
- Publication number
- JP5681569B2 JP5681569B2 JP2011122387A JP2011122387A JP5681569B2 JP 5681569 B2 JP5681569 B2 JP 5681569B2 JP 2011122387 A JP2011122387 A JP 2011122387A JP 2011122387 A JP2011122387 A JP 2011122387A JP 5681569 B2 JP5681569 B2 JP 5681569B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- approaching
- composite image
- virtual viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、画像の表示処理に関する。 The present invention relates to image display processing.
従来、車両の後方に備えられたカメラで撮影した画像中に車両の後方から接近する接近車両の像が存在する場合、画像中の接近車両の像の位置から車両に対する接近車両の位置を導出していた。そして、過去に検出した接近車両の位置と比べて車両に対する接近車両の位置が近くなった場合に、接近車両が車両に近づいていることをユーザに報知していた。 Conventionally, when there is an image of an approaching vehicle approaching from the rear of the vehicle in an image taken by a camera provided behind the vehicle, the position of the approaching vehicle relative to the vehicle is derived from the position of the approaching vehicle image in the image. It was. And when the position of the approaching vehicle with respect to the vehicle becomes close compared with the position of the approaching vehicle detected in the past, the user is notified that the approaching vehicle is approaching the vehicle.
そして、車両と接近車両との距離が所定の距離を下回った場合に、例えば車両のAピラー近傍に備えられたLEDなどの発光体を点灯させて、接近車両が車両に接近していることを車両のユーザに報知していた。このような報知を行う例としては、車両のユーザの操作により車両が走行する車線の変更を行う場合に、車両の移動位置に接近車両が接近しているときは、当該接近車両が存在していることを車両のユーザへ報知していた。このような場合、車両と接近車両との衝突の危険があるとして車両のユーザは車両の車線変更を取り止める場合があった。なお、本発明と関連する技術を説明する資料としては特許文献1がある。 When the distance between the vehicle and the approaching vehicle falls below a predetermined distance, for example, a light emitter such as an LED provided in the vicinity of the A-pillar of the vehicle is turned on to confirm that the approaching vehicle is approaching the vehicle. The vehicle user was informed. As an example of performing such notification, when an approaching vehicle is approaching the moving position of the vehicle when the lane in which the vehicle travels is changed by an operation of the user of the vehicle, the approaching vehicle exists. To the vehicle user. In such a case, the user of the vehicle may cancel the lane change of the vehicle because there is a risk of a collision between the vehicle and the approaching vehicle. Note that there is Patent Document 1 as a material for explaining the technology related to the present invention.
しかしながら、車線変更を行おうとする車両と接近車両との距離が所定の距離を下回った状態であっても、接近車両の車両に接近する速度が低速の場合は、接近車両が車両の移動位置に移動するよりも車両の移動位置への移動が早く行えるときがあった。つまり、接近車両の車両への接近状態によっては、車両のユーザの操作による車両の走行車線の変更が可能な場合があった。このようなことから車両に対する接近車両の接近状態をユーザが正確に把握できる技術が求められていた。 However, even when the distance between the vehicle that is about to change lanes and the approaching vehicle is less than a predetermined distance, if the approaching vehicle approaches the vehicle at a low speed, the approaching vehicle is moved to the moving position of the vehicle. In some cases, the vehicle can move to the moving position faster than the vehicle moves. That is, depending on the approaching state of the approaching vehicle to the vehicle, it may be possible to change the traveling lane of the vehicle by the operation of the user of the vehicle. For this reason, there is a need for a technique that allows the user to accurately grasp the approaching state of the approaching vehicle with respect to the vehicle.
本発明は上記課題に鑑みてなされたものであり、車両に対する接近車両の接近状態を車両のユーザが正確に把握できる技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technology that allows a user of a vehicle to accurately grasp the approaching state of an approaching vehicle to the vehicle.
上記課題を解決するため、請求項1の発明は、車両で用いられる画像表示システムであって、車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する生成手段と、前記車両の後方から接近する接近車両の存在を検出する検出手段と、前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、前記合成画像を表示する表示手段と、を備え、前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成する。
In order to solve the above-mentioned problem, an invention according to claim 1 is an image display system used in a vehicle, and combines the plurality of photographed images with an acquisition unit that obtains a plurality of photographed images of a camera mounted on the vehicle. And generating means for generating a composite image showing the state of the periphery of the vehicle viewed from a virtual viewpoint, detecting means for detecting the presence of an approaching vehicle approaching from the rear of the vehicle, and relative to the vehicle. Derivation means for deriving the position of the approaching vehicle; and display means for displaying the composite image, wherein the generation means is the composition viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle. image der is, the approaching vehicle to generate a specific composite image by increasing the height of the virtual viewpoint closer to the vehicle.
また、請求項2の発明は、車両で用いられる画像表示システムであって、車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する生成手段と、前記車両の後方から接近する接近車両の存在を検出する検出手段と、前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、前記合成画像を表示する表示手段と、を備え、前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記仮想視点の視点位置を前記接近車両のドライバーの位置とし、前記仮想視点の視野方向を前記車両の存在する方向とする特定合成画像を生成する。
Further, the invention of
また、請求項3の発明は、車両で用いられる画像表示システムであって、車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する生成手段と、前記車両の後方から接近する接近車両の存在を検出する検出手段と、前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、前記合成画像を表示する表示手段と、を備え、前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像である特定合成画像を生成し、前記表示手段は、前記接近車両が存在しない場合は前記カメラからの前記撮影画像のうちの一の撮影画像を表示し、前記接近車両が存在する場合は前記一の撮影画像と共に前記特定合成画像を表示する。
The invention of
また、請求項4の発明は、車両で用いられる画像表示システムであって、車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する生成手段と、前記車両の後方から接近する接近車両の存在を検出する検出手段と、前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、前記合成画像を表示する表示手段と、を備え、前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像である特定合成画像を生成し、前記表示手段は、視点位置を前記接近車両のドライバーの位置とし視野方向を前記車両の存在する方向とする前記仮想視点から見た前記特定合成画像と、視点位置を前記車両のドアミラー近傍の位置とし視野方向を前記接近車両の存在する方向とする前記仮想視点から見た前記特定合成画像とを前記車両のユーザの操作に応じて切り替えて表示する。
According to a fourth aspect of the present invention, there is provided an image display system used in a vehicle, wherein an acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle and the plurality of captured images are combined to generate a virtual viewpoint. Generating means for generating a composite image showing the state of the periphery of the vehicle viewed from the above, detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle, and the position of the approaching vehicle relative to the vehicle. Derivation means for deriving and display means for displaying the composite image, wherein the generation means is the specific composition that is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle An image is generated, and the display means displays the specific composite image viewed from the virtual viewpoint with the viewpoint position as the position of the driver of the approaching vehicle and the visual field direction as the direction in which the vehicle exists, and the viewpoint position as the viewpoint position. And the specific synthetic image viewed from the virtual viewpoint to present a direction of position and to the approaching vehicle the viewing direction of the door mirror vicinity of both displays are switched in response to user's operation of the vehicle.
また、請求項5の発明は、請求項3に記載の画像表示システムにおいて、前記表示手段は、前記車両のユーザの操作に応じて前記一の撮影画像のサイズと前記特定合成画像のサイズとを切り替えて表示する。
According to a fifth aspect of the present invention, in the image display system according to the third aspect , the display means determines the size of the one captured image and the size of the specific composite image in accordance with an operation of a user of the vehicle. Switch to display .
また、請求項6の発明は、請求項1に記載の画像表示システムにおいて、前記車両の走行車線の変更に伴う前記車両のユーザの操作を検知する操作検知手段をさらに備え、前記表示手段は、前記ユーザの操作が検知された場合に前記特定合成画像を表示する。
The invention of claim 6 is the image display system according to claim 1 , further comprising operation detection means for detecting an operation of a user of the vehicle accompanying a change in a traveling lane of the vehicle, wherein the display means includes: When the user operation is detected, the specific composite image is displayed .
また、請求項7の発明は、請求項6に記載の画像表示システムにおいて、前記生成手段は、前記仮想視点の位置を前記車両の前方とし、前記仮想視点の視野方向を前記車両後方として、前記車両の像および前記接近車両の像を含む前記特定合成画像を生成する。
Further, the invention of claim 7 is the image display system according to claim 6 , wherein the generating means sets the position of the virtual viewpoint to the front of the vehicle, and sets the visual direction of the virtual viewpoint to the rear of the vehicle. The specific composite image including a vehicle image and an approaching vehicle image is generated .
また、請求項8の発明は、請求項6に記載の画像表示システムにおいて、前記生成手段は、前記仮想視点の視点位置を前記接近車両のドライバーの位置とし、前記仮想視点の視野方向を前記車両の存在する方向として、前記特定合成画像を生成する。
In addition, according to an eighth aspect of the present invention, in the image display system according to the sixth aspect , the generating means sets the viewpoint position of the virtual viewpoint as the position of the driver of the approaching vehicle, and sets the viewing direction of the virtual viewpoint as the vehicle. The specific composite image is generated as the direction in which the image exists .
また、請求項9の発明は、請求項6に記載の画像表示システムにおいて、前記車両が走行車線を変更して移動する場合の移動位置を予測する予測手段と、前記接近車両が前記移動位置に移動する第1移動時間を演算する演算手段と、前記第1移動時間に基づいて前記車両の前記移動位置への移動の可否を判断する判断手段と、をさらに備え、前記生成手段は、前記移動の可否の判断結果を示す警告画像を前記合成画像に重畳させた画像を生成する。
Further, the invention of
また、請求項10の発明は、請求項9に記載の画像表示システムにおいて、前記生成手段は、前記警告画像を前記移動位置に重畳させた画像を生成する。
According to a tenth aspect of the present invention, in the image display system according to the ninth aspect , the generation unit generates an image in which the warning image is superimposed on the movement position .
また、請求項11の発明は、請求項9に記載の画像表示システムにおいて、前記車両が前記移動位置に移動する第2移動時間を計測する計測手段と、前記第2移動時間を学習記憶する記憶手段と、をさらに備え、前記判断手段は、前記第1移動時間と記憶された前記第2移動時間とに基づいて前記移動の可否を判断する。
The invention according to
また、請求項12の発明は、請求項6ないし11のいずれかに記載の画像表示システムにおいて、前記ユーザの操作が検知され、かつ、前記接近車両が存在しない場合に、前記生成手段は、前記仮想視点の視点位置を前記車両の前方とし、前記仮想視点の視野方向を前記車両後方として、前記車両の像と隣接車線の像とを含む前記合成画像である車両合成画像を生成し、前記表示手段は、前記車両合成画像を表示する。
The invention according to claim 12 is the image display system according to any one of claims 6 to 11 , wherein when the user's operation is detected and the approaching vehicle does not exist, the generation means Generating a vehicle composite image that is the composite image including the image of the vehicle and an image of an adjacent lane, with the viewpoint position of the virtual viewpoint being the front of the vehicle and the visual field direction of the virtual viewpoint being the rear of the vehicle; The means displays the vehicle composite image .
また、請求項13の発明は、請求項1ないし12のいずれかに記載の画像表示システムにおいて、前記車両の位置を取得する位置取得手段と、前記車両の位置に応じて、前記車両の目的地までのルートを案内する案内情報をユーザに報知する報知手段と、をさらに備え、前記表示手段は、前記報知手段が前記案内情報を報知する場合に、前記合成画像を表示する。
The invention according to claim 13 is the image display system according to any one of claims 1 to 12 , wherein the position acquisition means for acquiring the position of the vehicle, and the destination of the vehicle according to the position of the vehicle Notification means for notifying the user of guide information for guiding the route to the user, and the display means displays the composite image when the notification means notifies the guide information .
また、請求項14の発明は、請求項13に記載の画像表示システムにおいて、前記生成手段は、前記報知手段が報知する前記案内情報の内容に応じて、前記合成画像の前記仮想視点を変更する。
In addition, according to a fourteenth aspect of the present invention, in the image display system according to the thirteenth aspect , the generation unit changes the virtual viewpoint of the composite image according to the content of the guidance information notified by the notification unit. .
また、請求項15の発明は、請求項14に記載の画像表示システムにおいて、前記案内情報は、走行車線の変更を案内する情報と、交差点での方向の変更を案内する情報とを含む。
In the image display system according to claim 14 , the guidance information includes information for guiding the change of the traveling lane and information for guiding the direction change at the intersection .
また、請求項16の発明は、車両で用いられる画像処理装置であって、車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する生成手段と、前記車両の後方から接近する接近車両の存在を検出する検出手段と、前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、を備え、前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成する。
According to a sixteenth aspect of the present invention, there is provided an image processing apparatus used in a vehicle, wherein an acquisition unit that acquires a plurality of captured images of a camera mounted on the vehicle and the plurality of captured images are combined to generate a virtual viewpoint. Generating means for generating a composite image showing the state of the periphery of the vehicle viewed from the above, detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle, and the position of the approaching vehicle relative to the vehicle. Deriving means for deriving, wherein the generating means is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle, and the virtual vehicle as the approaching vehicle approaches the vehicle A specific composite image in which the height of the viewpoint is increased is generated .
また、請求項17の発明は、車両で用いられる画像表示方法であって、(a)車両に搭載されたカメラの複数の撮影画像を取得する工程と、(b)前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画像を生成する工程と、(c)前記車両の後方から接近する接近車両の存在を検出する工程と、(d)前記車両に対する相対的な前記接近車両の位置を導出する工程と、(e)前記合成画像を表示する表示する工程と、を備え、前記工程(b)は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成する。
The invention of claim 17 is an image display method used in a vehicle, wherein (a) a step of acquiring a plurality of photographed images of a camera mounted on the vehicle, and (b) a combination of the plurality of photographed images. And (c) detecting the presence of an approaching vehicle approaching from the rear of the vehicle; (d) for the vehicle; A step of deriving a relative position of the approaching vehicle; and (e) a step of displaying and displaying the composite image, wherein the step (b) depends on the position of the vehicle and the position of the approaching vehicle. In addition, the composite image viewed from the virtual viewpoint, and a specific composite image in which the height of the virtual viewpoint is increased as the approaching vehicle approaches the vehicle is generated .
請求項1の発明によれば、生成手段は、車両の位置と接近車両の相対的な位置に応じた仮想視点から見た合成画像である特定合成画像を生成することで、接近車両の位置を車両のユーザが正確に把握できる。 According to the first aspect of the present invention, the generation unit generates a specific composite image that is a composite image viewed from a virtual viewpoint corresponding to the position of the vehicle and the relative position of the approaching vehicle, thereby determining the position of the approaching vehicle. The vehicle user can accurately grasp.
また、請求項2の発明によれば、生成手段は、仮想視点の視点位置を車両の前方とし、仮想視点の視野方向を車両後方として、車両の像および接近車両の像を含む特定合成画像を生成することで、車両前方から見た接近車両の位置を車両のユーザが正確に把握できる。 According to a second aspect of the present invention, the generating means generates a specific composite image including a vehicle image and an approaching vehicle image with the viewpoint position of the virtual viewpoint as the front of the vehicle and the visual field direction of the virtual viewpoint as the rear of the vehicle. By generating, the user of the vehicle can accurately grasp the position of the approaching vehicle viewed from the front of the vehicle.
また、請求項3の発明によれば、生成手段は、接近車両が車両に近づくにつれて仮想視点の高さを上昇させた特定合成画像を生成することで、車両の像と接近車両の像とが合成画像中に含まれ、接近車両の位置を車両のユーザが正確に把握できる。
According to the invention of
また、請求項4の発明によれば、生成手段は、仮想視点の視点位置を接近車両のドライバーの位置とし、仮想視点の視野方向を車両の存在する方向として、特定合成画像を生成することで、接近車両のドライバー視点から車両の位置を車両のユーザは正確に把握できる。
According to the invention of
また、請求項5の発明によれば、表示手段は、接近車両が存在しない場合はカメラからの撮影画像のうちの一の撮影画像を表示し、接近車両が存在する場合は一の撮影画像と共に特定合成画像を表示することで、車両のユーザは接近車両の存在を早期に認識でき、接近車両の位置を正確に把握できる。
According to the invention of
また、請求項6の発明によれば、表示手段は、視点位置を接近車両のドライバーの位置とし視野方向を車両の存在する方向とする仮想視点から見た特定合成画像と、視点位置を車両のドアミラー近傍の位置とし視野方向を接近車両の存在する方向とする仮想視点から見た特定合成画像とを車両のユーザの操作に応じて切り替えて表示することで、ユーザの希望する仮想視点からの見た合成画像を表示して、接近車両の位置を正確に把握できる。 Further, according to the invention of claim 6, the display means includes a specific composite image viewed from a virtual viewpoint in which the viewpoint position is the position of the driver of the approaching vehicle and the visual field direction is the direction in which the vehicle exists, and the viewpoint position is the vehicle position. A specific composite image viewed from a virtual viewpoint having a position near the door mirror and a viewing direction as the direction in which the approaching vehicle is present is displayed by switching according to the operation of the user of the vehicle. The combined image can be displayed to accurately grasp the position of the approaching vehicle.
また、請求項7の発明によれば、表示手段は、車両のユーザの操作に応じて一の撮影画像のサイズと特定合成画像のサイズとを切り替えて表示することで、車両の走行状態に応じて車両のユーザの希望する画像のサイズを他の画像のサイズと比べて調整できる。 According to the seventh aspect of the present invention, the display means switches between the size of the one captured image and the size of the specific composite image in accordance with the operation of the user of the vehicle, so that it corresponds to the traveling state of the vehicle. Thus, the size of the image desired by the user of the vehicle can be adjusted as compared with the sizes of other images.
また、請求項8の発明によれば、表示手段は、ユーザの操作が検知された場合に特定合成画像を表示することで、車両のユーザは接近車両の位置を正確に把握して車両の車線変更の可否を容易に判断できる。 According to the invention of claim 8, the display means displays the specific composite image when the user's operation is detected, so that the user of the vehicle can accurately grasp the position of the approaching vehicle and the lane of the vehicle. It is possible to easily determine whether the change can be made.
また、請求項9の発明によれば、生成手段は、仮想視点の位置を車両の前方とし、仮想視点の視野方向を車両後方として、車両の像および接近車両の像を含む特定合成画像を生成することで、車両前方から見た接近車両の位置を車両のユーザは正確に把握して、車両の車線変更の可否を容易に判断できる。
According to the invention of
また、請求項10の発明によれば、生成手段は、仮想視点の視点位置を接近車両のドライバーの位置とし、仮想視点の視野方向を車両の存在する方向として、特定合成画像を生成することで、接近車両のドライバー視点から車両の位置を車両のユーザは正確に把握して、車両の車線変更の可否を容易に判断できる。
According to the invention of
また、請求項11の発明によれば、生成手段は、移動の可否の判断結果を示す警告画像を合成画像に重畳させることで、車両のユーザは接近車両の車両への接近状態を正確に把握して、車両の車線変更の可否を容易に判断できる。 According to the eleventh aspect of the present invention, the generation unit superimposes a warning image indicating the determination result of the movement on the composite image, so that the user of the vehicle accurately grasps the approaching state of the approaching vehicle to the vehicle. Thus, it is possible to easily determine whether the lane of the vehicle can be changed.
また、請求項12の発明によれば、表示手段は、現在の車両の位置に対応する表示態様で撮影画像を表示することで、車両の位置に対応する地点を初めて走行するユーザに撮影画像の最適な表示態様を提供できる。 According to the invention of claim 12, the display means displays the photographed image in a display mode corresponding to the current vehicle position, so that the user who travels for the first time at the point corresponding to the vehicle position can display the photographed image. An optimal display mode can be provided.
また、請求項13の発明によれば、判断手段は、第1移動時間と記憶された第2移動時間とに基づいて判断することで、車両9の移動位置への移動の可否を車両9のユーザの固有の車線変更時間に応じて、車両9のユーザが容易に判断できる。
According to the invention of claim 13, the determination means determines whether the
また、請求項14の発明によれば、生成手段は、ユーザの操作が検知され、かつ、接近車両が存在しない場合に、仮想視点の視点位置を車両の前方とし、仮想視点の視野方向を車両後方として、車両の像を含む合成画像である車両合成画像を生成し、表示手段は、車両合成画像を表示することで、接近車両の存在の有無に関わらず車両の車線変更の可否をユーザが容易に判断できる。 According to the invention of claim 14, when the user's operation is detected and there is no approaching vehicle, the generation means sets the viewpoint position of the virtual viewpoint to the front of the vehicle and sets the visual direction of the virtual viewpoint to the vehicle. As a rear, a vehicle composite image that is a composite image including an image of the vehicle is generated, and the display means displays the vehicle composite image, so that the user can determine whether the lane of the vehicle can be changed regardless of the presence of an approaching vehicle. Easy to judge.
また、請求項15の発明によれば、表示手段は、報知手段が案内情報を報知する場合に、合成画像を表示することで、案内情報に対応した仮想視点位置から見た合成画像をユーザが確認できる。 According to the invention of claim 15, the display means displays the composite image when the notification means notifies the guide information, so that the user can see the composite image viewed from the virtual viewpoint position corresponding to the guide information. I can confirm.
また、請求項16の発明によれば、生成手段は、報知手段が報知する案内情報の内容に応じて、合成画像の仮想視点を変更することで、案内情報の内容に対応する車両の走行状況に応じた合成画像を車両のユーザが確認できる。 According to the sixteenth aspect of the present invention, the generation means changes the virtual viewpoint of the composite image according to the content of the guidance information notified by the notification means, so that the vehicle traveling state corresponding to the content of the guidance information The user of the vehicle can confirm the composite image corresponding to the above.
また、請求項17の発明によれば、案内情報は、走行車線の変更を案内する情報と、交差点での方向の変更を案内する情報とを含むことで、走行車線の変更、および、交差点での進行方向の変更に応じた合成画像を車両のユーザが確認できる。 According to the invention of claim 17, the guidance information includes information for guiding the change of the traveling lane and information for guiding the change of the direction at the intersection, so that the change of the traveling lane and the intersection The user of the vehicle can confirm the composite image corresponding to the change in the traveling direction.
以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<第1の実施の形態> <First Embodiment>
<1.構成> <1. Configuration>
<1−1.画像表示システム> <1-1. Image display system>
図1は、画像表示システム120のブロック図である。撮影部5が搭載された車両(図2に示す車両9)の周辺を示す周辺画像を生成して画像情報を出力する画像処理装置11と、画像処理装置11から出力された画像を表示する表示装置20とを画像表示システム120は主に有している。
FIG. 1 is a block diagram of the
表示装置20は、ナビゲーション案内を表示するディスプレイを有するナビゲーション装置、音楽のタイトル情報やテレビの映像などを表示するディスプレイを備えたオーディオ装置、ユーザが携帯し車両9内へ持ち込んで使用可能なスマートフォンなどである。
The
また、表示装置20は装置全体を制御する制御部21と、制御部21の処理データなどを記憶する記憶部22と、画像処理装置11との間で通信を行う通信部23と、タッチパネル機能を備えた液晶などのディスプレイ24と、ユーザが操作を行う操作部25とを備えている。そして、ディスプレイ24の画面がユーザから視認可能なように、表示装置20は車両9のインストルメントパネルなどに設置される。ユーザからの各種の指示は、操作部25とタッチパネルとしてのディスプレイ24とによって受け付けられる。
The
制御部21は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。
The
制御部21は、主に表示制御部201、および、位置導出部202の機能を備えている。表示制御部201は、操作部25などからのユーザの操作に伴いディスプレイ24に表示される車載カメラの撮影画像の表示態様を制御する。
The
位置導出部202は、車両9の位置に対応する緯度・経度情報を導出する。このような車両9の位置はGPS(Global Positioning System)衛星からの電波の信号を受信し、受信した信号を制御部21で処理することにより実現される。GPSは、地球を周回する多数のGPS衛星のうち少なくとも3つ以上の衛星からの電波に基づいて車両9の位置を測位するシステムである。
The
記憶部22は、制御部21が表示装置20を制御するプログラムを記憶する。また、記憶部22は、ディスプレイ24に表示される地図画像の情報である地図情報202を記憶する。
The
通信部23は表示装置20と画像処理装置11との通信を行うインターフェースであり、画像処理装置からの画像情報等を受信したり、後述する操作部25がユーザに操作された場合の指示信号を画像処理装置11に送信する。
The
ディスプレイ24は、各種画像を表示する表示部であり、表示制御部201の制御により、通常は表示装置20単体の機能に基づく画像を表示する。そして、所定の条件下で画像処理装置11で生成された車両9の周辺の様子を示す周辺画像を表示する。これにより、表示装置20は、画像処理装置11で生成された周辺画像を受信して表示する装置としても機能する。
The
操作部25は、表示装置20の各種機能を実現するためにユーザが操作を行うものであり、例えば、表示装置20に設けられたハードスイッチなどである。また、操作部25をユーザが操作することでディスプレイ24に表示された車載カメラの撮影画像の表示態様を切り替えることができる。
The
画像処理装置11は、車両9の周辺画像を生成する機能を有するECU(Electronic Control Unit)であり、車両9の所定の位置に配置される。画像処理装置11は、撮影部5で車両9の周辺を撮影して得られる撮影画像に基づいて仮想視点からみた合成画像を生成する画像生成装置として機能する。また、画像処理装置11は撮影部5の一のカメラで撮影された画像を処理する装置としても機能する。撮影部5が備える複数の車載カメラ51、52、53、54は、画像処理装置11とは別の車両9の適位置に配置されるが詳細は後述する。
The
画像処理装置11は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の周辺画像を生成する画像処理部3を主に備えている。
The
表示装置20の操作部25、および、ディスプレイ24のいずれかによって受け付けられたユーザからの各種の指示は、表示装置20の通信部23を介して制御信号として通信部61に受け付けられて制御部1に入力される。これにより、画像処理装置11は、表示装置20に対するユーザの操作に応答した動作が可能となっている。
Various instructions from the user received by either the
画像処理部3は、各種の画像処理が可能なハードウェア回路として構成されており、画像取得部31、合成画像生成部32、および、画像出力部33を主な機能として備えている。
The
画像取得部31は、車両9の周辺を撮影する撮影部5の車載カメラ51、52、53、54で撮影された複数の撮影画像を取得する。
The
合成画像生成部32は、車載カメラ51、52、53、54で取得された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた合成画像を生成する。合成画像生成部32が仮想視点からみた合成画像を生成する手法については後述する。
The composite
また、画像出力部33は合成画像生成部32において生成された合成画像、および、その他の画像(たとえば、一のカメラで撮影された画像)の少なくとも一の画像を通信部61を介して表示装置20へ送信する。これにより、車両の周辺を示す周辺画像が表示装置20のディスプレイ24に表示される。
Further, the
制御部1は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す画像制御部111、検出部112、および、導出部113は、このようにして実現される制御部1の機能のうちの一部である。
The control unit 1 is a computer including a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a predetermined program. The
画像制御部111は、画像処理部3によって実行される画像処理を制御するものである。例えば、画像制御部111は、車両9の位置に応じた合成画像の生成に必要な各種パラメータを合成画像生成部32に指示する。このようなパラメータの指示は、例えば撮影画像の表示態様の切り替えに伴うユーザ操作の指示信号を制御部1が受信した場合に、画像制御部111が行う。
The
また、画像制御部111は車両9の位置と車両9の後方から車両9に接近する車両(以下、「接近車両」ともいう。例えば、図4および図5に示す接近車両10)の位置に応じた仮想視点から見た合成画像の生成を合成画像生成部32に指示する。
The
検出部112は、車両9の後方から接近する接近車両10の存在を検出する。つまり、車両9の後方に備えられたバックカメラ52の撮影画像から車両9の後方に存在する接近車両の像(以下、「接近車両像」ともいう。例えば、図7の合成画像PT1および合成画像PT2に示す接近車両像101)をエッジ検出などの処理により検出する。
The
なお、車両9に接近する接近車両10の存在の検出は、検出部112が過去に検出したある車両像の画像中の位置と、今回検出した当該車両像の画像中の位置との差に基づいて行う。また、接近車両10の存在を検出する別の方法としては、過去に検出したある車両像の画像中に占める大きさと今回検出した当該車両像の画像中に占める大きさとを比較により行う。
The detection of the presence of the approaching
導出部113は、車両9に対する接近車両10の相対的な位置を導出する。つまり、検出部112により検出された画像中の車両像91と接近車両像101との位置の差などから車両9に対する接近車両10の位置(車両9に対する接近車両10の距離、および、車両9に対する接近車両10の方向(角度))を導出する。
The deriving
また、画像処理装置11は、不揮発性メモリ4、通信部61、および、信号入力部62をさらに備えており、これらは制御部1に接続されている。
The
不揮発性メモリ4は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ4には、車種別情報40が記憶されている。車種別情報40は、合成画像生成部32が合成画像を生成する際に必要となる車両の種別に応じたデータを含んでいる。
The
また、不揮発性メモリ4は、車両9に対する接近車両10の位置に対応する仮想視点VPの視点位置および視野方向の情報である仮想視点情報41が記憶されている。そして、仮想視点VPの視点位置および視野方向を画像制御部111が設定する際に、車両9に対する接近車両10の位置に対応した仮想視点VPの視点位置および視野方向の情報が画像制御部111により不揮発性メモリ4から読み出される。
In addition, the
通信部61は、画像処理装置11が表示装置20との間で通信を行うためのインターフェースである。
The
信号入力部62は、車両9に設けられた各種装置からの信号の入力が行われる際のインターフェースである。信号入力部62を介して、画像処理装置11の外部からの信号が制御部1に入力される。具体的には、シフトセンサ81、車速センサ82、方向指示器83、および、操舵角センサ84などから、各種情報を示す信号が制御部1に入力される。
The
シフトセンサ81からは、車両9の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。車速センサ82からは、その時点の車両9の走行速度(km/h)が入力される。
From the
方向指示器83からは、ウインカースイッチの操作に基づく方向指示、すなわち、車両9のドライバーが意図する方向指示を示すターン信号が入力される。ウインカースイッチが操作されたときはターン信号が発生し、ターン信号はその操作された方向(左方向あるいは右方向)を示すことになる。ウインカースイッチが中立位置となったときは、ターン信号はオフとなる。
From the
操舵角センサ84からは、ユーザが操作したステアリングホイールの操作方向が制御部1に入力される。詳細には、操舵角センサ84には、ユーザが操作したステアリングホイールの回転方向、回転角度、及び、回転速度が信号入力部62を介して制御部1に入力される。
From the
<1−3.撮影部>
次に、画像処理装置11の撮影部5について詳細に説明する。撮影部5は、制御部1に電気的に接続され、制御部1からの信号に基づいて動作する。
<1-3. Shooting Department>
Next, the photographing
撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54を備えている。これらの車載カメラ51、52、53、54はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。
The
図2は、車載カメラ51、52、53、54が車両9に配置される位置を示す図である。なお、以下の説明においては、車両9を例に説明を行う。また、方向および向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は車両9に対して相対的に固定される。ここで、X軸方向は車両9の左右方向に沿い、Y軸方向は車両9の直進方向(前後方向)に沿い、Z軸方向は鉛直方向に沿っている。また、便宜上、+X側を車両A1の右側、+Y側を車両A1の後側、+Z側を上側とする。
FIG. 2 is a diagram illustrating positions where the in-
フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向(平面視でY軸方向の−Y側)に向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向(平面視でY軸方向の+Y側)に向けられている。また、左サイドカメラ53は、左のドアミラー93に設けられており、右サイドカメラ54は右のドアミラー94に設けられている。そして、光軸53aは車両9の左方向、光軸54aは車両9の右方向(平面視でX軸方向)に沿って外部に向けられている。なお、フロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
The
これらの車載カメラ51、52、53、54のレンズとしては魚眼レンズなどが採用されており、車載カメラ51、52、53、54は180度以上の画角αを有している。このため、4つの車載カメラ51、52、53、54を利用することで、車両9の全周囲の撮影が可能となっている。
As the lenses of these in-
<1−4.画像変換処理>
次に、画像処理部3の合成画像生成部32が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。合成画像を生成する際には、不揮発性メモリ4に予め記憶された車種別情報40が利用される。図3は、合成画像を生成する手法を説明するための図である。
<1-4. Image conversion processing>
Next, a method in which the composite
撮影部5のフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54で同時に撮影が行われると、車両9の前方、後方、左側方、および、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。
When the
次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SPに投影される。立体曲面SPは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9の存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、立体曲面SPの各画素の位置とは予め対応関係が定められている。このため、立体曲面SPの各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。
Next, each pixel of the four captured images P1 to P4 is projected onto a three-dimensional curved surface SP in a virtual three-dimensional space. The three-dimensional curved surface SP has, for example, a substantially hemispherical shape (a bowl shape), and a center portion (a bottom portion of the bowl) is determined as a position where the
撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51、52、53、54の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、不揮発性メモリ4に記憶された車種別情報40に含まれている。
The correspondence between the positions of the pixels of the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface SP is the arrangement of the four in-
また、車種別情報40に含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両A1の三次元形状を示すポリゴンモデルである車両像を仮想的に備えている。構成された車両像は、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。
Further, polygon data indicating the shape and size of the vehicle body included in the
さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。
Further, the virtual viewpoint VP is set by the control unit 1 for the three-dimensional space where the solid curved surface SP exists. The virtual viewpoint VP is defined by the viewpoint position and the visual field direction, and is set to an arbitrary visual field position corresponding to the periphery of the
そして、設定された仮想視点VPに応じて、立体曲面SPにおける必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ4等に予め記憶されている。つまり、設定された仮想視点VPに応じて画像の領域が切り出されて、ポリゴンで構成された車両像に関してレンダリングがなされ、その結果となる二次元の車両像が、切り出された画像に対して重畳される。これにより、車両9の周辺を任意の仮想視点からみた様子を示す合成画像が生成されることになる。
Then, according to the set virtual viewpoint VP, a necessary area on the three-dimensional curved surface SP is cut out as an image. The relationship between the virtual viewpoint VP and the necessary area in the three-dimensional curved surface SP is determined in advance, and stored in advance in the
例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VPAを設定した場合は、車両9の略直上から車両9を見下ろすように、車両9(実際には車両像であり、例えば、合成画像PTAに映し出されている車両像91)と車両9の周辺の様子を示す合成画像PTAが生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向を車両9における略前方とした仮想視点VPBを設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9(実際には車両像であり、例えば、合成画像PTBに映し出されている車両像91)と車両9の周辺の様子を示す合成画像PTBが生成される。
For example, when a virtual viewpoint VPA is set in which the viewpoint position is directly above the center of the position of the
なお、実際に合成画像を生成する場合においては、立体曲面SPの全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。
<1−5.仮想視点の視点位置と視野方向>
次に車両9と接近車両10の位置に応じた仮想視点の視点位置および視野方向について説明する。図4は、仮想視点VPの視点位置を主に説明する図である。また、図5および図6は、仮想視点VPの視野方向を主に説明する図である。
In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface SP, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint VP are photographed. By determining based on the images P1 to P4, the processing speed can be improved.
<1-5. Virtual viewpoint position and viewing direction>
Next, the viewpoint position and visual field direction of the virtual viewpoint according to the positions of the
図4には、車幅方向(X軸方向)の車両9の位置と接近車両10の位置との間の略中央の位置で、車両9の前後方向(Y軸方向)に延伸する軸線sh1が示されている。そして、軸線sh1を通り路面に鉛直な平面上で放物線を描くように移動する仮想視点VP1〜4が示されている。詳細には車両9に接近車両10が近づくにつれて、仮想視点VPの視点位置の高さが上昇する。また、仮想視点VPの移動は、車両像91と接近車両像101とが合成画像中に含まれるように行われる。このように仮想視点VPの視点位置を移動させることで、車両9の像と接近車両10の像とが合成画像中に含まれ、接近車両10の位置を車両9のユーザ(以下単位「ユーザ」ともいう。)が正確に把握できる。なお、仮想視点VP3からVP4への移動は、車両9が接近車両10を追い越した場合に行われる。
In FIG. 4, an axis sh <b> 1 extending in the front-rear direction (Y-axis direction) of the
具体的には、例えば仮想視点VP1の視点位置は車両9と接近車両10との距離が30m以上の場合に、仮想視点VP2の視点位置は車両9と接近車両10との距離が30m未満10m以上の場合にそれぞれ画像制御部111により設定される。また、仮想視点VP3の視点位置は車両9と接近車両10との距離が10m未満1m以上の場合に、仮想視点VP4の視点位置は車両9と接近車両10との距離が1m未満となった後、接近車両10が車両9を追い越した場合にそれぞれ画像制御部111により設定される。
Specifically, for example, when the viewpoint position of the virtual viewpoint VP1 is 30 meters or more between the
図5は、仮想視点VP1の視野方向と仮想視点VP2の視野方向とを主に説明する図である。図5の左図に示す仮想視点VP1の視野方向は、車両9の前方(−Y方向)の視点位置から車両9の後方に向けられている。
詳細には、合成画像中の接近車両像101の位置から、直接、車両9までを結ぶ直線CL1を導出部113が導出する。つまり、合成画像中の接近車両像101の位置から、車両9に対する接近車両10の方向と、車両9に対する接近車両10の距離を導出部113が導出する。
FIG. 5 is a diagram for mainly explaining the visual field direction of the virtual viewpoint VP1 and the visual field direction of the virtual viewpoint VP2. The visual field direction of the virtual viewpoint VP1 shown in the left diagram of FIG. 5 is directed to the rear of the
Specifically, the deriving
なお、別の導出方法としては、車両9および接近車両10の前後方向(Y軸方向)における車両9(例えば車体の重心位置CP)と接近車両10(例えば車両9の後方に存在する接近車両で、車両9との距離が最も近い接近車両の車体位置DP)との直線ALを導出部113に導出する。そして、横方向(X方向)に車両9と接近車両10との直線BLを導出部113に導出する。その結果、直線ALと直線BLとから車両9と接近車両10とを結ぶ直線CL1を導出部113が導出するようにしてもよい。このような直線CL1を導出することは、車両9に対する接近車両10の位置を導出することに相当する。
As another derivation method, the vehicle 9 (for example, the center of gravity position CP of the vehicle body) in the front-rear direction (Y-axis direction) of the
そして、直線CL1の略中央となる地点CE1の方向に仮想視点VP1の視野方向が向けられる。このような仮想視点VP1の視点位置および視野方向から見た合成画像には車両9と接近車両10との両方の像が含まれる。そして、ディスプレイ24に表示される画像中の車両像91と接近車両像101の位置から、車両9に対する接近車両10の位置をユーザが正確に把握できる。
Then, the visual field direction of the virtual viewpoint VP1 is directed to the direction of the point CE1 that is substantially the center of the straight line CL1. Such a composite image viewed from the viewpoint position and the visual field direction of the virtual viewpoint VP1 includes images of both the
次に、図5の右図は先に述べた図5の左図よりも接近車両10が車両9に接近した状態を示している。そして、仮想視点VP2は車両9の前方(−Y方向)に視点位置があり、視野方向は車両9後方(+Y方向)となる車両9の位置と接近車両10の位置とを結ぶ直線CL2の略中央の地点CE2に向けられている。また、仮想視点VP2の視点位置は仮想視点VP1よりも高い視点位置となっている。
Next, the right diagram in FIG. 5 shows a state in which the approaching
図6は、仮想視点VP3の視野方向と仮想視点VP4の視野方向を主に説明する図である。図6の左図に示す仮想視点VP3の視点位置は車両9と接近車両10とを結ぶ直線CL3の略中央の略直上の位置にあり、視野方向は鉛直下方(+Z方向から−Z方向)の地点CE3に向けられている。
FIG. 6 is a diagram mainly illustrating the visual field direction of the virtual viewpoint VP3 and the visual field direction of the virtual viewpoint VP4. The viewpoint position of the virtual viewpoint VP3 shown in the left diagram of FIG. 6 is at a position almost immediately above the center of the straight line CL3 connecting the
図6の右図に示す仮想視点VP4は、視点位置が車両9の後方(+Y方向)で、視野方向が車両9の位置および接近車両10の位置とを結ぶ直線CL4の略中央の地点CE4に向けられている。つまり、仮想視点VP4の視野方向は、車両9の前方(−Y方向)に向けられている。
The virtual viewpoint VP4 shown in the right diagram of FIG. 6 is located at a point CE4 at the center of the straight line CL4 that connects the position of the
なお、図4から図6で示した視点位置および視野方向の仮想視点VPから見た合成画像には車両9に対応する車両像91と接近車両10に対応する接近車両像101とが含まれる。このように、仮想視点VPの視点位置および視野方向は、車両9と接近車両10との位置に応じた視点位置となる。これにより、接近車両10の位置をユーザが正確に把握できる。
Note that the composite image viewed from the virtual viewpoint VP in the viewpoint position and visual field direction shown in FIGS. 4 to 6 includes a
<1−6.表示画像> <1-6. Display image>
図7および図8は、ディスプレイ24に表示される仮想視点VPから見た合成画像を示した図である。なお、図7および図8に示す合成画像PT1からPT4は時間的に連続した合成画像である。
FIGS. 7 and 8 are views showing a composite image viewed from the virtual viewpoint VP displayed on the
図7に示す合成画像PT1は仮想視点VP1から見た合成画像であり、車両9に対応する車両像91の後方に接近車両10に対応する接近車両像101が映し出されている。合成画像PT2は、仮想視点VP2から見た合成画像であり、車両像91の後方に接近車両像101が映し出されている。そして、合成画像PT2では、合成画像PT1よりも接近車両像101が車両像91に接近した位置にある。このような合成画像の表示により、接近車両の位置をユーザが正確に把握できる。
A composite image PT1 shown in FIG. 7 is a composite image viewed from the virtual viewpoint VP1, and an approaching
図8の合成画像PT3は仮想視点VP3から見た合成画像であり、車両9および接近車両10の直上の仮想視点位置から鉛直下方を見た車両9に対応する車両像91の側方に接近車両10に対応する接近車両像101が位置している状態の画像が映し出されている。
合成画像PT4では、仮想視点VP4から見た合成画像であり、接近車両像101が車両像91を追い越した状態の画像が映し出されている。図7および図8に示すように仮想視点VP1、VP2、VP3、およびVP4から見た合成画像中には車両9に対応する車両像91と接近車両10に対応する接近車両像101との両方の車両の像が映し出されている。このように車両9に対する接近車両の位置を時系列に表示することで、接近車両の位置を車両9のユーザは正確に把握できる。
The composite image PT3 in FIG. 8 is a composite image viewed from the virtual viewpoint VP3, and the vehicle approaching to the side of the
The composite image PT4 is a composite image viewed from the virtual viewpoint VP4, and an image with the approaching
<1−7.処理フローチャート> <1-7. Processing flowchart>
図9は、画像処理装置11の処理フローチャートである。ステップS101では、撮影部5のバックカメラ52で撮影された画像中に接近車両10の存在を検出部112が検出した場合(ステップS101がYes)、ステップS102の処理に進む。なお、接近車両10の存在を検出部112が検出していない場合(ステップS101がNo)は、処理を終了する。
FIG. 9 is a process flowchart of the
ステップS102では、車両9に対する接近車両10の位置、つまり、車両9に対する接近車両10の位置を導出部113が導出して(ステップS102)、ステップS103の処理に進む。
In step S102, the deriving
ステップS103では、車両9に対する接近車両10の位置から仮想視点VPの視点位置、および、視野方向を画像制御部111が設定して(ステップS103)、ステップS104の処理に進む。なお、車両9に対する接近車両10の位置からの仮想視点VPの視点位置および視野方向の設定は、車両9に対する接近車両10の位置に対応する仮想視点VPの視点位置、および、視野方向の情報を不揮発性メモリ4から画像制御部111が読み出して設定する。
In step S103, the
ステップS104では、仮想視点VPから見た合成画像を合成画像生成部32が生成して(ステップS104)、ステップS105の処理に進む。
ステップS105では、合成画像生成部32により生成された合成画像を通信部61を介して表示装置20に画像出力部33が出力する(ステップS105)。
In step S104, the composite
In step S105, the
<第2の実施の形態> <Second Embodiment>
次に、第2の実施の形態について説明する。第2の実施の形態と第1の実施形態との相違点は、仮想視点の視点位置および視野方向である。つまり、第1の実施の形態では、車両9の位置と接近車両10の位置との間の略中央で車両9の前後方向に延伸する軸線sh1上で放物線を描くように移動する仮想視点VP1〜VP4について説明した。
Next, a second embodiment will be described. The differences between the second embodiment and the first embodiment are the viewpoint position and the viewing direction of the virtual viewpoint. That is, in the first embodiment, the virtual viewpoints VP1 to VP1 move so as to draw a parabola on the axis sh1 extending in the front-rear direction of the
これに対して、第2の実施の形態では図10に示すように車両9の車体の略中央位置にあり、車両9の前後方向(Y軸方向)に延伸する軸線sh2を通り路面の鉛直方向から所定角度(例えば20度)傾いた平面上で放物線を描くように移動する仮想視点VPがVP11からVP14の位置に移動する。なお、その他の構成および処理については第1の実施の形態の構成および処理と同一である。そのため、構成および処理が同一の部分についての記載は省略する。
On the other hand, in the second embodiment, as shown in FIG. 10, the
<2−1.仮想視点の視点位置と視野方向> <2-1. Virtual viewpoint position and viewing direction>
図10は、仮想視点VPの視点位置を主に説明する図である。また、図11および図12は、仮想視点VPの視野方向を主に説明する図である。 FIG. 10 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint VP. 11 and 12 are diagrams for mainly explaining the viewing direction of the virtual viewpoint VP.
図10に示すように、仮想視点VPは、車両9の車体の略中央(例えば、フロントバンパーの中央)に位置し、車両9の前後方向(Y軸方向)に延伸する軸線sh2を通り路面の鉛直方向から所定角度傾いた平面上で放物線を描くように、すなわち車両9の左側情報から斜め下方向に見下ろすように、VP11〜VP14の位置に移動する。
詳細には仮想視点VP11からVP12、仮想視点VP12からVP13への視点位置の移動は、車両9に対して接近車両10が近づくにつれて、視点位置の高さが上昇する。また、車両9と接近車両10との直線距離が短くなる(例えば、車両9の後方のバンパー部分と接近車両10の前方のバンパー部分との距離が短くなる)ほど仮想視点VPの位置が車両9の前方から車両9の側方に移動する。
As shown in FIG. 10, the virtual viewpoint VP is positioned substantially at the center of the vehicle body of the vehicle 9 (for example, the center of the front bumper) and passes through the axis sh2 extending in the front-rear direction (Y-axis direction) of the
Specifically, in the movement of the viewpoint position from the virtual viewpoint VP11 to VP12 and from the virtual viewpoint VP12 to VP13, the height of the viewpoint position increases as the approaching
そして、車両9と接近車両10との直線距離が更に短くなるほど仮想視点VPの位置が車両9の側方から車両9の後方に移動する。このように視点位置が移動することで、車両9の像と接近車両10の像とが合成画像中に含まれ、接近車両10の位置をユーザが正確に把握できる。
Then, as the linear distance between the
なお、仮想視点VP13からVP14への移動は、車両9が接近車両10を追い越した場合に行われる。つまり、仮想視点VPの視点位置は車両9と接近車両10との位置に応じた視点位置となる。
The movement from the virtual viewpoint VP13 to VP14 is performed when the
また、例えば、仮想視点VP11の視点位置は車両9と接近車両10との距離が30m以上の場合に、仮想視点VP12の視点位置は車両9と接近車両10との距離が30m未満10m以上の場合にそれぞれの仮想視点の視点位置となる。また、仮想視点VP13の視点位置は車両9と接近車両10との距離が10m未満1m以上の場合に、仮想視点VP14の視点位置は車両9と接近車両10との距離が1m未満となった後、接近車両10が車両9を追い越した場合にそれぞれの仮想視点の視点位置となる。
Further, for example, the viewpoint position of the virtual viewpoint VP11 is when the distance between the
図11は、仮想視点VP11の視野方向と仮想視点VP12の視野方向とを主に説明する図である。図11の左図に示す仮想視点VP11は、車両9の左斜め前方の視点位置から車両9の車体の略重心の位置である重心位置CP上を仮想視点VP11の視線が通過する。そして、車両9の後方(+Y方向)にある重心位置CPと接近車両10の位置とを結ぶ直線の略中央の地点CE11に視野が向く視野方向となっている。
FIG. 11 is a diagram mainly illustrating the visual field direction of the virtual viewpoint VP11 and the visual field direction of the virtual viewpoint VP12. In the virtual viewpoint VP11 shown in the left diagram of FIG. 11, the line of sight of the virtual viewpoint VP11 passes from the viewpoint position diagonally left front of the
次に、図11の右図に示す仮想視点VP12は、仮想視点VP11よりもさらに左側に傾いた車両9の前方の視点位置から重心位置CP上を仮想視点VP12の視線が通過し、重心位置CPと接近車両10の位置とを結ぶ直線の略中央の地点CE12に視線が向くような視野方向となっている。
Next, the virtual viewpoint VP12 shown in the right diagram of FIG. 11 passes the line of sight of the virtual viewpoint VP12 from the viewpoint position in front of the
図12は、仮想視点VP13の視野方向と仮想視点VP14の視野方向とを主に説明する図である。図12の左図に示す仮想視点VP13は、車両9の左側方(−X方向)の視点位置から重心位置CP上を仮想視点VP13の視線が通過し、重心位置CPと車両9の右側方(+X方向)に存在する接近車両10の位置とを結ぶ直線の略中央の地点CE13に視線が向く視野方向となっている。
FIG. 12 is a diagram for mainly explaining the visual field direction of the virtual viewpoint VP13 and the visual field direction of the virtual viewpoint VP14. The virtual viewpoint VP13 shown in the left diagram of FIG. 12 passes the line of sight of the virtual viewpoint VP13 from the viewpoint position on the left side (−X direction) of the
図12の右図に示す仮想視点VP14は、車両9の後方(+Y方向)の視点位置から重心位置CP上を仮想視点VP14の視線が通過し、重心位置CPと車両9の右斜め前方に存在する接近車両10の位置とを結ぶ略中央の地点CE14に視線が向く視野方向となっている。なお、図10から図12で示した視点位置および視野方向の仮想視点VPから見た合成画像には車両9に対応する車両像91および接近車両10に対応する接近車両像101が含まれる。
The virtual viewpoint VP14 shown in the right figure of FIG. 12 passes from the viewpoint position of the rear side (+ Y direction) of the
<2−2.表示画像> <2-2. Display image>
図13および図14はディスプレイ24に表示される仮想視点から見た合成画像を示した図である。なお、図7および図8に示す合成画像PT11からPT14は時間的に連続した合成画像である。合成画像PT11は仮想視点VP11から見た合成画像であり、車両像91の後方に接近車両像101が映し出されている。合成画像PT12は、仮想視点VP12から見た合成画像であり、車両像91の後方に接近車両像101が映し出されている。そして、合成画像PT12では、合成画像PT11よりも接近車両像101が車両像91に接近した位置にある。このような合成画像の表示により接近車両の位置を車両のユーザが正確に把握できる。
FIG. 13 and FIG. 14 are diagrams showing the composite image viewed from the virtual viewpoint displayed on the
図14の合成画像PT13は仮想視点VP13から見た合成画像であり、車両像91と車両像91の側方の位置に存在する接近車両像101とを含む画像が映し出されている。そして、合成画像PT14では、仮想視点VP14から見た合成画像であり、接近車両像101が車両像91を追い越した状態の画像が映し出されている。このように車両9に対する接近車両の位置を時系列に表示することで、接近車両の位置をユーザは正確に把握できる。
The composite image PT13 in FIG. 14 is a composite image viewed from the virtual viewpoint VP13, and an image including the
<第3の実施の形態> <Third Embodiment>
次に、第3の実施の形態について説明する。第3の実施の形態と第1の実施形態との相違点は、車両9の走行車線の変更に伴う車両9のユーザの操作を図15に示す操作検知部114が検知した場合に、車両9と接近車両10の位置に応じた仮想視点から見た合成画像を合成画像生成部32が生成することである。
Next, a third embodiment will be described. The difference between the third embodiment and the first embodiment is that when the
また、第3の実施の形態では、車両9の車線変更の可否の判断結果を示す警告画像を合成画像に重畳させて、表示装置20のディスプレイ24に表示する点が第1の実施の形態で説明した内容と異なる点である。なお、その他の構成および処理については第1の実施の形態の構成および処理と同一である。そのため、構成および処理が同一の部分についての記載は省略する。
Further, in the third embodiment, a warning image indicating a determination result of whether or not the lane of the
<3−1.システム構成> <3-1. System configuration>
図15は、画像表示システム120aのブロック図である。画像処理装置11aの制御部1aは、第1の実施の形態で説明した画像制御部111、検出部112、および、導出部113に加えて、操作検知部114、予測部115、演算部116、および、判断部117を備えている。
FIG. 15 is a block diagram of the
操作検知部114は、車両9の走行車線の変更に伴うユーザの操作を検知する。例えば、ユーザのウインカースイッチの操作に基づく方向指示、すなわち、方向指示器83からのユーザが意図する方向指示を示すターン信号のオン状態、および、ウインカースイッチが中立位置となった場合のターン信号のオフ状態を検知する。また、別の例として操舵角センサ84からのユーザが操作したステアリングホイールの回転方向、回転角度、および、回転速度の信号を検知する。
The
予測部115は、車両9が走行車線を変更して移動する場合の移動位置を予測する。詳細には車両9がユーザの操作により走行車線を変更する時間の情報である車線変更時間42aを予め不揮発性メモリ4aに記憶する。そして、車両9の移動位置を予測する際に車線変更時間42aを予測部115が読み出して、車線変更時間42aおよび車両9の走行速度などに基づく移動位置の予測を予測部115が行う。
The
ここで、車両9の走行車線を変更する時間とは、ユーザの操作に伴い車両9の走行車線の変更が開始されて、車両9の走行車線の変更が終了するまでの時間である。例えば、ユーザが方向指示器83を操作したターン信号のオン状態を操作検知部114が検知したときから、ステアリングホイールの回転方向が車両9の車線変更を行う方向に変更された後、ステアリングホイールの回転方向が車両9の直進移動する方向(ステアリングホイールの回転角度が略0度となる状態、つまりステアリングホイールが略中立位置となる状態)に変更されるまでの所定の時間(例えば、5秒)である。
Here, the time for changing the travel lane of the
演算部116は、車両9が走行車線を変更することにより移動する移動位置に接近車両10が移動する時間を演算する。例えば、連続する撮影画像中の接近車両像101の位置の変化から接近車両10の走行速度の情報を演算部116が演算し、当該走行速度の情報から接近車両10の移動位置への移動時間を演算部116が演算する。
The calculating
判断部117は、車両9の移動位置への移動時間と、接近車両10の移動位置への移動時間とから、車両9の移動位置への移動の可否、つまり車両9の車線変更の可否を判断する。なお、車両9の移動位置への移動が困難であると判断部117が判断した場合は、合成画像生成部32に、後述する警告画像が重畳した合成画像を生成する指示信号を判断部117が出力する。
The
なお、判断部117が車両9の移動位置への移動が可能であると判断した場合は、合成画像生成部32への警告画像を表示する指示信号を判断部117が出力しないようにしてもよいし、警告画像以外の画像を表示する指示信号を判断部117が出力するようにしてもよい。ここで、警告画像以外の画像とは、例えば、車両9の移動位置を示す画像(以下、「移動位置画像」ともいう)、および、接近車両10の接近状態を示す画像(以下、「接近状態画像」ともいう。)などのうち少なくとも一つの画像をいう。
不揮発性メモリ4aの車線変更時間42aは、車両9のユーザの操作に伴い車両9が走行車線の変更を開始して走行車線の変更が終了するまでの時間である。
If the
The
<3−2.表示画像> <3-2. Display image>
図16はディスプレイ24に表示される仮想視点から見た合成画像を示した図である。合成画像PT1aは仮想視点VP1から見た合成画像であり、車両像91の後方に接近車両像101が映し出されている。そして、車両像91の側方に車両9の車線変更後の位置を示す移動位置画像trが合成画像に重畳して映し出されている。
FIG. 16 is a view showing a composite image viewed from the virtual viewpoint displayed on the
また、接近車両像101の進行方向に表示されている接近状態画像ad1が合成画像に重畳して映し出されている。接近状態画像ad1は、車両像91に対応する車両9が移動位置に移動する時間の間に接近車両像101に対応する接近車両10が移動する移動量を示している。そして、合成画像PT1aに示す接近車両像101の移動位置への接近状態においては、車両像91に対応する車両9は走行する車線の変更が可能となる。このようにユーザは車両9の移動位置に対する車線変更の可否を明確に把握できる。
Further, an approaching state image ad1 displayed in the traveling direction of the approaching
合成画像PT2aは、PT1aとは異なるタイミングで撮影された撮影画像に基づいて生成された合成画像である。合成画像PT2aは仮想視点VP2から見た合成画像であり、車両像91の後方に接近車両像101が映し出されている。合成画像PT2aでは、合成画像PT1aと比べて接近車両10に対応する接近車両像101が車両9に対応する車両像91に接近した状態であり、車両9の車線変更が困難な状態を表している。
The composite image PT2a is a composite image generated based on a photographed image photographed at a timing different from that of PT1a. The composite image PT2a is a composite image viewed from the virtual viewpoint VP2, and the approaching
具体的には、車両像91の側方に、車両9の車線変更後の位置を示す移動位置画像traが合成画像に重畳して映し出されている。このtraは合成画像PT1aに示した移動位置画像trと比べて表示態様が変更されており、車両像91に対応する車両9の移動が困難であることを示す警告画像が重畳された状態となっている。つまり、車両9の移動位置に車両9が移動すると接近車両10と接触する可能性があることを示す警告画像(例えば、移動位置に対応する範囲に対して警告状態を示す色で表示するなど)を重畳させている。これによりユーザは車両9の移動位置に対する車線変更の可否を明確に把握できる。
Specifically, on the side of the
また、接近車両像101の進行方向に表示されている接近状態画像ad2の一部が移動位置画像traの範囲内に含まれるように合成画像に重畳されて映し出されている。これは、車両像91に対応する車両9が移動位置に移動する時間の間に接近車両像101に対応する接近車両10が移動する移動量を示しており、車両9が移動位置へ車線変更すると接近車両10と接触する危険があることを示す警告画像として合成画像に重畳して映し出されている。
Further, a part of the approaching state image ad2 displayed in the traveling direction of the approaching
さらに、車両像91と接近車両像101との間の略中央位置の区画線上に車両像91に対応する車両9の走行車線の変更が困難であることを示す警告ライン像LNが警告画像として合成画像に重畳表示されている。これにより車両9のユーザは接近車両10の接近状態を正確に把握して、車両の車線変更の可否を容易に判断できる。
Further, a warning line image LN indicating that it is difficult to change the traveling lane of the
なお、合成画像PT2aに示した警告画像の組み合わせはこれ以外にも他の組み合わせ(例えば、警告ライン像LNのみを重畳して映し出したり、移動位置画像traおよび接近状態画像ad2のみを重畳して映し出す)が可能である。 Other combinations of warning images shown in the composite image PT2a (for example, only the warning line image LN is superimposed and projected, or only the moving position image tra and the approach state image ad2 are projected and projected). Is possible.
また、第3の実施の形態では車両9の走行車線の変更に伴うユーザの車両9の操作を操作検知部114が検知した場合に車両9に対する接近車両10の位置に応じて合成画像に警告画像を重畳してディスプレイ24に表示する処理について述べた。これに対して、車両9の走行車線の変更に伴うユーザの操作を操作検知部114が検知した場合に、警告画像を重畳した表示を行わずに合成画像(第1の実施の形態で説明した車両9と接近車両10の位置に応じた仮想視点から見た合成画像)のみをディスプレイ24に表示するようにしてもよい。これにより、ユーザは接近車両10の位置を正確に把握して車両9の車線変更の可否を容易に判断できる。
In the third embodiment, when the
<3−3.処理フローチャート> <3-3. Processing flowchart>
図17および図18は、画像処理装置11aの処理フローチャートである。ステップS201では、車両9の走行車線の変更に伴うユーザの操作を操作検知部114が検知した場合(ステップS201がYes)、ステップS101の処理に進んだ後、ステップS101からステップS104の処理が行われる。そして、ステップS104において仮想視点VPから見た合成画像が生成され、ステップS202の処理に進む。なお、ステップS201の処理において、車両9の走行する車線の変更に伴うユーザの操作を操作検知部114が検知していない場合(ステップS201がNo)は処理を終了する。
17 and 18 are process flowcharts of the
ステップS202では、車両9の走行車線の変更に伴う移動位置を予測部115が導出して(ステップS202)、ステップS203の処理に進む。
In step S202, the
ステップS203では、接近車両10の移動位置への移動時間を演算部116が演算して(ステップS203)、ステップS204の処理に進む。
In step S203, the
ステップS204では、車両9の移動位置への移動時間が接近車両10の移動位置への移動時間よりも長い時間の場合は(ステップS204がYes)、判断部117が合成画像生成部32に警告画像を表示する指示信号を出力して(ステップS205)、ステップS206の処理に進む。なお、車両9の移動位置への移動時間が接近車両10の移動位置への移動時間よりも短い場合(ステップS204がNo)は、ステップS105の処理に進み、ステップS104で生成された合成画像を画像出力部33が表示装置20に出力する(ステップS105)。
In step S204, when the movement time of the
ステップS206では、合成画像に警告画像を合成画像生成部32が重畳する。そして警告画像が重畳された合成画像が画像出力部33により表示装置20に出力される(ステップS206)。
In step S206, the composite
<第4の実施の形態> <Fourth embodiment>
次に、第4の実施の形態について説明する。第4の実施の形態と第3の実施形態との相違点は、車両9のユーザの複数回の車線変更における車線変更時間からユーザの固有の車線変更時間(例えば、車両9のユーザの車線変更時間の平均値)を学習し、当該時間を不揮発性メモリ4bに記憶しておく点である。つまり、学習とは、車両9のユーザの複数回の車線変更における車線変更時間からユーザの固有の車線変更時間を学習部118が導出することである。
Next, a fourth embodiment will be described. The difference between the fourth embodiment and the third embodiment is that the user's own lane change time (for example, the user's lane change of the
また、記憶とは、学習部118により導出された車両9のユーザの固有の車線変更時間を不揮発性メモリ4bの車線変更時間42bとして記憶しておくことである。これにより、判断部117が車両9の移動位置への移動の可否を判断する場合に、ユーザごとの車線変更の際の車両の操作時間に応じた車線変更の可否判断が可能となる。なお、その他の構成および処理については第3の実施の形態の構成および処理と同一である。そのため、構成および処理が同一の部分についての記載は省略する。
In addition, storing means storing the lane change time unique to the user of the
<4−1.システム構成> <4-1. System configuration>
図19は、画像表示システム120bのブロック図である。画像処理装置11bの制御部1bは、第3の実施の形態で説明した構成に加えて、学習部118を備えている。学習部118は、ユーザの操作に伴い車両9の走行車線の変更開始から車両9の走行車線の変更終了までの複数回の車線変更に要した時間を積算してユーザの固有の車線変更時間を計測する。
FIG. 19 is a block diagram of the image display system 120b. The control unit 1b of the image processing apparatus 11b includes a
不揮発性メモリ4bの車線変更時間42bは学習部118で導出された車線変更時間の情報を記憶する。つまり、一定値の車線変更情報ではなく、ユーザの車線変更動作を学習した結果の値である車線変更時間42bを不揮発性メモリ4bが記憶する。
判断部117は、接近車両10が移動位置に移動する時間と、ユーザの固有の車線変更時間である車線変更時間42bとに基づいて、車両9の移動位置への移動の可否を判断する。これにより、車両9の移動位置への移動の可否をユーザの固有の車線変更時間に応じて、ユーザが容易に判断できる。
The lane change time 42b of the
The
<4−2.車線変更時間グラフ> <4-2. Lane change time graph>
図20は、車両9の車線変更時間の計測の一例を示すグラフである。時刻t1において、ユーザが方向指示器83を操作するとターン信号のオン状態が操作検知部14に検出されたことにより、制御部1bの学習部118が車線変更時間の学習を開始する。
次に、方向指示器83のターン信号がオン状態となっている時刻t2で、車両9の走行車線を変更する方向と同じ方向のステアリングホイールの回転角度が操作検知部14に検出される。そして、時刻t3でステアリングホイールの操舵角のグラフの傾きが右下がりとなったところで、ターン信号がオフ状態となる。その後ステアリングホイールの操舵角の角度が略0度(ステアリングホイールが中立位置)となった場合に、時刻t1からt4までの時間を車両9のユーザの1回の車線変更時間として学習部118が学習する。そして、当該車線変更時間をユーザが1回の車線変更に要した時間として不揮発性メモリ4bに記憶される。
FIG. 20 is a graph showing an example of measurement of the lane change time of the
Next, at the time t <b> 2 when the turn signal of the
以降、車両9の車線変更が行われるごとに車線変更時間を学習部118が積算し、その積算時間を車線変更回数で除算して、ユーザの固有の車線変更時間である車線変更時間42bとして不揮発性メモリ4bに記憶する。そして、予測部115が移動位置を予測する場合、および、判断部117が車両9の移動位置への移動の可否を判断する場合などに、不揮発性メモリ4bから車線変更時間42bが読み出される。
Thereafter, each time the lane of the
<4−3.処理フローチャート> <4-3. Processing flowchart>
図21および図22は学習部118が車線変更時間を計測する処理フローチャートである。ステップ401ではユーザが方向指示器83を操作してターン信号がオン状態となった場合(ステップS401がYes)、ステップS402の処理に進む。なお、ユーザが方向指示器83を操作していない場合(ステップS401がNo)は、処理を終了する。
ステップS402では、ターン信号がオン状態となったことにより、制御部1の方向指示器フラグがオン状態となり(ステップS402)、ステップ403において、車線変更時間の計測を学習部118が開始して(ステップS403)、ステップS404の処理に進む。
21 and 22 are process flowcharts in which the
In step S402, when the turn signal is turned on, the direction indicator flag of the control unit 1 is turned on (step S402). In
ステップS404では、方向指示器83の左右いずれかの方向のうち方向指示器83を操作した側へステアリングホイールを操舵した場合(ステップS404がYes)は、ステップS405の処理へ進む。例えば、方向指示器83を右側に操作した場合にステアリングホイールを右側に操舵して、車両9の走行する車線の右側に隣接する走行車線に車両9を移動させる場合である。
なお、方向指示器83の左右いずれかの方向のうち方向指示器83を操作した側へステアリングホイールを操舵していない場合、つまり方向指示器83を操作した側と反対側にステアリングホイールを操舵した場合(ステップS404がNo)は、ステップS406の処理へ進む。
In step S404, when the steering wheel is steered to the side in which the
When the steering wheel is not steered to the side where the
ステップS405では、方向指示器83を操作した側に対応するステアリングホイールの操舵フラグをオン状態として(ステップS405)、ステップS406の処理に進む。
In step S405, the steering flag of the steering wheel corresponding to the side on which the
ステップS406では、方向指示器83を操作した側とは反対側にステアリングホイールを操舵した場合(ステップS406がYes)は、ステップS407の処理に進む。例えば、方向指示器83を右側に操作した場合にステアリングホイールを右側に操作した後に、ステアリングホイールを反対側(左側)に切り返す操作をした場合である。なお、方向指示器83を操作した側とは反対側にステアリングホイールを操舵していない場合(ステップS406がNo)は、ステップS408の処理に進む。
In step S406, when the steering wheel is steered to the side opposite to the side on which the
ステップS407では、方向指示器83を操作した側とは反対側に対応する反対側操舵フラグをオン状態として、ステップS408の処理に進む。
In step S407, the opposite side steering flag corresponding to the side opposite to the side on which the
ステップS408では、操舵フラグおよび反対側操舵フラグがオン状態の場合(ステップS408がYes)は、ステップS409の処理に進む。なお、操舵フラグおよび反対側操舵フラグがオン状態ではない場合(ステップS408がNo)は、処理を終了する。 In step S408, when the steering flag and the opposite side steering flag are on (step S408 is Yes), the process proceeds to step S409. If the steering flag and the opposite side steering flag are not in the on state (No in step S408), the process ends.
ステップS409では、ステアリングホイールの操舵角が略0度の場合(ステップS409がYes)はステップS410の処理に進む。なお、ステアリングホイールの操舵角が略0度ではない場合(ステップS409がNo)は処理を終了する。 In step S409, if the steering angle of the steering wheel is approximately 0 degrees (step S409 is Yes), the process proceeds to step S410. Note that if the steering angle of the steering wheel is not approximately 0 degrees (No in step S409), the process ends.
ステップS410では、ユーザの固有の車線変更時間を学習部118が導出して(ステップS410)、ステップS411に進む。ステップS411では、各フラグをOFF状態とする(ステップS411)。このような処理を車線変更を行うたびに繰り返し行うことで、車両9の移動位置への移動の可否をユーザの車線変更時間の応じて正確に判断できる。
In step S410, the
<第5の実施の形態> <Fifth embodiment>
次に、第5の実施の形態について説明する。第5の実施の形態と第3の実施形態との相違点は仮想視点の視点位置が接近車両10のドライバーの位置で、視野方向が車両9の存在する方向となる点である。なお、その他の構成および処理については第3の実施の形態の構成および処理と同一である。そのため、構成および処理が同一の部分についての記載は省略する。
Next, a fifth embodiment will be described. The difference between the fifth embodiment and the third embodiment is that the viewpoint position of the virtual viewpoint is the position of the driver of the approaching
<5−1.仮想視点の視点位置および視野方向> <5-1. Viewpoint and view direction of virtual viewpoint>
図23は、仮想視点VP31の視点位置を主に説明する図である。図23に示すように、接近車両10のドライバーの位置が仮想視点VP31の視点位置となっている。詳細には車両10のドライバーが着座する位置(運転席の位置)が視点位置となっている。なお、接近車両10のドライバーの位置の導出は導出部113が行うが、詳細な説明は次の図24を用いて行う。
FIG. 23 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint VP31. As shown in FIG. 23, the position of the driver of the approaching
図24は、仮想視点VP31の視野方向を主に説明する図である。図24に示す仮想視点VP31の視野方向は、車両9の存在する方向である。つまり、接近車両10のドライバーの位置から見る接近車両10の進行方向(−Y方向)と略同一の方向である。
FIG. 24 is a diagram for mainly explaining the visual field direction of the virtual viewpoint VP31. The viewing direction of the virtual viewpoint VP31 shown in FIG. 24 is the direction in which the
ここで、接近車両10のドライバーの位置となる車両9に対する接近車両10の位置の導出は、合成画像中の接近車両像101の画像中の位置から、重心位置CPから接近車両10の位置(例えば接近車両10のフロントバンパーの位置)までを結ぶ直線CLを導出部113が導出する。そして、直線CLに補正値clを加えた直線CLaを導出部113が導出する。この補正値clは、接近車両10の位置(例えば、接近車両10のフロントバンパーの位置)から接近車両10のドライバーの位置である着座位置UPまでの距離である。
Here, the position of the approaching
また、これ以外にも次のように接近車両10のドライバーの位置を導出してもよい。図24に示す車両9に対する接近車両10の前後方向(Y軸方向)の位置を第1の実施の形態の図5に示した直線ALに補正値alを加えた位置として導出部113が導出する。また、車両9に対する接近車両10の横方向(X軸方向)の位置を直線BLに補正値blを加えた位置として導出部113が導出する。そして、例えば三平方の定理などにより車両9の重心位置CPから着座位置UPまでを結ぶ直線CLaを導出部113が導出する。
In addition to this, the position of the driver of the approaching
そして、着座位置UPが接近車両10のドライバーの位置となり、この位置が仮想視点VP31の視点位置となる。また、接近車両10の進行方向(−Y方向)と略同一の方向が仮想視点VP31の視野方向となる。
Then, the seating position UP becomes the position of the driver of the approaching
なお、補正値cl等の各補正値は、不揮発性メモリ4aに記録されており、例えば、接近車両10のフロントバンパー部分の位置から着座位置UPまでの直線を導出する際に用いられる補正値となる。
Each correction value such as the correction value cl is recorded in the
<5−2.表示画像> <5-2. Display image>
図25は、ディスプレイ24に表示される仮想視点VP31から見た合成画像を示した図である。合成画像PT31は仮想視点VP31から見た合成画像であり、車両像91が前方に映し出されている。つまり、接近車両10のドライバーの視点位置で、車両9の存在する視野方向から見た合成画像がディスプレイ24に映し出されている。これにより接近車両10のドライバーの視点で車両9の位置をユーザが正確に把握できる。なお、接近車両10の一部の画像は不揮発性メモリ4bに予め記憶されているイメージ図である。
FIG. 25 is a diagram illustrating a composite image viewed from the virtual viewpoint VP31 displayed on the
また、合成画像PT31には、前方に移動位置画像traが合成画像に重畳して映し出されており、接近車両10の進行方向に表示されている接近状態画像ad2の一部が移動位置画像traの範囲内に含まれるように合成画像に重畳して映し出されている。さらに、警告ライン像LNが警告画像として合成画像に重畳して映し出されている。このような場合は、ユーザは車両9の車線変更が困難であることが明確に判断できる。
In addition, in the composite image PT31, the movement position image tra is projected forward on the composite image, and a part of the approach state image ad2 displayed in the traveling direction of the approaching
<5−3.処理フローチャート> <5-3. Processing flowchart>
図26および図27は、画像処理装置11aの処理フローチャートである。ステップS102aでは、前の処理のステップS101において検出部112が接近車両10の存在を検出した場合に、接近車両10のドライバーの位置を導出部113が導出して、ステップS103aの処理に進む。
26 and 27 are process flowcharts of the
ステップS103aでは、仮想視点の視点位置を接近車両10のドライバー位置とし、仮想視点の視野方向を車両9の存在する方向として(ステップS103a)、ステップS104の処理に進む。そして、以降は第3の実施の形態で説明した処理を行う。
In step S103a, the viewpoint position of the virtual viewpoint is set as the driver position of the approaching
<第6の実施の形態> <Sixth Embodiment>
次に、第6の実施の形態について説明する。第6の実施の形態と第3の実施形態との相違点は、車両9がユーザの操作により車線変更を行う場合に、検出部112が接近車両10の存在を検出しないときの合成画像の表示について説明した点である。このような場合は、視点位置が車両9の前方で視野方向が車両9の後方となる仮想視点VPから見た合成画像がディスプレイ24に映し出される。
Next, a sixth embodiment will be described. The difference between the sixth embodiment and the third embodiment is that, when the
<6−1.表示画像> <6-1. Display image>
図28は、ディスプレイ24に表示される仮想視点VPから見た合成画像を示した図である。合成画像PT1bには車両像91を含んだ合成画像が映し出されている。合成画像PT1bは、操作検知部114が車両9のユーザの操作を検知した場合に、検出部112が接近車両10の存在を検出していない(接近車両10が車両9の後方に存在しない)ときは、次に示す仮想視点から見た合成画像を合成画像生成部32が生成する。つまり、車両像91の少なくとも一部の像を含み、視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点VPから見た合成画像を合成画像生成部32が生成する。これにより接近車両10の存在の有無に関わらず車両9の車線変更の可否をユーザが容易に判断できる。
FIG. 28 is a diagram showing a composite image viewed from the virtual viewpoint VP displayed on the
<6−2.処理フローチャート> <6-2. Processing flowchart>
図29および図30は、画像処理装置11aの処理フローチャートである。ステップS101において、接近車両10の存在を検出部112が検出していない場合(ステップS101がNo)は、ステップS301の処理に進む。
ステップS301では、仮想視点VPの視点位置および視野方向を画像制御部111が設定する(ステップS301)。つまり、車両像91の少なくとも一部の像を含み、視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点VPを画像制御部111が設定する。そして、仮想視点VPから見た合成画像を合成画像生成部32が生成する(ステップS104)。以降は第3の実施の形態で説明した処理を行う。
29 and 30 are processing flowcharts of the
In step S301, the
<第7の実施の形態> <Seventh embodiment>
次に、第7の実施の形態について説明する。第7の実施の形態と第6の実施形態との相違点は、車両9がユーザの操作により車線変更を行う場合に、視点位置が車両9のドアミラー近傍の位置で、視野方向が車両9の後方となる仮想視点VP41から見た合成画像を合成画像生成部32が生成することである。
Next, a seventh embodiment will be described. The difference between the seventh embodiment and the sixth embodiment is that when the
<7−1.仮想視点の視点位置および視野方向> <7-1. Viewpoint and view direction of virtual viewpoint>
図31は、仮想視点VP41の視点位置を主に説明する図である。図31に示すように、仮想視点VP41の視点位置は車両9のドアミラー近傍の位置がとなっている。なお、図31では右側(+X方向)の車線に車両9が走行車線の変更を行う場合について説明しているため、右側(+X方向)のドラミラー近傍に仮想視点VP41の視点位置が設定されるが、左側(−X方向)に車両9が走行車線の変更を行う場合は、左側(−X方向)にドアミラー近傍に仮想視点の視点位置を設定してもよい。
FIG. 31 is a diagram for mainly explaining the viewpoint position of the virtual viewpoint VP41. As shown in FIG. 31, the viewpoint position of the virtual viewpoint VP41 is a position near the door mirror of the
図32は、仮想視点VP41の視野方向を主に説明する図である。図32に示す仮想視点VP41は車両9のドアミラー近傍を視点位置とし、視野方向を車両9の後方(+Y方向)としている。つまり車両9の進行方向(−Y方向)と反対の方向に視野が向けられている。
FIG. 32 is a diagram for mainly explaining the viewing direction of the virtual viewpoint VP41. A virtual viewpoint VP41 shown in FIG. 32 has the vicinity of the door mirror of the
<7−2.表示画像> <7-2. Display image>
図33は、ディスプレイ24に表示される仮想視点VP41から見た合成画像を示した図である。合成画像P41は仮想視点VP41から見た合成画像であり、車両9の右側のドアミラーに映し出される像を含む合成画像として表示されている。これにより接近車両が存在しない場合でも車両9の車線変更の可否をユーザが容易に判断できる。
<7−3.処理フローチャート>
図34および図35は、画像処理装置11aの処理フローチャートである。ステップS101において、接近車両10の存在を検出部112が検出していない場合(ステップS101がNo)は、ステップS401の処理に進む。
FIG. 33 is a diagram showing a composite image viewed from the virtual viewpoint VP41 displayed on the
<7-3. Processing flowchart>
34 and 35 are process flowcharts of the
ステップS401では、車両9のドアミラー近傍となる視点位置で、視野方向が車両9の後方となる仮想視点VP41の視点位置および視野方向を画像制御部111が設定する(ステップS401)。そして、仮想視点VP41から見た合成画像を合成画像生成部32が生成する(ステップS104)。以降は第6の実施の形態で説明した処理を行う。
In step S401, the
<第8の実施の形態> <Eighth Embodiment>
次に、第8の実施の形態について説明する。第8の実施の形態は、フロントカメラ51などの一のカメラで撮影した撮影画像をディスプレイ24に表示する。そして、一のカメラの撮影画像がディスプレイ24に表示されている場合に、接近車両10の存在が検出部112により検出されたときは、車両9と接近車両10の位置に応じた仮想視点から見た合成画像を一のカメラで撮影した画像と共にディスプレイ24に表示する。
Next, an eighth embodiment will be described. In the eighth embodiment, a captured image captured by one camera such as the
ここで、車両9と接近車両10の位置に応じた仮想視点は、例えば、視点位置を接近車両10のドライバーの位置とし、視野方向を車両9の存在する方向とする仮想視点(例えば図36に示す仮想視点VP52a)である。また、例えば視点位置を車両9のドアミラー近傍の位置とし、視野方向を接近車両10の存在する方向とする仮想視点(例えば図36に示す仮想視点VP52b)である。これらの仮想視点は後述するようにユーザの操作に応じて変更され、この変更によりディスプレイ24に表示される合成画像の表示態様が切り替えられる。これによりユーザは接近車両10の存在を早期に認識でき、接近車両10の位置を正確に判断できる。
Here, the virtual viewpoint according to the positions of the
<8−1.仮想視点の視点位置および視野方向>
図36は、一のカメラの撮影画像と共にディスプレイ24に表示される合成画像の仮想視点の一例を示している。詳細には視点位置を接近車両10のドライバーの位置とし、視野方向を車両9の存在する方向とする仮想視点VP52aと、視点位置を車両9のドアミラー近傍の位置とし、視野方向を接近車両10の存在する方向とする仮想視点VP52bが示されている。そして、これらの仮想視点はユーザの操作に応じて変更され、この変更によりディスプレイ24に表示される合成画像の表示態様が切り替えられる。
<8-1. Viewpoint and view direction of virtual viewpoint>
FIG. 36 shows an example of a virtual viewpoint of a composite image displayed on the
<8−2.表示画像> <8-2. Display image>
図37および図38はディスプレイ24に表示される画像を示す図である。なお、図37および図38の画像PT51、PT51a、および、PT51bは時間的に連続した画像である。画像PT51は車両9に備えられたフロントカメラのみで撮影した撮影画像であり、車両9の前方(−Y方向)を走行する前方車両の車両像102(以下、「前方車両像102」ともいう)がディスプレイ24に映し出されている。画像PT51には後述するような合成画像は重畳表示されていない。つまり、車両9の後方から接近する接近車両10の存在が検出部112により検出されていない。
37 and 38 are diagrams showing images displayed on the
次に、画像PT51aは、検出部112が接近車両10の存在を検出した場合にディスプレイ24に表示される画像を示している。画像TP51aには、前方車両像102が表示されており、この画像PT51aに,接近車両10のドライバーの位置の仮想視点VP52aから見た合成画像PT52aが重畳して映し出されている。つまり、画像PT51aと共に合成画像PT52aがディスプレイ24に映し出されている。これにより、ユーザは接近車両10の存在を早期に認識でき、接近車両10の位置を正確に把握できる。
Next, the image PT51a shows an image displayed on the
なお、この合成画像PT52の仮想視点の視点位置は接近車両10のドライバーの位置であり、視野方向は接近車両10の存在する方向である。そして、車両9に対する接近車両10の位置において、その距離が所定の距離を下回っているため、車両像91を含むような視野方向(接近車両10のドライバーの位置から見て左斜め前方の方向)の仮想視点から見た合成画像となっている。
The viewpoint position of the virtual viewpoint of the composite image PT52 is the position of the driver of the approaching
また、画像PT51aには相手視点ボタンB1、および、自車視点ボタンB2とが重畳して表示されている。この相手視点ボタンB1、および、自車視点ボタンB2のいずれかのボタンをユーザが操作することにより各ボタンに対応した仮想視点から見た合成画像がディスプレイ24に映し出される。つまり、フロントカメラ51で撮影された撮影画像と共に合成画像がディスプレイ24に映し出される。
Further, the partner viewpoint button B1 and the own vehicle viewpoint button B2 are displayed superimposed on the image PT51a. When the user operates one of the partner viewpoint button B1 and the own vehicle viewpoint button B2, a composite image viewed from the virtual viewpoint corresponding to each button is displayed on the
画像PT51aでは相手視点ボタンB1が選択されているため、接近車両10のドライバーの位置の仮想視点VP52aから見た合成画像PT52aが、画像PT51aと共にディスプレイ24に映し出されている。
Since the partner viewpoint button B1 is selected in the image PT51a, the composite image PT52a viewed from the virtual viewpoint VP52a at the position of the driver of the approaching
次に、図38に示す画像PT51bでは、ユーザの操作により、自車視点ボタンB2が選択されている。そして、このユーザ操作に応じてフロントカメラの撮影画像と共にディスプレイ24に映し出される合成画像が、合成画像PT52aから合成画像PT52bに切り替えられる。これにより、ユーザの希望する仮想視点から見た合成画像を表示して、接近車両の位置を正確に把握できる。
Next, in the image PT51b shown in FIG. 38, the own vehicle viewpoint button B2 is selected by the user's operation. In response to the user operation, the composite image displayed on the
<8−3.処理フローチャート> <8-3. Processing flowchart>
図39および図40は、一の撮影画像と共に合成画像をディスプレイ24に表示する処理フローチャートである。ステップS501では、フロントカメラ51で撮影された撮影画像が画像処理部3で処理され(ステップS501)、画像出力部33から通信部61を介して表示装置20に出力され(ステップS502)、ステップS101の処理に進む。
39 and 40 are process flowcharts for displaying a composite image together with one captured image on the
ステップS101では、接近車両10の存在を検出部112が検出した場合(ステップS101がYes)、ステップS503の処理に進み、車両9と接近車両10の位置に応じた仮想視点から見た合成画像を画像出力部33が通信部61を介して表示装置20に出力して(ステップS503)、ステップS504の処理に進む。これにより、フロントカメラ51で撮影された撮影画像と共に合成画像がディスプレイ24に表示される。
In step S101, when the
なお、合成画像の仮想視点の視点位置、および、視野方向は、過去に接近車両を検出部が検出した際にユーザの操作により選択された仮想視点の視点位置、および、視野方向から見た合成画像がディスプレイ24に表示される。
Note that the viewpoint position and the visual field direction of the virtual viewpoint of the composite image are the composites viewed from the viewpoint position and the visual field direction of the virtual viewpoint selected by the user operation when the detection unit detects the approaching vehicle in the past. An image is displayed on the
また、ステップS101で、検出部112が接近車両10の存在を検出していない場合(ステップS101がNo)は、処理を終了する。
Moreover, when the
ステップS504に戻り、ディスプレイ24にフロントカメラ51により撮影された撮影画像の画像PT51aと共に、合成画像PT52bがディスプレイ24に映し出されている場合に、ユーザの操作により相手視点ボタンB1が選択されたとき(ステップS504がYes)は、ステップS505の処理に進む。
Returning to step S504, when the partner viewpoint button B1 is selected by the user's operation when the composite image PT52b is displayed on the
なお、相手視点ボタンB1がユーザの操作により選択されていない場合(ステップS504がNo)は、ステップS507の処理に進む。また、過去のユーザの操作により既に相手視点ボタンB1が選択されている場合も同様の処理を行う。 If the partner viewpoint button B1 is not selected by the user's operation (No in step S504), the process proceeds to step S507. The same process is performed when the partner viewpoint button B1 has already been selected by a past user operation.
ステップS505では、接近車両10のドライバーの位置の仮想視点VP52aから見た合成画像PT52aが合成画像生成部32により生成され(ステップS505)、ステップS506の処理に進む。
In step S505, the composite image PT52a viewed from the virtual viewpoint VP52a of the position of the driver of the approaching
ステップS506では、合成画像PT52aが画像出力部33により表示装置20に出力され(ステップS506)、ステップS507の処理に進む。
In step S506, the composite image PT52a is output to the
ステップS507では、ディスプレイ24にフロントカメラ51により撮影された撮影画像の画像PT51aと共に、仮想視点VP52aから見た合成画像PT52aがディスプレイ24に映し出されている場合に、ユーザの操作により自車視点ボタンB2が選択されたとき(ステップS507がYes)は、ステップS508の処理に進む。
In step S507, when the composite image PT52a viewed from the virtual viewpoint VP52a is displayed on the
なお、自車視点ボタンB2がユーザの操作により選択されていない場合(ステップS507がNo)は、処理を終了する。また、過去のユーザの操作により既に自車視点ボタンB2が選択されている場合も同様の処理を行う。 If the vehicle viewpoint button B2 is not selected by the user's operation (No in step S507), the process ends. The same processing is also performed when the vehicle viewpoint button B2 has already been selected by a past user operation.
ステップS508では、車両9のドアミラー近傍の仮想視点VP52bから見た合成画像PT52bが合成画像生成部32により生成され(ステップS508)、ステップS509の処理に進む。
In step S508, the composite image PT52b viewed from the virtual viewpoint VP52b near the door mirror of the
ステップS509では、合成画像PT52bが画像出力部33により表示装置20に出力される(ステップS509)。
In step S509, the composite image PT52b is output to the
<第9の実施の形態> <Ninth embodiment>
次に、第9の実施の形態について説明する。第9の実施の形態では、第8の実施の形態で説明した車両9のフロントカメラ51で撮影された画像のサイズと合成画像のサイズとをユーザの操作により切り替えてディスプレイ24に表示する。
Next, a ninth embodiment will be described. In the ninth embodiment, the size of the image captured by the
<9−1.表示画像> <9-1. Display image>
図41は、フロントカメラ51の撮影画像のサイズと合成画像のサイズとの切替を示す図である。図41の上図では、フロントカメラ51で撮影された画像PT51cと共に、車両9と接近車両10の位置に応じた仮想視点から見た合成画像PT52cがディスプレイ24に映し出されている状態を示している。なお、画像PT51cはディスプレイ24の画面の大きさと略同じサイズの画像でディスプレイ24に表示され、合成画像PT52cは、画像PT51cの略1/10のサイズでディスプレイ24に表示されている。
FIG. 41 is a diagram illustrating switching between the size of the captured image of the
なお、ユーザの操作により一の撮影画像のサイズと合成画像のサイズとを切り替えてディスプレイ24に表示する画像切替ボタンB3が画像PT51cに重畳して表示されている。
It should be noted that an image switching button B3 for switching between the size of one captured image and the size of the composite image by the user's operation and displaying it on the
そして、図41の下図には、画像切替ボタンB3がユーザに操作された場合、合成画像PT52cのサイズをユーザの画像切替ボタンB3の操作前の画像PT51cと略同じサイズとする。つまり、切替前の合成画像PT52cのサイズよりも拡大された合成画像PT52dとしてディスプレイ24に映し出す。
In the lower part of FIG. 41, when the image switching button B3 is operated by the user, the size of the composite image PT52c is set to be approximately the same as the image PT51c before the user operates the image switching button B3. That is, it is displayed on the
また、このような画像切替に伴い、画像PT51cのサイズを車両9のユーザの画像切替ボタンB3の操作前の合成画像PT52cと略同じサイズとする。つまり、切替前の画像PT51cよりも縮小された画像PT51dとしてディスプレイ24に映し出す。これにより、車両9の走行状態に応じて、ユーザの希望する画像のサイズを他の画像のサイズと比べて調整できる。
In addition, with such image switching, the size of the image PT51c is set to be approximately the same size as the synthesized image PT52c before the user operates the image switching button B3 of the
<第10の実施の形態> <Tenth Embodiment>
次に、第10の実施の形態について説明する。第10の実施の形態では、車両9が表示装置20のナビテーション機能を用いて車両9を走行させる場合に、表示装置20からのユーザへの案内情報の報知に応じて、仮想視点から見た合成画像をユーザに提供するものである。
Next, a tenth embodiment will be described. In the tenth embodiment, when the
この実施の形態の目的は、次の内容である。表示装置20に表示されたナビゲーション画面により目的地までの経路案内に沿ってユーザが車両9を走行させている場合に、車両9の進路変更を行う必要がない地点でナビゲーション画像から別の画像(例えば、仮想視点から見た合成画像)に表示装置20画像が切り替わるときがある。このような場合、ユーザは本来見たいナビゲーション画像が見ることができないため、煩わしさを感じることがある。そのため、以下の第10の実施の形態では、ユーザが車両9を操作する上で必要となるタイミングで表示装置20に仮想視点から見た合成画像を表示する構成について説明する。
The purpose of this embodiment is as follows. When the user is driving the
<10−1.案内情報地点> <10-1. Guidance information point>
図42は、ユーザに案内情報を報知する地点を示す図である。図42では道路の左車線LAを車両9が走行しており、区画線で区切られた右車線RBを車両9の後方に位置する接近車両10が走行している。そして、車両9のユーザの操作により車両9が到達する目的地が表示装置20に設定された場合の当該目的地に到達するために走行すべきルートである経路RUが示されている。
FIG. 42 is a diagram illustrating points where the guide information is notified to the user. In FIG. 42, the
次に、車両9が経路RUに沿って走行する場合、左車線LA上の地点PN1に車両9が接近したときに、車両9の位置を左車線LAから右車線RBに変更する旨の案内情報が表示装置20からユーザに報知される。そして、このような案内情報が報知される場合に、仮想視点から見た合成画像(例えば、接近車両10のドライバーの視点位置で、車両9の存在する視野方向の仮想視点から見た合成画像)が合成画像生成部32により生成される。生成された合成画像はディスプレイ24に映し出される。このように、表示装置20から報知される案内情報に対応した仮想視点位置から見た合成画像をユーザが確認できる。
Next, when the
また、交差点CR上の地点PN2に車両9が接近した場合に、交差点CRで車両9を右折させ、右車線RBから車線MCに車両9を移動させる旨の案内情報が表示装置20からユーザに報知される。そして、このような案内情報が報知される場合に、仮想視点から見た合成画像(例えば、車両9に対応する車両像91の少なくとも一部を含むように視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点から見た合成画像)が合成画像生成部32により生成される。これにより、車両9の走行車線の変更、および、交差点での進行方向の変更に応じた合成画像をユーザが確認できる。
When the
なお、案内情報を報知する地点に車両9が接近した場合とは、例えば車両9と案内情報を報知する地点との直線の距離が50mとなった場合をいうが、これ以外の距離としてもよい。
The case where the
<10−2.仮想視点の視点位置と視野方向> <10-2. Virtual viewpoint position and viewing direction>
図43は、案内情報を報知する地点での仮想視点の視点位置と視野方向の例を示す図である。図43の左図は、車両9が地点PN1に接近した場合に車両9が左車線LAから右車線RBに車線変更する案内の報知がユーザへ行われたときに、合成画像が生成される仮想視点VP61の視点位置と視野方向を示すものである。詳細には、仮想視点VP61は接近車両10のドライバーの視点位置で、車両9の存在する視野方向の仮想視点であり、この仮想視点VP61から見た合成画像が合成画像生成部32により生成される。
FIG. 43 is a diagram illustrating an example of the viewpoint position and visual field direction of the virtual viewpoint at a point where the guidance information is notified. The left diagram in FIG. 43 shows a virtual image in which a composite image is generated when the user is informed of a guidance for changing the lane from the left lane LA to the right lane RB when the
また、図43の右図は、車両9が地点PN2に接近した場合に車両9が右車線RBから交差点CRを右折して車線MCに移動する案内情報の報知がユーザに行われたときに、合成画像が生成される仮想視点VP62の視点位置と視野方向を示すものである。詳細には、仮想視点VP62は車両9に対応する車両像91の少なくとも一部を含むように視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点である。そして、この仮想視点VP62から見た合成画像が合成画像生成部32により生成される。
43, when the
<10−3.表示画像> <10-3. Display image>
図44は、仮想視点VP61およびVP62から見た合成画像を示す図である。合成画像PT61は車両9の車線変更の案内情報がユーザに報知される場合に、ディスプレイ24に映し出される合成画像である。詳細には、接近車両10のドライバーの仮想視点から見た合成画像であり、接近車両10の前方を走行する車両9の車両像91aがディスプレイ24に映し出されている。また、車両9が左車線LAから右車線RBに車線変更する場合の車両9の移動位置である移動位置画像trがディスプレイ24に映し出されている。また、接近車両像101の進行方向を示す接近状態画像ad1が合成画像に重畳して映し出されている。
FIG. 44 is a diagram illustrating a composite image viewed from the virtual viewpoints VP61 and VP62. The composite image PT61 is a composite image displayed on the
また、合成画像PT62は、車両9の交差点での方向変更の案内情報がユーザに報知される場合に、ディスプレイ24に映し出される合成画像である。詳細には、仮想視点VP62は車両9に対応する車両像91の少なくとも一部を含むように車両9の前方から後方の仮想視点から見た合成画像であり、車両9に対応する車両像91bを含む画像が映し出されている。このようにユーザに報知される案内情報の内容に応じて、合成画像の仮想視点を変更する。これにより、案内情報の内容に対応する車両の走行状況に応じた合成画像をユーザが確認できる。
The composite image PT62 is a composite image that is displayed on the
なお、合成画像PT62には接近車両10に対応する接近車両像101が画像中に映し出されていないが、接近車両10が車両9に接近している場合は、接近車両に対応する接近車両像101を含む合成画像を映し出すようにしてもよい。
<10−4.処理フローチャート>
図45および図46は、表示装置20が案内情報の報知を行う場合に、画像処理装置11aが合成画像をディスプレイ24に表示する処理フローチャートである。ステップS601では、車両9に備えられた車載カメラで撮影した車両9の周辺の撮影画像を画像処理装置11aが取得して(ステップS601)、ステップS602の処理に進む。
In the composite image PT62, the approaching
<10-4. Processing flowchart>
45 and 46 are processing flowcharts in which the
ステップS602では、車両9が目的地までの経路RUに沿って走行する場合に,表示装置20からユーザに報知する案内情報を画像処理装置11aが取得して(ステップS602)、ステップS603の処理に進む。
In step S602, when the
ステップS603では、ユーザへの第1案内情報(例えば、車両9の走行車線の変更に対応した案内情報)を表示装置20から通信部23を介して画像処理装置11aが取得した場合(ステップS603がYes)は、ステップS604の処理に進む。なお、ユーザへの第1案内情報を表示装置20から通信部23を介して画像処理装置11aが取得していない場合(ステップS603がNo)は処理を終了する。
In step S603, when the
ステップS604では、車両9に備えられたバックカメラ52により車両9の後方から接近する接近車両10の存在が検出部112により検知された場合(ステップS604がYes)は、ステップS605に進む。
In step S604, when the presence of the approaching
ステップS605では、接近車両10が存在するため第1仮想視点(例えば、接近車両10のドライバーの視点位置で、車両9の存在する視野方向の仮想視点VP61)が画像処理装置11aにより設定され(ステップS605)、ステップS607の処理に進む。
In step S605, since the approaching
ステップS604に戻り、バックカメラ52で撮影された画像により車両9の後方から接近する接近車両10の存在が検出部112により検知されていない場合(ステップS604がNo)は、ステップS606の処理に進む。
Returning to step S604, if the presence of the approaching
ステップS606では、接近車両10が存在しないため、第2仮想視点(例えば、車両9に対応する車両像91の少なくとも一部を含むように視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点VP62)が画像処理装置11aにより設定され(ステップS606)、ステップS607の処理に進む。
In step S606, since the approaching
ステップS607では、画像処理装置11aにより設定された仮想視点から見た合成画像を合成画像生成部32が生成し(ステップS607)、通信部61を介して表示装置20に合成画像が出力され(ステップS608)、ステップS609の処理に進む。
In step S607, the composite
ステップS609では、ユーザへの第2案内情報(例えば、交差点を右折する車両9の進行方向の変更に対応した案内情報)を表示装置20から通信部23を介して画像処理装置11aが取得した場合(ステップS609がYes)は、ステップS610の処理に進む。なお、ユーザへの第2案内情報を表示装置20から通信部23を介して画像処理装置11aが取得していない場合(ステップS609がNo)は処理を終了する。
In step S609, when the
ステップS610では、車両9に備えられたバックカメラ52で撮影された画像により車両9の後方から接近する接近車両10の存在が検出部112により検知された場合(ステップS610がYes)は、ステップS611に進む。
In step S610, when the presence of the approaching
ステップS611では、接近車両10が存在するため第1仮想視点(例えば、接近車両10のドライバーの視点位置で、車両9の存在する視野方向の仮想視点VP61)が画像処理装置11aにより設定され(ステップS611)、ステップS613の処理に進む。
In step S611, since the approaching
ステップS610に戻って、バックカメラ52により車両9の後方から接近する接近車両10の存在が検出部112により検知されていない場合(ステップS610がNo)は、ステップS612の処理に進む。
Returning to step S610, if the
ステップS612では、接近車両10が存在しないため、第2仮想視点(例えば、車両9に対応する車両像91の少なくとも一部を含むように視点位置を車両9の前方とし、視野方向を車両9の後方とする仮想視点VP62)が画像処理装置11aにより設定され(ステップS612)、ステップS613の処理に進む。
In step S612, since the approaching
ステップS613では、画像処理装置11aにより設定された仮想視点から見た合成画像を合成画像生成部32が生成し(ステップS613)、通信部61を介して表示装置20に合成画像が出力される(ステップS614)。
In step S613, the composite
<変形例> <Modification>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。なお、上記実施の形態で説明した形態、および、以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. In addition, all the forms including the form demonstrated in the said embodiment and the form demonstrated below are combinable suitably.
上記実施の形態において、接近車両10とは車両9の後方を走行する車両で、かつ、車両9の走行する車線に隣接する車線を走行する車両以外にも、車両9の後方を走行する車両で、かつ、車両9の走行する車線と同じ車線を走行する車両も含む。
In the above embodiment, the approaching
上記実施の形態において、接近車両10とは車両9の後方を走行する車両以外に車両9の側方を走行する車両も含む。
In the above embodiment, the approaching
上記実施の形態において、不揮発性メモリ4に仮想視点情報41を予め記録しておき、仮想視点VPの視点位置および視野方向を設定する場合に、画像処理部3が読み出すことについて説明した。これ以外にも仮想視点VPの視点位置および視野方向を設定する場合に、車両9に対する接近車両10の位置に基づいて画像制御部111が仮想視点の視点位置および視野方向を演算して導出するようにしてもよい。
In the above embodiment, it has been described that the
また、上記実施の形態において、検出部112が、車両9の後方からの接近車両10の存在を検出する場合、車両9の後方に備えられたバックカメラ52の撮影画像から画像中の車両9の後方に存在する接近車両10を検出することを説明した。そのほかにもバックカメラ以外の他のカメラを接近車両10の存在を検出するカメラとして用いてもよい。
Moreover, in the said embodiment, when the
また、上記実施の形態において、接近車両10の存在の検出、および、車両9に対する接近車両10の位置情報の取得は、車両9に車両9の外部に送信した送信波のうち物体から反射した反射波を受信して、車両9からの物体の距離、角度、および、相対速度の情報を取得するレーダ装置などの装置を車両9に備えて行ってもよい。
Further, in the above embodiment, the detection of the presence of the approaching
また、上記実施の形態において、接近車両10が存在する車線は車両9の走行する右側(+X方向)に隣接する車線について述べたが、車両9の走行する左側(−X方向)に隣接する車線に接近車両10が存在する場合も上記実施の形態の内容を同様に適用できる。
In the above embodiment, the lane where the approaching
また、上記実施の形態において、車両像91および接近車両像101が合成画像中に含まれる場合とは、車両像91および接近車両像101の全体像だけでなく一部の像だけでもよい。
In the above embodiment, the case where the
また、上記実施の形態において、ディスプレイ24に表示される合成画像中の車両像91、および、接近車両像101の少なくとも一の像の位置を鏡に映したような位置としてもよい。
In the above-described embodiment, the position of at least one of the
また、上記実施の形態において、車両9の左右それぞれの方向から接近する接近車両が存在する場合は、車両9との前後方向(Y軸方向)の直線の値が小さい(車両9に最も接近している)接近車両10を導出部113が導出する。そして、当該接近車両と車両9との位置を結ぶ横方向(X軸方向)の直線の略中央の位置を仮想視点VPの視点位置とし、車両9の後方(+Y方向)を視野方向としてもよい。
Further, in the above embodiment, when there is an approaching vehicle approaching from the left and right directions of the
また、上記実施の形態において、車両9に対する接近車両10の位置に応じて、仮想視点から見た合成画像をディスプレイ24に表示を行わないようにしてもよい。つまり、車両9に対する接近車両10の位置が所定の位置よりも大きく離れている場合は、車両9と接近車両10との衝突の危険性が少ないため、ディスプレイ24に合成画像を表示しないようにしてもよい。
Moreover, in the said embodiment, according to the position of the approaching
また、上記実施の形態において、車両9に対する接近車両10の位置に応じて合成画像中に表示される車両像91および接近車両像101の少なくともいずれか一つの画像のサイズを変更するようにしてもよい。
In the above embodiment, the size of at least one of the
また、第1の実施の形態において、軸線sh1は、例えば車両9が走行する車線と接近車両10が走行する車線を区画する区画線である。
Further, in the first embodiment, the axis sh1 is a lane marking that divides, for example, a lane in which the
また、第2の実施の形態において、仮想視点VPの移動を軸線sh2を基準に反時計回りの方向としたが、車両9に対する接近車両10の位置に応じて、仮想視点VPの移動を軸線sh2を基準に時計回りとしてもよい。
In the second embodiment, the virtual viewpoint VP is moved in the counterclockwise direction with respect to the axis sh2, but the virtual viewpoint VP is moved in the axis sh2 according to the position of the approaching
また、第1および第2の実施の形態において、車両9の走行車線の変更に伴うユーザの操作を操作検知部114が検知した場合に、合成画像生成部32が合成画像を生成し、生成された合成画像をディスプレイ24に表示するようにしてもよい。
Further, in the first and second embodiments, when the
また、第3の実施の形態において、接近車両10が車両9の移動位置へ到達する時間、および、接近車両10と車両9との位置の少なくともいずれか一の条件に応じて合成画像に重畳表示させる警告画像の種類および数など変更するようにしてもよい。
In the third embodiment, the superimposed image is superimposed and displayed on the composite image according to at least one of the time for the approaching
また、第3の実施の形態において、車両9の走行車線変更に伴う動作の有無の判断処理(ステップS201の処理)を接近車両10の存在の有無を判定する処理(ステップS101の処理)の前に行うようにしたが、当該処理を別の処理位置で行うようにしてもよい。例えば、車両9の移動時間と接近車両10の移動時間とを比較する処理(ステップS204の処理)の前にステップS201の処理を行うようにしてもよい。
Further, in the third embodiment, before the process of determining whether or not the approaching
また、第3および第4の実施の形態において、車両9の走行する車線と隣接車線とを区画する区画線の画像の位置の変化により車両9の車線変更時間を導出するようにしてもよい。
In the third and fourth embodiments, the lane change time of the
また、第4の実施の形態において、学習部118が車線変更時間を導出する際にステアリングホイールの操舵角の情報を用いる説明を行ったが、ステアリングホイールの操舵角の角速度の情報を用いて処理を行ってもよい。
Further, in the fourth embodiment, the
また、第4の実施の形態において、車両9のユーザの車線変更時間は車両9の速度ごとに記録してもよい。例えば、車両9の速度を低速(例えば40km/h)、中速(例えば60km/h)、高速(例えば80km/h)の速度帯に分けて、各速度帯ごとのユーザの車線変更時間を記録してもよい。また、車両9の車線変更時間を車載カメラで撮影した区画線の画像に基づいて導出してもよい。
In the fourth embodiment, the lane change time of the user of the
また、第5の実施の形態において、画像処理装置11bに操作検知部114、予測部115、演算部116、および、判断部117を備え、車両9が車線変更する場合で、かつ、所定の条件を満たしたときに警告画像を表示するものとして説明した。これに対して、操作検知部114、予測部115、演算部116、および、判断部117を備えずに、接近車両10が検出部112により検出された場合に接近車両10のドライバーの位置の仮想視点から見た合成画像を合成画像生成部32が生成して、表示装置20のディスプレイ24に表示するようにしてもよい。
In the fifth embodiment, the image processing apparatus 11b includes the
また、第7の実施の形態において、仮想視点VP41から見た合成画像を生成は、接近車両10の存在を検出部112が検出していない場合に行うこととして説明したが、接近車両10の存在を検出部112が検出している場合に行うようにしてもよい。
Further, in the seventh embodiment, the generation of the composite image viewed from the virtual viewpoint VP41 has been described as being performed when the
また、第8および第9の実施の形態において、フロントカメラ51により撮影された画像(例えば画像PT51a)を車両9と共に、接近車両10の位置に応じた仮想視点から見た合成画像をディスプレイ24に映し出す構成について説明した。これに対して、画像PT51aはフロントカメラ51により撮影された画像に限定されることなく、それ以外の一のカメラ(例えば、左サイドカメラ53など)で撮影した画像であってもよい。
In the eighth and ninth embodiments, a composite image obtained by viewing an image (for example, image PT51a) taken by the
また、第8および第9の実施の形態において、車両9の前方を走行する前方車両と車両9との距離が所定の距離を下回った場合に、フロントカメラ51の画像中の前方車両像102の周囲を囲う枠の画像を表示するようにしてもよい。これによりユーザは前方車両と衝突を回避するための車両9に対する操作を行える。
In the eighth and ninth embodiments, the
また、第10の実施の形態において、表示装置20を用いて目的地を設定した場合に表示装置20からユーザに案内情報を報知する場合について述べた。これに対して、目的地を設定していない場合に表示装置20からユーザに案内情報が報知される場合に、合成画像生成部32が仮想視点から見た合成画像を生成するようにしてもよい。例えば、表示装置20を用いた目的地の設定がなされていない場合に、車両9が走行する車線の先で車線数が減少するときに、予め車線変更を行う必要がある旨の案内情報に対応する仮想視点から見た合成画像をディスプレイ24に映し出すようにしてもよい。
Further, in the tenth embodiment, a case has been described in which guidance information is notified from the
また、第10の実施の形態において、第1仮想視点設定および第2仮想視点設定として説明した仮想視点VP61およびVP62の視点位置および視野方向は一例であり、その他の視点位置および視野方向とする仮想視点から見た合成画像を生成するようにしてもよい。例えば、視点位置が車両9の車体の略中央、かつ、略直上の位置にあり、視野方向が車両9の鉛直下方に向けられている仮想視点である。
In the tenth embodiment, the viewpoint positions and viewing directions of the virtual viewpoints VP61 and VP62 described as the first virtual viewpoint setting and the second virtual viewpoint setting are examples, and other viewpoint positions and viewing directions are assumed to be virtual. A composite image viewed from the viewpoint may be generated. For example, it is a virtual viewpoint in which the viewpoint position is substantially in the center of the vehicle body of the
また、第10の実施の形態において、案内情報に対応した仮想視点から見た合成画像をディスプレイ24に映し出す場合、一の合成画像のみでなく仮想視点の視点位置等が異なる複数の合成画像をディスプレイ24に映し出すようにしてもよい。
In the tenth embodiment, when a composite image viewed from a virtual viewpoint corresponding to the guidance information is displayed on the
1・・・・・制御部
3・・・・・画像処理部
5・・・・・撮影部
10・・・・画像処理装置
20・・・・表示装置
DESCRIPTION OF SYMBOLS 1 ...
Claims (17)
車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画
像を生成する生成手段と、
前記車両の後方から接近する接近車両の存在を検出する検出手段と、
前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、
前記合成画像を表示する表示手段と、
を備え、
前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成すること、
を特徴とする画像表示システム。 An image display system used in a vehicle,
Acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle;
Generating means for combining the plurality of captured images to generate a combined image showing a state of the periphery of the vehicle viewed from a virtual viewpoint;
Detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle;
Deriving means for deriving the position of the approaching vehicle relative to the vehicle;
Display means for displaying the composite image;
With
It said generating means, Ri the composite image der viewed from the virtual viewpoint corresponding to the position of the approaching vehicle and the position of the vehicle, the approaching vehicle is increased the height of the virtual viewpoint closer to the vehicle Generating a specific composite image,
An image display system characterized by the above.
車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画
像を生成する生成手段と、
前記車両の後方から接近する接近車両の存在を検出する検出手段と、
前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、
前記合成画像を表示する表示手段と、
を備え、
前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た
前記合成画像であり、前記仮想視点の視点位置を前記接近車両のドライバーの位置とし、前記仮想視点の視野方向を前記車両の存在する方向とする特定合成画像を生成すること、
を特徴とする画像表示システム。 An image display system used in a vehicle,
Acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle;
A composite image showing the surroundings of the vehicle viewed from a virtual viewpoint by combining the plurality of captured images
Generating means for generating an image;
Detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle;
Deriving means for deriving the position of the approaching vehicle relative to the vehicle;
Display means for displaying the composite image;
With
The generation means is viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle.
Generating a specific composite image that is the composite image, wherein the viewpoint position of the virtual viewpoint is the position of the driver of the approaching vehicle, and the visual field direction of the virtual viewpoint is the direction in which the vehicle exists ;
An image display system characterized by the above.
車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画
像を生成する生成手段と、
前記車両の後方から接近する接近車両の存在を検出する検出手段と、
前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、
前記合成画像を表示する表示手段と、
を備え、
前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像である特定合成画像を生成し、
前記表示手段は、前記接近車両が存在しない場合は前記カメラからの前記撮影画像のうちの一の撮影画像を表示し、前記接近車両が存在する場合は前記一の撮影画像と共に前記特定合成画像を表示すること、
を特徴とする画像表示システム。 An image display system used in a vehicle,
Acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle;
A composite image showing the surroundings of the vehicle viewed from a virtual viewpoint by combining the plurality of captured images
Generating means for generating an image;
Detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle;
Deriving means for deriving the position of the approaching vehicle relative to the vehicle;
Display means for displaying the composite image;
With
The generation means generates a specific composite image that is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle,
The display means displays one captured image of the captured images from the camera when the approaching vehicle does not exist, and displays the specific composite image together with the one captured image when the approaching vehicle exists. Displaying,
An image display system characterized by the above.
車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画
像を生成する生成手段と、
前記車両の後方から接近する接近車両の存在を検出する検出手段と、
前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、
前記合成画像を表示する表示手段と、
を備え、
前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像である特定合成画像を生成し、
前記表示手段は、視点位置を前記接近車両のドライバーの位置とし視野方向を前記車両の存在する方向とする前記仮想視点から見た前記特定合成画像と、視点位置を前記車両のドアミラー近傍の位置とし視野方向を前記接近車両の存在する方向とする前記仮想視点から見た前記特定合成画像とを前記車両のユーザの操作に応じて切り替えて表示すること、
を特徴とする画像表示システム。 An image display system used in a vehicle,
Acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle;
A composite image showing the surroundings of the vehicle viewed from a virtual viewpoint by combining the plurality of captured images
Generating means for generating an image;
Detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle;
Deriving means for deriving the position of the approaching vehicle relative to the vehicle;
Display means for displaying the composite image;
With
The generation means generates a specific composite image that is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle,
The display means uses the specific composite image viewed from the virtual viewpoint with the viewpoint position as the position of the driver of the approaching vehicle and the viewing direction as the direction in which the vehicle exists, and the viewpoint position as a position near the door mirror of the vehicle. Switching and displaying the specific composite image viewed from the virtual viewpoint with the view direction as the direction in which the approaching vehicle exists, according to the operation of the user of the vehicle;
An image display system characterized by the above.
前記表示手段は、前記車両のユーザの操作に応じて前記一の撮影画像のサイズと前記特定合成画像のサイズとを切り替えて表示すること、
を特徴とする画像表示システム。 The image display system according to claim 3 ,
The display means switches between the size of the one captured image and the size of the specific composite image in accordance with an operation of a user of the vehicle;
An image display system characterized by the above.
前記車両の走行車線の変更に伴う前記車両のユーザの操作を検知する操作検知手段をさらに備え、
前記表示手段は、前記ユーザの操作が検知された場合に前記特定合成画像を表示すること、
を特徴とする画像表示システム。 The image display system according to claim 1 ,
Further comprising an operation detecting means for detecting an operation of a user of the vehicle accompanying a change in a traveling lane of the vehicle,
The display means displays the specific composite image when an operation of the user is detected;
An image display system characterized by the above.
前記生成手段は、前記仮想視点の位置を前記車両の前方とし、前記仮想視点の視野方向を前記車両後方として、前記車両の像および前記接近車両の像を含む前記特定合成画像を生成すること、
を特徴とする画像表示システム。 The image display system according to claim 6 ,
The generating means generates the specific composite image including the image of the vehicle and the image of the approaching vehicle with the position of the virtual viewpoint as the front of the vehicle and the visual field direction of the virtual viewpoint as the rear of the vehicle;
An image display system characterized by the above.
前記生成手段は、前記仮想視点の視点位置を前記接近車両のドライバーの位置とし、前記仮想視点の視野方向を前記車両の存在する方向として、前記特定合成画像を生成すること、
を特徴とする画像表示システム。 The image display system according to claim 6 ,
The generating means generates the specific composite image with a viewpoint position of the virtual viewpoint as a position of a driver of the approaching vehicle and a visual field direction of the virtual viewpoint as a direction in which the vehicle exists;
An image display system characterized by the above.
前記車両が走行車線を変更して移動する場合の移動位置を予測する予測手段と、
前記接近車両が前記移動位置に移動する第1移動時間を演算する演算手段と、
前記第1移動時間に基づいて前記車両の前記移動位置への移動の可否を判断する判断手段と、
をさらに備え、
前記生成手段は、前記移動の可否の判断結果を示す警告画像を前記合成画像に重畳させた画像を生成すること、
を特徴とする画像表示システム。 The image display system according to claim 6 ,
Predicting means for predicting a moving position when the vehicle moves by changing a traveling lane;
A calculation means for calculating a first movement time for the approaching vehicle to move to the movement position;
Determination means for determining whether the vehicle can move to the movement position based on the first movement time;
Further comprising
The generating unit generates an image in which a warning image indicating a determination result of the movement is superimposed on the composite image;
An image display system characterized by the above.
前記生成手段は、前記警告画像を前記移動位置に重畳させた画像を生成すること、
を特徴とする画像表示システム。 The image display system according to claim 9 ,
The generating means generates an image in which the warning image is superimposed on the movement position;
An image display system characterized by the above.
前記車両が前記移動位置に移動する第2移動時間を計測する計測手段と、
前記第2移動時間を学習記憶する記憶手段と、
をさらに備え、
前記判断手段は、前記第1移動時間と記憶された前記第2移動時間とに基づいて前記移動の可否を判断すること、
を特徴とする画像表示システム。 The image display system according to claim 9 ,
Measuring means for measuring a second moving time during which the vehicle moves to the moving position;
Storage means for learning and storing the second travel time;
Further comprising
The determination means determines whether the movement is possible based on the first movement time and the stored second movement time;
An image display system characterized by the above.
前記ユーザの操作が検知され、かつ、前記接近車両が存在しない場合に、
前記生成手段は、前記仮想視点の視点位置を前記車両の前方とし、前記仮想視点の視野方向を前記車両後方として、前記車両の像と隣接車線の像とを含む前記合成画像である車両合成画像を生成し、
前記表示手段は、前記車両合成画像を表示すること、
を特徴とする画像表示システム。 The image display system according to any one of claims 6 to 11 ,
When the user's operation is detected and the approaching vehicle does not exist,
The generation means is a vehicle composite image that is the composite image including the image of the vehicle and the image of the adjacent lane, with the viewpoint position of the virtual viewpoint as the front of the vehicle and the visual field direction of the virtual viewpoint as the rear of the vehicle. Produces
The display means displays the vehicle composite image;
An image display system characterized by the above.
前記車両の位置を取得する位置取得手段と、
前記車両の位置に応じて、前記車両の目的地までのルートを案内する案内情報をユーザ
に報知する報知手段と、
をさらに備え、
前記表示手段は、前記報知手段が前記案内情報を報知する場合に、前記合成画像を表示すること、
を特徴とする画像表示システム。 The image display system according to any one of claims 1 to 12 ,
Position acquisition means for acquiring the position of the vehicle;
According to the position of the vehicle, the user receives guidance information for guiding a route to the destination of the vehicle.
An informing means for informing ;
Further comprising
The display means displays the composite image when the notification means notifies the guidance information;
An image display system characterized by the above.
前記生成手段は、前記報知手段が報知する前記案内情報の内容に応じて、前記合成画像の前記仮想視点を変更すること、
を特徴とする画像表示システム。 The image display system according to claim 13 ,
The generation means changes the virtual viewpoint of the composite image according to the content of the guidance information notified by the notification means,
An image display system characterized by the above.
前記案内情報は、走行車線の変更を案内する情報と、交差点での方向の変更を案内する情報とを含むこと、
を特徴とする画像表示システム。 The image display system according to claim 14 ,
The guidance information includes information for guiding a change in the driving lane and information for guiding a change in direction at an intersection.
An image display system characterized by the above.
車両に搭載されたカメラの複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す合成画
像を生成する生成手段と、
前記車両の後方から接近する接近車両の存在を検出する検出手段と、
前記車両に対する相対的な前記接近車両の位置を導出する導出手段と、
を備え、
前記生成手段は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成すること、
を特徴とする画像処理装置。 An image processing apparatus used in a vehicle,
Acquisition means for acquiring a plurality of captured images of a camera mounted on the vehicle;
A composite image showing the surroundings of the vehicle viewed from a virtual viewpoint by combining the plurality of captured images
Generating means for generating an image;
Detecting means for detecting the presence of an approaching vehicle approaching from behind the vehicle;
Deriving means for deriving the position of the approaching vehicle relative to the vehicle;
With
The generation means is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle, and the height of the virtual viewpoint is increased as the approaching vehicle approaches the vehicle Generating a composite image,
An image processing apparatus.
(a)車両に搭載されたカメラの複数の撮影画像を取得する工程と、
(b)前記複数の撮影画像を合成して、仮想視点から見た前記車両の周辺の様子を示す
合成画像を生成する工程と、
(c)前記車両の後方から接近する接近車両の存在を検出する工程と、
(d)前記車両に対する相対的な前記接近車両の位置を導出する工程と、
(e)前記合成画像を表示する表示する工程と、
を備え、
前記工程(b)は、前記車両の位置と前記接近車両の位置に応じた前記仮想視点から見た前記合成画像であり、前記接近車両が前記車両に近づくにつれて前記仮想視点の高さを上昇させた特定合成画像を生成すること、
を特徴とする画像表示方法。 An image display method used in a vehicle,
(A) acquiring a plurality of captured images of a camera mounted on the vehicle;
(B) Combining the plurality of captured images to show the surroundings of the vehicle viewed from a virtual viewpoint
Generating a composite image; and
(C) detecting the presence of an approaching vehicle approaching from behind the vehicle;
(D) deriving a position of the approaching vehicle relative to the vehicle;
(E) displaying the composite image; and
With
The step (b) is the composite image viewed from the virtual viewpoint according to the position of the vehicle and the position of the approaching vehicle, and increases the height of the virtual viewpoint as the approaching vehicle approaches the vehicle. Generating a specific composite image,
An image display method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011122387A JP5681569B2 (en) | 2011-05-31 | 2011-05-31 | Information processing system, server device, and in-vehicle device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011122387A JP5681569B2 (en) | 2011-05-31 | 2011-05-31 | Information processing system, server device, and in-vehicle device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012253428A JP2012253428A (en) | 2012-12-20 |
JP5681569B2 true JP5681569B2 (en) | 2015-03-11 |
Family
ID=47525870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011122387A Expired - Fee Related JP5681569B2 (en) | 2011-05-31 | 2011-05-31 | Information processing system, server device, and in-vehicle device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5681569B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10464484B2 (en) | 2015-08-04 | 2019-11-05 | Denso Corporation | Apparatus for presenting support images to a driver and method thereof |
US11858424B2 (en) | 2020-03-26 | 2024-01-02 | Samsung Electronics Co., Ltd. | Electronic device for displaying image by using camera monitoring system (CMS) side display mounted in vehicle, and operation method thereof |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6202240B2 (en) * | 2013-02-05 | 2017-09-27 | スズキ株式会社 | Overhead image presentation device |
JP6488628B2 (en) * | 2014-10-14 | 2019-03-27 | 株式会社デンソー | Video processing apparatus and in-vehicle video processing system |
JP2017033402A (en) | 2015-08-04 | 2017-02-09 | 株式会社デンソー | Vehicle-mounted display control device and vehicle-mounted display control method |
JP6406175B2 (en) * | 2015-08-27 | 2018-10-17 | 株式会社デンソー | In-vehicle display control device, in-vehicle display control method |
JP6586849B2 (en) * | 2015-10-01 | 2019-10-09 | 日産自動車株式会社 | Information display device and information display method |
RU2678436C1 (en) * | 2015-10-08 | 2019-01-29 | Ниссан Мотор Ко., Лтд. | Display aid device and method of display aid |
JP6744744B2 (en) * | 2016-03-31 | 2020-08-19 | 株式会社Subaru | Display device |
JP6723820B2 (en) * | 2016-05-18 | 2020-07-15 | 株式会社デンソーテン | Image generation apparatus, image display system, and image display method |
JP6769187B2 (en) * | 2016-09-05 | 2020-10-14 | 日産自動車株式会社 | Display method of display device and display device |
JP6812181B2 (en) * | 2016-09-27 | 2021-01-13 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP6816436B2 (en) * | 2016-10-04 | 2021-01-20 | アイシン精機株式会社 | Peripheral monitoring device |
JP6889587B2 (en) * | 2017-03-31 | 2021-06-18 | 株式会社Subaru | Image display device |
JP6543313B2 (en) | 2017-10-02 | 2019-07-10 | 株式会社エイチアイ | Image generation record display device and program for mobile object |
US11225193B2 (en) * | 2017-10-26 | 2022-01-18 | Harman International Industries, Incorporated | Surround view system and method thereof |
JP2019169042A (en) * | 2018-03-26 | 2019-10-03 | 株式会社デンソーテン | Viewpoint switching device and viewpoint switching method |
JP6697115B2 (en) * | 2019-06-14 | 2020-05-20 | 株式会社カンデラジャパン | Image generating / recording / displaying device for moving body and program |
JP7429865B2 (en) | 2020-05-28 | 2024-02-09 | パナソニックIpマネジメント株式会社 | Display control device, vehicle and display control method |
JP7398637B2 (en) | 2020-05-28 | 2023-12-15 | パナソニックIpマネジメント株式会社 | Display control device, vehicle and display control method |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4134939B2 (en) * | 2004-04-22 | 2008-08-20 | 株式会社デンソー | Vehicle periphery display control device |
JP5070809B2 (en) * | 2006-11-10 | 2012-11-14 | アイシン精機株式会社 | Driving support device, driving support method, and program |
JP5088669B2 (en) * | 2007-03-23 | 2012-12-05 | 株式会社デンソー | Vehicle periphery monitoring device |
JP2008269580A (en) * | 2007-03-29 | 2008-11-06 | Denso Corp | Information providing device for vehicle |
JP5104397B2 (en) * | 2008-02-27 | 2012-12-19 | 富士通株式会社 | Image processing apparatus and image processing method |
JP5262515B2 (en) * | 2008-09-25 | 2013-08-14 | 日産自動車株式会社 | Vehicle display device and display method |
JP5087051B2 (en) * | 2009-07-02 | 2012-11-28 | 富士通テン株式会社 | Image generating apparatus and image display system |
JP5436086B2 (en) * | 2009-08-03 | 2014-03-05 | アルパイン株式会社 | Vehicle periphery image display device and vehicle periphery image display method |
JP5077307B2 (en) * | 2009-08-05 | 2012-11-21 | 株式会社デンソー | Vehicle surrounding image display control device |
JP2010157252A (en) * | 2010-02-04 | 2010-07-15 | Sony Corp | In-vehicle device, method for providing information of in-vehicle device, program of method for providing information of in-vehicle device, and recording medium having the program recorded therein |
-
2011
- 2011-05-31 JP JP2011122387A patent/JP5681569B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10464484B2 (en) | 2015-08-04 | 2019-11-05 | Denso Corporation | Apparatus for presenting support images to a driver and method thereof |
US11858424B2 (en) | 2020-03-26 | 2024-01-02 | Samsung Electronics Co., Ltd. | Electronic device for displaying image by using camera monitoring system (CMS) side display mounted in vehicle, and operation method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2012253428A (en) | 2012-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5681569B2 (en) | Information processing system, server device, and in-vehicle device | |
EP3650285B1 (en) | Parking assistance method and parking assistance device | |
KR101983957B1 (en) | Display support device and display support method | |
JP5337878B2 (en) | Driving assistance device | |
JP5743652B2 (en) | Image display system, image generation apparatus, and image generation method | |
CN102740056B (en) | Image display system | |
US8036823B2 (en) | Navigation system | |
CN103140377A (en) | Method for displaying images on a display device and driver assistance system | |
JP6699370B2 (en) | Vehicle image processing device | |
JP2014189097A (en) | Parking support device | |
JP2016134001A (en) | Image generation apparatus, image generation method, and program | |
JP2012073836A (en) | Image display system, image processing apparatus, and image display method | |
JP2012076551A (en) | Parking support device, parking support method, and parking support system | |
JP2016063390A (en) | Image processing system and image display system | |
JP2011148369A (en) | Driving support device | |
JP2007168560A (en) | Parking support apparatus | |
CN107539218B (en) | Display control device | |
JP2008145364A (en) | Route guiding device | |
US20200369151A1 (en) | Display unit | |
JP4059309B2 (en) | In-vehicle camera image display control method and apparatus | |
JP2012046124A (en) | Image display system, image processing device and image display method | |
JP5677168B2 (en) | Image display system, image generation apparatus, and image generation method | |
JP5651491B2 (en) | Image display system, image display apparatus, and image display method | |
JP2010156627A (en) | On-vehicle image display device | |
JP5643028B2 (en) | Image display system, image processing apparatus, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140826 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5681569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |