JP2015144406A - Visual field support device, visual field support method, and visual field support program - Google Patents

Visual field support device, visual field support method, and visual field support program Download PDF

Info

Publication number
JP2015144406A
JP2015144406A JP2014051778A JP2014051778A JP2015144406A JP 2015144406 A JP2015144406 A JP 2015144406A JP 2014051778 A JP2014051778 A JP 2014051778A JP 2014051778 A JP2014051778 A JP 2014051778A JP 2015144406 A JP2015144406 A JP 2015144406A
Authority
JP
Japan
Prior art keywords
display
unit
image
visual field
moving speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014051778A
Other languages
Japanese (ja)
Inventor
宜之 伊豆
Nobuyuki Izu
宜之 伊豆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014051778A priority Critical patent/JP2015144406A/en
Publication of JP2015144406A publication Critical patent/JP2015144406A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To perform rear visual field support according to the traveling speed of a moving body.SOLUTION: A visual field support device 10 is equipped with a photographer 14, a detector 18, a generator 20, and a display controller 22. The photographer 14 is mounted on a moving body and photographs an area behind the moving body. The detector 18 detects the traveling speed of the moving body. The generator 20 generates, on the basis of a photographed image, a display image having different display ranges in accordance with the traveling speed. The display controller 22 performs control so as to display the display image on a display 16 that is mounted on the moving body.

Description

本発明は、視界支援装置、視界支援方法、及び視界支援プログラムに関する。   The present invention relates to a visual field support device, a visual field support method, and a visual field support program.

車両後方を撮影した撮影画像を、車両内に設けられた表示部に表示する技術が開示されている(例えば、特許文献1、特許文献2)。特許文献1には、表示部に表示された、車両の左右後方の撮影画像の各々に対応する表示画像について、ユーザによる一方の表示画像の視野調整結果を他方の表示画像に自動的に反映させる技術が開示されている。特許文献2には、車両後方を撮影した表示画像に遠近感を持たせるために、撮影画像における、自車の遠方側の領域ほど非鮮明となるように画像を補正することが開示されている。   Techniques for displaying a captured image obtained by capturing the rear of the vehicle on a display unit provided in the vehicle are disclosed (for example, Patent Document 1 and Patent Document 2). Patent Document 1 automatically reflects the visual field adjustment result of one display image by the user on the display image corresponding to each of the left and right rear captured images of the vehicle displayed on the display unit. Technology is disclosed. Patent Document 2 discloses that an image is corrected so that a region closer to the far side of the host vehicle in the captured image becomes less clear in order to give a perspective to a display image obtained by capturing the rear of the vehicle. .

特開2011−217318号公報JP 2011-217318 A 特開2013−187562号公報JP 2013-187562 A

車両等の移動体は、移動速度を変化させながら走行する。移動体が高速で走行するほど、移動体の運転者は、より細心の注意を払って運転を行う必要があり、移動体後方の状況確認がし難い場合がある。しかし、従来の技術では、移動体の移動速度に着目した画像表示はなされていなかった。   A moving body such as a vehicle travels while changing the moving speed. As the moving body travels at a higher speed, it is necessary for the driver of the moving body to drive more carefully, and it may be difficult to check the situation behind the moving body. However, in the prior art, image display focusing on the moving speed of the moving body has not been made.

本発明は、上記に鑑みてなされたものであって、移動体の移動速度に応じた後方視界支援を行うことができる、視界支援装置、視界支援方法、及び視界支援プログラムを提供することを主な目的とする。   The present invention has been made in view of the above, and mainly provides a field-of-view support device, a field-of-view support method, and a field-of-view support program capable of performing rear view support according to the moving speed of a moving object. With a purpose.

本発明の視界支援装置は、撮影部と、検出部と、生成部と、表示制御部と、を備える。撮影部は、移動体に搭載され、前記移動体の後方領域を撮影する。検出部は、前記移動体の移動速度を検出する。生成部は、前記撮影部の撮影によって得られた撮影画像に基づき、前記検出部が検出した移動速度に応じて表示される範囲の異なる表示画像を生成する。表示制御部は、前記生成部が生成した前記表示画像を、前記移動体に搭載された表示部に表示するように制御する。   The visibility support apparatus of this invention is provided with an imaging | photography part, a detection part, a production | generation part, and a display control part. The photographing unit is mounted on the moving body and photographs a rear region of the moving body. The detection unit detects a moving speed of the moving body. The generation unit generates a display image having a different range to be displayed according to the moving speed detected by the detection unit, based on the captured image obtained by the imaging of the imaging unit. The display control unit controls the display image generated by the generation unit to be displayed on the display unit mounted on the moving body.

本発明の視界支援方法は、移動体の移動速度を検出する検出ステップと、前記移動体に搭載され、前記移動体の後方領域を撮影する撮影部によって得られた撮影画像に基づき、前記検出ステップにおいて検出された移動速度に応じて表示される範囲の異なる表示画像を生成する生成ステップと、前記生成ステップにおいて生成された前記表示画像を、前記移動体に搭載された表示部に表示するように制御する表示ステップと、を含む視界支援方法である。   The visual field support method of the present invention includes a detection step of detecting a moving speed of a moving body, and a detection step based on a captured image that is mounted on the moving body and obtained by an imaging unit that captures a rear region of the moving body. Generating a display image having a different range to be displayed according to the movement speed detected in step S3, and displaying the display image generated in the generation step on a display unit mounted on the moving body. And a display step for controlling.

本発明の視界支援プログラムは、移動体の移動速度を検出する検出ステップと、前記移動体に搭載され、前記移動体の後方領域を撮影する撮影部によって得られた撮影画像に基づき、前記検出ステップにおいて検出された移動速度に応じて表示される範囲の異なる表示画像を生成する生成ステップと、前記生成ステップにおいて生成された前記表示画像を、前記移動体に搭載された表示部に表示するように制御する表示ステップと、を移動体において利用可能なコンピュータに実行させるための視界支援プログラムである。   The visual field support program of the present invention includes a detection step for detecting a moving speed of a moving body, and a detection step based on a captured image that is mounted on the moving body and obtained by an imaging unit that captures a rear region of the moving body. Generating a display image having a different range to be displayed according to the movement speed detected in step S3, and displaying the display image generated in the generation step on a display unit mounted on the moving body. It is a visual field assistance program for making a computer which can be used in a mobile perform a display step to control.

本発明によれば、移動体の移動速度に応じた後方視界支援を行うことができる、という効果を奏する。   According to the present invention, there is an effect that it is possible to perform rear view support according to the moving speed of the moving body.

図1は、視界支援装置を示す機能ブロック図である。FIG. 1 is a functional block diagram showing the visual field support device. 図2は、撮影部の設置位置の説明図である。FIG. 2 is an explanatory diagram of an installation position of the photographing unit. 図3は、撮影部の設置位置の説明図である。FIG. 3 is an explanatory diagram of an installation position of the photographing unit. 図4は、表示部の設置位置の説明図である。FIG. 4 is an explanatory diagram of the installation position of the display unit. 図5は、表示領域と枠部との位置関係の説明図である。FIG. 5 is an explanatory diagram of the positional relationship between the display area and the frame portion. 図6は、切出範囲の説明図である。FIG. 6 is an explanatory diagram of the cutout range. 図7は、表示領域の中心の説明図である。FIG. 7 is an explanatory diagram of the center of the display area. 図8は、表示画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of a display image. 図9は、視界支援処理の手順を示すフローチャートである。FIG. 9 is a flowchart illustrating the procedure of the visibility support process. 図10は、矩形形状の切出範囲の説明図である。FIG. 10 is an explanatory diagram of a rectangular cutout range. 図11は、重畳画像の説明図である。FIG. 11 is an explanatory diagram of a superimposed image. 図12は、重畳画像としての表示画像を示す図である。FIG. 12 is a diagram illustrating a display image as a superimposed image. 図13は、視界支援装置を示す機能ブロック図である。FIG. 13 is a functional block diagram illustrating the visual field support device. 図14は、消失点の説明図である。FIG. 14 is an explanatory diagram of vanishing points. 図15は、視界支援処理の手順を示すフローチャートである。FIG. 15 is a flowchart showing the procedure of the visibility support process. 図16は、視界支援装置を示す機能ブロック図である。FIG. 16 is a functional block diagram illustrating the visual field support device. 図17は、視界支援処理の手順を示すフローチャートである。FIG. 17 is a flowchart showing the procedure of the visibility support process. 図18は、表示画像の一例を示す図である。FIG. 18 is a diagram illustrating an example of a display image. 図19は、表示画像の一例を示す図である。FIG. 19 is a diagram illustrating an example of a display image.

以下に添付図面を参照して、実施の形態にかかる視界支援装置、視界支援方法、及び視界支援プログラムの実施の形態を詳細に説明する。   Exemplary embodiments of a visual field support device, a visual field support method, and a visual field support program according to embodiments will be described below in detail with reference to the accompanying drawings.

(実施の形態1)
図1は、本実施の形態の視界支援装置10を示す機能ブロック図である。
(Embodiment 1)
FIG. 1 is a functional block diagram showing a visual field support device 10 according to the present embodiment.

視界支援装置10は、移動体に搭載されている。視界支援装置10は、移動体の搭乗者、特に、運転者の後方視界を支援する装置であり、移動体が自動車である場合は、サイドミラー等の後方確認用ミラーの置き換えまたは補助を目的とする装置である。移動体は、移動速度の変化するものである。移動体は、例えば、車両等である。車両は、2輪自動車、3輪自動車、4輪自動車等の自動車など、運転者が前方を向いて運転する際に、運転者が移動体の後方の情報を必要とするような移動体が対象である。本実施の形態では、一例として、移動体が、4輪自動車(以下、車両と称する)である場合を説明する。   The visual field support device 10 is mounted on a moving body. The field-of-view support device 10 is a device that supports the rear view of a passenger of a moving object, particularly a driver. When the moving object is an automobile, the purpose is to replace or assist a rear-viewing mirror such as a side mirror. It is a device to do. The moving body changes its moving speed. The moving body is, for example, a vehicle. The vehicle is a moving body such as a two-wheeled vehicle, a three-wheeled vehicle, a four-wheeled vehicle, or the like that requires information on the rear side of the moving body when the driver is driving forward. It is. In the present embodiment, as an example, a case where the moving body is a four-wheel automobile (hereinafter referred to as a vehicle) will be described.

視界支援装置10は、制御部12、撮影部14、表示部16、及び記憶部17を備える。   The visual field support device 10 includes a control unit 12, a photographing unit 14, a display unit 16, and a storage unit 17.

撮影部14は、車両の後方領域を撮影し、撮影画像を取得する。本実施の形態では、撮影部14は、広角の撮影画像を取得する。撮影部14の例としては、カメラ等の撮影装置である。   The imaging unit 14 captures a rear area of the vehicle and acquires a captured image. In the present embodiment, the imaging unit 14 acquires a wide-angle captured image. An example of the photographing unit 14 is a photographing device such as a camera.

撮影画像は、動画像データであってもよいし、予め定められた間隔で連続撮影した静止画像データの群であってもよい。   The captured image may be moving image data or a group of still image data continuously captured at a predetermined interval.

車両の後方とは、車両の通常の進行方向(車両におけるステアリングホイールの設けられている方向)とは逆の方向を意味する。   The rear of the vehicle means a direction opposite to the normal traveling direction of the vehicle (the direction in which the steering wheel is provided in the vehicle).

後方領域は、車両の後方と、車両の走行している路面と、の双方を含む領域であることが好ましい。また、後方領域は、車両の側面と、車両の後方と、車両の走行している路面と、を含む領域であることが更に好ましい。また、車両の後方領域は、車両36に設けられたサイドミラーに映る鏡像に対応する領域を、少なくとも含むことが特に好ましい。   The rear region is preferably a region including both the rear of the vehicle and the road surface on which the vehicle is traveling. Further, the rear region is more preferably a region including a side surface of the vehicle, the rear of the vehicle, and a road surface on which the vehicle is traveling. In addition, it is particularly preferable that the rear area of the vehicle includes at least an area corresponding to a mirror image reflected on a side mirror provided in the vehicle 36.

なお、撮影部14は、撮影部14の設置位置、設置方向、画角等を予め調整することで、上記後方領域を撮影可能となるように、予め調整されている。本実施の形態では、撮影部14は、車両に設けられたサイドミラーに映る鏡像に対応する領域を、車両の後方領域として撮影可能な位置に設置されている場合を説明する。   The imaging unit 14 is adjusted in advance so that the rear area can be captured by adjusting the installation position, installation direction, angle of view, and the like of the imaging unit 14 in advance. In the present embodiment, a case will be described in which the photographing unit 14 is installed at a position where a region corresponding to a mirror image reflected on a side mirror provided in the vehicle can be photographed as a rear region of the vehicle.

また、撮像部14は、後述する切出範囲Pの様々な大きさや切出し位置に対応可能なように、広角の撮影画像を取得可能である。   Further, the imaging unit 14 can acquire a wide-angle captured image so as to correspond to various sizes and cutout positions of a cutout range P described later.

撮影部14は、第1撮影部14Aと、第2撮影部14Bと、を備える。第1撮影部14Aと第2撮影部14Bは、車両における設置位置が異なる以外は、同じ構成である。   The imaging unit 14 includes a first imaging unit 14A and a second imaging unit 14B. The first imaging unit 14A and the second imaging unit 14B have the same configuration except that the installation positions in the vehicle are different.

図2及び図3は、撮影部14の設置位置の一例を示す説明図である。本実施の形態では、車両36の側面に撮影部14のみが備えられた構成を一例として説明する。本実施の形態の視界支援装置10は、サイドミラーと併用されてもよい。   2 and 3 are explanatory diagrams illustrating an example of an installation position of the photographing unit 14. In the present embodiment, a configuration in which only the photographing unit 14 is provided on the side surface of the vehicle 36 will be described as an example. The visual field support device 10 of the present embodiment may be used in combination with a side mirror.

第1撮影部14Aは、車両36の右側面に設置されている。第1撮影部14Aにおけるカメラの向きは、車両36の後方領域を撮影可能な向きに調整されている。なお、第1撮影部14Aに図示を省略する駆動部を設け、ユーザの操作によってカメラの向きを変更可能な構成としてもよい。カメラの向きは、後述する制御部12によって自動調整されてもよく、手動で調整可能としてもよい。   The first imaging unit 14 </ b> A is installed on the right side surface of the vehicle 36. The orientation of the camera in the first imaging unit 14A is adjusted to an orientation in which the rear area of the vehicle 36 can be imaged. In addition, it is good also as a structure which can provide the drive part which abbreviate | omits illustration in the 1st imaging | photography part 14A, and can change the direction of a camera by a user's operation. The orientation of the camera may be automatically adjusted by the control unit 12 described later, or may be manually adjustable.

第2撮影部14Bは、車両36の左側面に設置されている。第2撮影部14Bにおいても第1撮影部14A同様に、ユーザの操作によってカメラの向きを自動または手動により変更可能な構成としてもよい。   The second photographing unit 14 </ b> B is installed on the left side surface of the vehicle 36. Similarly to the first photographing unit 14A, the second photographing unit 14B may have a configuration in which the orientation of the camera can be changed automatically or manually by a user operation.

なお、撮影部14は、車両36の後方領域を撮影可能な位置に設置されていればよく、サイドミラーが設置される位置と同等の位置に限定されない。例えば、撮影部14は、車両の屋根部分、車両の後部、または車両のフェンダー部分等に設置してもよい。   In addition, the imaging | photography part 14 should just be installed in the position which can image | photograph the back area | region of the vehicle 36, and is not limited to the position equivalent to the position where a side mirror is installed. For example, you may install the imaging | photography part 14 in the roof part of a vehicle, the rear part of a vehicle, or the fender part of a vehicle.

撮影部14は、車両36のボディーと一体化させて設置することが好ましい。撮像部14の形状または撮像部14を覆うカバー等の装着により、撮影部14を車両のボディーと一体化させて設置することで、車両走行時の空力性能への影響や、風切音等の走行ノイズへの影響を低減することができる。   The photographing unit 14 is preferably installed integrally with the body of the vehicle 36. By installing the imaging unit 14 with the body of the vehicle by installing the shape of the imaging unit 14 or a cover that covers the imaging unit 14, the influence on aerodynamic performance during driving of the vehicle, wind noise, etc. The influence on running noise can be reduced.

図1に戻り、表示部16は、撮影部14によって得られた撮影画像を表示する。表示部16は、各種画像を表示する公知の表示装置である。本実施の形態では、表示部16は、制御部12で生成された後述する表示画像を表示する。   Returning to FIG. 1, the display unit 16 displays the captured image obtained by the imaging unit 14. The display unit 16 is a known display device that displays various images. In the present embodiment, the display unit 16 displays a display image, which will be described later, generated by the control unit 12.

本実施の形態では、表示部16は、第1表示部16Aと、第2表示部16Bと、を備える。第1表示部16Aは、第1撮影部14Aで撮影された撮影画像に対応する表示画像を表示する。第2表示部16Bは、第2撮影部14Bで撮影された撮影画像に対応する表示画像を表示する。   In the present embodiment, the display unit 16 includes a first display unit 16A and a second display unit 16B. 16 A of 1st display parts display the display image corresponding to the picked-up image image | photographed by 14 A of 1st imaging | photography parts. The second display unit 16B displays a display image corresponding to the captured image captured by the second imaging unit 14B.

表示部16は、車両36に設置されている。詳細には、表示部16は、該車両36の運転者が運転中に表示画像を視認可能な位置であれば、車室内の設置に限らない。   The display unit 16 is installed in the vehicle 36. Specifically, the display unit 16 is not limited to being installed in the passenger compartment as long as the driver of the vehicle 36 can view the display image while driving.

図4は、表示部16の設置位置の一例を示す説明図である。   FIG. 4 is an explanatory diagram illustrating an example of an installation position of the display unit 16.

表示部16は、車両36に設けられたステアリングホイール30の近傍で、且つ当該車両36の運転者が運転中に視認しやすい箇所に設置されている。本実施の形態では、表示部16は、ダッシュボード26におけるインスツルメントパネル28の両側に設けられている。表示部16をステアリングホイール30の近傍に配置することで、運転者が表示部16を確認する際に必要な視線の移動を最小とすることができる。さらには、車両36のウィンドシールドや図示しないコンバイナ等を用いて運転者の前方に虚像を投影するヘッドアップディスプレイが存在する場合であっても、運転中に表示部16、インスツルメントパネル28に加えて虚像も含めて、運転者の視界内に表示することができる。   The display unit 16 is installed in the vicinity of the steering wheel 30 provided in the vehicle 36 and at a place where the driver of the vehicle 36 can easily see while driving. In the present embodiment, the display unit 16 is provided on both sides of the instrument panel 28 in the dashboard 26. By disposing the display unit 16 in the vicinity of the steering wheel 30, the movement of the line of sight necessary when the driver checks the display unit 16 can be minimized. Furthermore, even if there is a head-up display that projects a virtual image in front of the driver using a windshield of the vehicle 36 or a combiner (not shown), the display unit 16 and the instrument panel 28 are In addition, a virtual image can be displayed in the driver's field of view.

本実施の形態では、車両36の右側の後方領域の撮影画像に応じた表示画像を表示する第1表示部16Aが、ダッシュボード26におけるインスツルメントパネル28の右側に配置されている。また、車両36の左側の後方領域の撮影画像に応じた表示画像を表示する第2表示部16Bが、ダッシュボード26におけるインスツルメントパネル28の左側に配置されている。   In the present embodiment, the first display unit 16 </ b> A that displays a display image corresponding to the captured image of the rear region on the right side of the vehicle 36 is disposed on the right side of the instrument panel 28 in the dashboard 26. A second display unit 16 </ b> B that displays a display image corresponding to a captured image of the rear region on the left side of the vehicle 36 is disposed on the left side of the instrument panel 28 in the dashboard 26.

なお、表示部16は、車両36における、該車両36の運転者によって視認されやすい箇所に設置されていればよく、図4に示す位置に限定されない。表示部16は、例えば、ダッシュボード26上に設置されていてもよく、フロントピラーに設けられていてもよい。また、インスツルメントパネル28と一体化されていてもよい。具体的には、ダッシュボード26に横長形状の表示面を備え、中央部をインスツルメントパネル28として用い、インスツルメントパネル28の左右を第2表示部16Bおよび第1表示部16Aとして用いる。   In addition, the display part 16 should just be installed in the location which is easy to visually recognize by the driver | operator of this vehicle 36 in the vehicle 36, and is not limited to the position shown in FIG. The display part 16 may be installed on the dashboard 26, for example, and may be provided in the front pillar. Further, it may be integrated with the instrument panel 28. Specifically, the dashboard 26 has a horizontally long display surface, the center portion is used as the instrument panel 28, and the left and right sides of the instrument panel 28 are used as the second display portion 16B and the first display portion 16A.

表示部16の表示領域の外周は、枠部32によって覆われている。表示領域は、表示画像の表示される領域である。図5は、表示部16における表示領域Eと枠部32との位置関係の説明図である。   The outer periphery of the display area of the display unit 16 is covered with a frame unit 32. The display area is an area where a display image is displayed. FIG. 5 is an explanatory diagram of the positional relationship between the display area E and the frame part 32 in the display unit 16.

表示部16は、枠部32を備える。枠部32は、表示部16における表示領域Eがサイドミラーの鏡面の形状と相似形状となるように、該表示領域Eの外側の一部を覆うように配置されている。ここでいうサイドミラーの鏡面形状とは、当該車両に設置されているサイドミラーまたは当該車両と同等の車両に設置されるサイドミラーの鏡面形状である。具体例としては、セダンタイプの車両に多用される図5のような鏡面形状や、オフロード車やトラック、バス等の車両に設置される縦長形状等、車種や用途に対応する形状である。枠部32は、表示部16の表示領域Eに表示された表示画像の一部を視認不可能となるように覆うことの可能な色及び材質で構成されていればよい。例えば、枠部32は、黒色の樹脂によって構成されている。   The display unit 16 includes a frame unit 32. The frame portion 32 is disposed so as to cover a part of the outside of the display region E so that the display region E in the display unit 16 has a shape similar to the shape of the mirror surface of the side mirror. The mirror surface shape of the side mirror here is a mirror surface shape of a side mirror installed in the vehicle or a side mirror installed in a vehicle equivalent to the vehicle. Specific examples include a shape corresponding to the vehicle type and application, such as a mirror shape as shown in FIG. 5 frequently used for sedan type vehicles, and a vertically long shape installed in vehicles such as off-road vehicles, trucks, and buses. The frame part 32 should just be comprised with the color and material which can cover a part of display image displayed on the display area E of the display part 16 so that it cannot be visually recognized. For example, the frame portion 32 is made of a black resin.

図1に戻り、記憶部17は、各種データを記憶する記憶装置であり、例えば公知のHDD等の記憶媒体や内部メモリ等である。また、記憶部17は、視界支援装置10が利用できる形態であれば、着脱可能な記憶媒体や、ネットワーク等を介した他の装置であってもよい。   Returning to FIG. 1, the storage unit 17 is a storage device that stores various data, and is, for example, a known storage medium such as an HDD or an internal memory. In addition, the storage unit 17 may be a removable storage medium or another device via a network or the like as long as the visibility support device 10 can be used.

制御部12は、CPU(Central Processing Unit)などを含んで構成されるコンピュータであり、視界支援装置10全体を制御する。なお、制御部12は、CPU以外の回路等であってもよい。   The control unit 12 is a computer including a CPU (Central Processing Unit) and the like, and controls the entire visual field support device 10. Note that the control unit 12 may be a circuit other than the CPU.

制御部12は、検出部18、生成部20、及び表示制御部22を備える。検出部18、生成部20、及び表示制御部22の一部または全ては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   The control unit 12 includes a detection unit 18, a generation unit 20, and a display control unit 22. Some or all of the detection unit 18, the generation unit 20, and the display control unit 22 may be realized, for example, by causing a processing device such as a CPU to execute a program, that is, by software, or an IC (Integrated Circuit). Such hardware may be used, or software and hardware may be used in combination.

検出部18は、該視界支援装置10の搭載された車両36の移動速度を検出する。本実施の形態では、検出部18は、車両36本体の制御部(図示省略)から車速情報を取得することで、移動速度を検出する。なお、車両36の移動速度の検出方法は、公知の方法であればよく、上記方法に限定されない。   The detection unit 18 detects the moving speed of the vehicle 36 on which the visibility support device 10 is mounted. In the present embodiment, the detection unit 18 detects the moving speed by acquiring vehicle speed information from a control unit (not shown) of the vehicle 36 main body. In addition, the detection method of the moving speed of the vehicle 36 should just be a well-known method, and is not limited to the said method.

また、検出部18は、車両36の移動速度に加えて、車両36の後方に他の車両が存在する場合に、他の車両の移動速度または車間距離を検出する。他の車両の車間距離は、検出部18として備えられているミリ波レーダや、後方を撮影するカメラの画像処理等、公知の手法が適用される。他の車両の移動速度は、検出部18が検出した車両36の移動速度を基準とし、他の車両の車間距離の推移等からの算出など、公知の手法が適用される。   In addition to the moving speed of the vehicle 36, the detecting unit 18 detects the moving speed or the inter-vehicle distance of the other vehicle when there is another vehicle behind the vehicle 36. A known method such as millimeter wave radar provided as the detection unit 18 or image processing of a camera that captures the rear is applied to the inter-vehicle distance of other vehicles. The moving speed of the other vehicle is based on the moving speed of the vehicle 36 detected by the detection unit 18, and a known method such as calculation from the transition of the inter-vehicle distance of the other vehicle is applied.

生成部20は、撮影部14の撮影によって得られた撮影画像を、検出部18で検出された移動速度に応じて表示される範囲の異なる表示画像を生成する。言い換えると、生成部20は、撮影画像における、撮影画像に含まれる各フレームについて、各フレームの撮影タイミングと一致するタイミングで検出された移動速度に応じて、各フレームを拡大または縮小させることにより表示範囲の異なる表示画像を生成する。   The generation unit 20 generates a display image having a different range in which the captured image obtained by the imaging of the imaging unit 14 is displayed according to the moving speed detected by the detection unit 18. In other words, the generation unit 20 displays each frame included in the captured image by enlarging or reducing each frame according to the moving speed detected at a timing that coincides with the capturing timing of each frame. Display images with different ranges are generated.

具体的には、生成部20は、検出部18で検出された移動速度が速いほど、撮影画像を高倍率に拡大した表示画像を生成する。   Specifically, the generation unit 20 generates a display image obtained by enlarging the captured image at a higher magnification as the moving speed detected by the detection unit 18 is faster.

生成部20は、切出部20A及び拡大部20Bを備える。   The generation unit 20 includes a cutout unit 20A and an enlargement unit 20B.

切出部20Aは、撮影部14で得られた撮影画像から、予め定められた切出範囲の切出画像を切り出す。図6は、切出範囲Pの一例を示す説明図である。なお、図6には、説明を簡略化するために、第1表示部16Aに表示する表示画像に対応する第1撮影部14Aで得られた撮影画像から、切出範囲Pの切出画像を切り出す場合を示した。なお、第2撮影部14B及び第2表示部16Bについても同様である。また、図6においては、切出部20Aは表示領域Eの形状に切出画像を切出した例を示したが、表示領域Eは、枠部32の形状により規定されるため、撮影画像40と同一の形状に切出画像を切出してもよい。   The cutout unit 20A cuts out a cutout image of a predetermined cutout range from the shot image obtained by the shooting unit 14. FIG. 6 is an explanatory diagram illustrating an example of the cutout range P. In FIG. 6, in order to simplify the description, a cut-out image of the cut-out range P is extracted from the shot image obtained by the first shooting unit 14A corresponding to the display image displayed on the first display unit 16A. The case of cutting out was shown. The same applies to the second imaging unit 14B and the second display unit 16B. 6 shows an example in which the cutout part 20A cuts out a cutout image in the shape of the display area E. However, since the display area E is defined by the shape of the frame part 32, You may cut out the cut image in the same shape.

切出部20Aは、検出部18によって検出された移動速度が速いほど、狭い切出範囲Pで、撮影画像40から切出画像42を切り出す。なお、切出部20Aが切出画像42の切り出し時に用いる移動速度は、該撮影画像40の撮影タイミングと同じタイミングで検出された移動速度である。   The cutout unit 20A cuts out the cutout image 42 from the captured image 40 within a narrow cutout range P as the moving speed detected by the detection unit 18 increases. Note that the moving speed used when the cutout unit 20A cuts out the cutout image 42 is the movement speed detected at the same timing as the shooting timing of the shot image 40.

ここで、上記記憶部17は、移動速度と、切出範囲Pの大きさと、を対応づけた範囲情報を予め記憶する。この範囲情報は、車両36の移動速度が速いほど、切出範囲Pが狭くなるように設定されている。   Here, the storage unit 17 stores in advance range information in which the moving speed is associated with the size of the cutout range P. This range information is set so that the cutout range P becomes narrower as the moving speed of the vehicle 36 is faster.

例えば、記憶部17は、検出された移動速度が予め定めた第1閾値未満(例えば、時速50km未満)、第1閾値以上第2閾値未満(例えば、時速50km以上80km未満)、第2閾値以上(時速80km以上)の各々に対して、段階的に狭い切出範囲Pの大きさを対応づけた範囲情報を、予め記憶する。なお、範囲情報は、これらの3段階の移動速度に対応する切出範囲Pの大きさに限定されず、更に多段階の移動速度の各々に対応する切出範囲Pの大きさを登録してもよい。   For example, the storage unit 17 is configured such that the detected moving speed is less than a predetermined first threshold (for example, less than 50 km / h), greater than or equal to the first threshold and less than the second threshold (for example, greater than or equal to 50 km / h and less than 80 km), and greater than or equal to the second threshold. Range information in which the size of the cut-out range P that is narrow in a stepwise manner is stored in advance for each of (80 km / h or more). The range information is not limited to the size of the cutout range P corresponding to these three stages of moving speeds, and further, the size of the cutout range P corresponding to each of the multistage moving speeds is registered. Also good.

例えば、範囲情報は、第1閾値未満の移動速度に対応づけて、切出範囲P1の大きさを登録する。また、範囲情報は、第1閾値以上第2閾値未満の移動速度に対応づけて、切出範囲P1より狭い切出範囲P2の大きさを登録する。また、範囲情報は、第2閾値以上の移動速度に対応づけて、切出範囲P2より狭い切出範囲P3の大きさを登録する。   For example, in the range information, the size of the cutout range P1 is registered in association with the moving speed less than the first threshold. The range information registers the size of the cutout range P2 that is narrower than the cutout range P1 in association with the moving speed that is greater than or equal to the first threshold and less than the second threshold. Further, in the range information, the size of the cutout range P3 narrower than the cutout range P2 is registered in association with the moving speed equal to or higher than the second threshold.

また、記憶部17は、切出範囲Pの形状、切出範囲Pの位置を予め記憶する。本実施の形態では、記憶部17に記憶される切出範囲Pの形状は、上述したように矩形またはサイドミラーの鏡面の形状の相似形状を予め記憶する。なお、切出範囲Pの形状は、上記形状に限定されない。   The storage unit 17 stores in advance the shape of the cutout range P and the position of the cutout range P. In the present embodiment, the shape of the cut-out range P stored in the storage unit 17 stores in advance a shape similar to the shape of the rectangle or the mirror surface of the side mirror as described above. Note that the shape of the cutout range P is not limited to the above shape.

また、記憶部17は、切出範囲Pの位置として、撮影画像40における中心C1の位置を、切出範囲Pの中心位置とすることを示す情報を、予め記憶している。   In addition, the storage unit 17 stores in advance information indicating that the position of the center C1 in the captured image 40 is the center position of the cutout range P as the position of the cutout range P.

切出部20Aは、記憶部17に記憶されている切出範囲Pの位置と、切出範囲Pの形状と、検出部18で検出された移動速度に対応する切出範囲Pの大きさと、を読取り、読取った形状及び大きさで且つ読取った位置の切出範囲Pを、撮影画像40から切出す。これにより、切出部20Aは、撮影画像40から切出画像42を切り出す。   The cutout unit 20A includes the position of the cutout range P stored in the storage unit 17, the shape of the cutout range P, the size of the cutout range P corresponding to the moving speed detected by the detection unit 18, and , And the cutout range P of the read position with the read shape and size is cut out from the captured image 40. Accordingly, the cutout unit 20A cuts out the cutout image 42 from the captured image 40.

なお、切出範囲Pの位置は、車両36の運転者等による図示を省略する操作部の操作指示等によって適宜変更可能である。例えば、ユーザによる図示を省略する操作部の操作指示によって切出範囲Pの位置が変更されると、制御部12は、変更後の切出範囲Pの位置を記憶部17に記憶する。そして、切出部20Aは、記憶部17に記憶されている切出範囲Pの位置と、切出範囲Pの形状と、検出部18で検出された移動速度に対応する切出範囲Pの大きさと、を読取り、切出画像42を切り出す。このため、視界支援装置10では、ユーザによる操作指示によって、撮影画像40の切出範囲Pの位置を容易に変更することができる。   It should be noted that the position of the cutout range P can be appropriately changed by an operation instruction or the like of an operation unit (not shown) by the driver of the vehicle 36 or the like. For example, when the position of the cutout range P is changed by an operation instruction from the operation unit (not shown) by the user, the control unit 12 stores the changed position of the cutout range P in the storage unit 17. Then, the cutout unit 20A has a size of the cutout range P corresponding to the position of the cutout range P stored in the storage unit 17, the shape of the cutout range P, and the moving speed detected by the detection unit 18. And the cut image 42 is cut out. For this reason, in the visual field assistance apparatus 10, the position of the cutout range P of the captured image 40 can be easily changed by an operation instruction from the user.

なお、記憶部17は、範囲情報に代えて、検出部18によって検出された移動速度が速いほど狭い切出範囲Pとなるように、切出範囲Pの大きさを算出する第1算出式を予め記憶してもよい。   Note that the storage unit 17 replaces the range information with a first calculation formula for calculating the size of the cutout range P so that the cutout range P becomes narrower as the moving speed detected by the detection unit 18 increases. It may be stored in advance.

この場合には、切出部20Aは、記憶部17に記憶されている切出範囲Pの位置、及び切出範囲Pの形状を読取る。また、切出部20Aは、第1算出式を用いて、検出部18で検出された移動速度に応じた切出範囲Pの大きさを算出する。そして、切出部20Aは、読取った形状と、算出した大きさで、且つ読取った位置の切出範囲Pを、撮影画像40から切出す。これにより、切出部20Aは、撮影画像40から切出画像42を切り出せばよい。   In this case, the cutout unit 20A reads the position of the cutout range P and the shape of the cutout range P stored in the storage unit 17. In addition, the cutout unit 20A calculates the size of the cutout range P according to the moving speed detected by the detection unit 18 using the first calculation formula. Then, the cutout unit 20A cuts out the cutout range P of the read position with the read shape and the calculated size from the captured image 40. Accordingly, the cutout unit 20A may cut out the cutout image 42 from the captured image 40.

拡大部20Bは、切出画像42を、検出部18によって検出された移動速度に応じた倍率に拡大した表示画像を生成する。本実施の形態では、拡大部20Bは、移動速度が速いほど、切出画像42を高倍率に拡大することによって表示画像を生成する。なお、拡大部20Bが切出画像42の拡大時に用いる移動速度は、該切出画像42の切出元の撮影画像40の撮影タイミングと同じタイミングで検出された移動速度である。   The enlargement unit 20B generates a display image in which the cut image 42 is enlarged to a magnification according to the moving speed detected by the detection unit 18. In the present embodiment, the enlargement unit 20B generates a display image by enlarging the cutout image 42 at a higher magnification as the moving speed is faster. Note that the moving speed used by the enlarging unit 20B when enlarging the cut-out image 42 is the movement speed detected at the same timing as the shooting timing of the cut-out image 42 of the cut-out image 42.

詳細には、拡大部20Bは、切出画像42を、表示部16の表示領域Eの全体に表示される大きさ(以下、「第1の大きさ」と称する)に拡大する。なお、この第1の大きさは、切出部20Aが切出す最も大きい切出範囲Pより大きい大きさであるものとする。   Specifically, the enlargement unit 20B enlarges the cutout image 42 to a size (hereinafter, referred to as “first size”) displayed on the entire display area E of the display unit 16. In addition, this 1st magnitude | size shall be a magnitude | size larger than the largest cutting range P which the cutting part 20A cuts out.

ここで、上述したように、切出部20Aは、検出部18によって検出された移動速度が速いほど狭い切出範囲Pで、撮影画像40から切出画像42を切り出す。このため、拡大部20Bは、移動速度に応じた大きさの異なる切出画像42を、同じ第1の大きさに拡大することで、結果的に、移動速度が速いほど、切出画像42を高倍率に拡大することとなる。   Here, as described above, the cutout unit 20A cuts out the cutout image 42 from the captured image 40 in the cutout range P that is narrower as the moving speed detected by the detection unit 18 increases. For this reason, the enlarging unit 20B enlarges the cutout image 42 having different sizes according to the moving speed to the same first size, and as a result, the faster the moving speed, the cutout image 42 is displayed. It will be enlarged at high magnification.

なお、切出部20Aは、車両36の移動速度に拘らず同じ大きさの切出範囲Pで切出画像42を切り出してもよい。この場合、拡大部20Bは、次の処理を行えばよい。拡大部20Bは、切出部20Aが切出した切出範囲Pの切出画像42を、該切出範囲Pより大きく、且つ、移動速度が速いほど高倍率に拡大する。そして、拡大部20Bは、拡大後の切出画像42の外周を、表示部16の表示領域Eに表示可能な大きさにトリミングしたものを、表示画像として用いればよい。   The cutout unit 20A may cut out the cutout image 42 in the cutout range P having the same size regardless of the moving speed of the vehicle 36. In this case, the enlargement unit 20B may perform the following process. The enlargement unit 20B enlarges the cut-out image 42 of the cut-out range P cut out by the cut-out unit 20A larger than the cut-out range P and the higher the moving speed, the higher the magnification. Then, the enlargement unit 20B may use a display image obtained by trimming the outer periphery of the enlarged cutout image 42 to a size that can be displayed in the display area E of the display unit 16.

また、拡大部20Bは、切出画像42を拡大するときに、切出画像42における、撮影画像40の中心C1に位置する中心画像が、表示部16の表示領域Eにおける中心に位置するように、切出画像42を拡大する。すなわち、拡大部20Bは、撮影画像40の中心C1と、表示部16の表示領域Eにおける中心と、の位置関係を維持しながら、切出画像42を拡大する。   Further, when the enlargement unit 20B enlarges the cutout image 42, the center image located at the center C1 of the captured image 40 in the cutout image 42 is positioned at the center in the display area E of the display unit 16. The cut image 42 is enlarged. That is, the enlargement unit 20B enlarges the cutout image 42 while maintaining the positional relationship between the center C1 of the captured image 40 and the center of the display unit 16 in the display area E.

図7は、表示領域Eの中心C2の説明図である。拡大部20Bは、図6に示す切出画像42の中心C1に位置する中心画像が、図7に示す表示部16の表示領域Eにおける中心C2に位置するように、切出画像42を拡大し、表示画像44を生成する。   FIG. 7 is an explanatory diagram of the center C2 of the display area E. FIG. The enlargement unit 20B enlarges the cutout image 42 so that the center image located at the center C1 of the cutout image 42 shown in FIG. 6 is located at the center C2 in the display area E of the display unit 16 shown in FIG. A display image 44 is generated.

本実施の形態では、上述したように、表示部16における表示領域Eの外周には、枠部32が設けられている。枠部32は、表示部16における表示領域Eがサイドミラーの鏡面の形状と相似形状となるように、該表示領域Eの外側の一部を覆うように配置されている。   In the present embodiment, as described above, the frame portion 32 is provided on the outer periphery of the display area E in the display portion 16. The frame portion 32 is disposed so as to cover a part of the outside of the display region E so that the display region E in the display unit 16 has a shape similar to the shape of the mirror surface of the side mirror.

このため、生成部20が、サイドミラーに映る鏡像と相似形状ではない表示画像44を生成した場合であっても、表示画像44は、枠部32によって該相似形状で視認される。このため、これにより、視界支援装置10は、サイドミラーに映る鏡像を目視で確認した場合と同様の画像を、移動速度に応じて拡大して運転者に対して提供することができる。すなわち、運転者は、サイドミラーを目視する感覚で、表示部16に表示された表示画像44を確認することができる。   Therefore, even when the generation unit 20 generates the display image 44 that is not similar in shape to the mirror image reflected on the side mirror, the display image 44 is visually recognized by the frame 32 in the similar shape. For this reason, the visual field assistance apparatus 10 can enlarge the same image as the case where the mirror image reflected on a side mirror is confirmed visually according to a moving speed, and can provide it to a driver | operator. That is, the driver can confirm the display image 44 displayed on the display unit 16 with the feeling of viewing the side mirror.

また、枠部32によって表示部16の表示領域Eの形状を可変とすることができるので、予め定められた表示部16の表示領域Eの形状に拘らず、車種等に応じて表示領域Eの形状をカスタマイズすることができる。   Further, since the shape of the display area E of the display section 16 can be made variable by the frame section 32, the display area E of the display area E can be changed according to the vehicle type or the like regardless of the predetermined shape of the display area E of the display section 16. The shape can be customized.

図8は、生成部20によって生成された表示画像44の一例を示す図であり、枠部32によって覆われていない範囲を示す。また、生成部20が表示画像をサイドミラーの鏡面の形状の相似形状に切出した場合は、図8は、切出された表示画像を示す。   FIG. 8 is a diagram illustrating an example of the display image 44 generated by the generation unit 20, and illustrates a range that is not covered by the frame unit 32. When the generation unit 20 cuts out the display image into a similar shape to the shape of the mirror surface of the side mirror, FIG. 8 shows the cut out display image.

図8(A)は、検出された移動速度が予め定めた第1閾値未満(例えば、時速50km未満)であったときに、生成部20で生成された表示画像44Aの一例を示す図である。図8(B)は、検出された移動速度が第1閾値以上第2閾値未満(例えば、時速50km以上80km未満)であったときに、生成部20で生成された表示画像44Bの一例を示す図である。図8(C)は、検出された移動速度が第2閾値以上(時速80km以上)であったときに、生成部20で生成された表示画像44Cの一例を示す図である。   FIG. 8A is a diagram illustrating an example of a display image 44A generated by the generation unit 20 when the detected moving speed is less than a predetermined first threshold (for example, less than 50 km / h). . FIG. 8B shows an example of the display image 44B generated by the generation unit 20 when the detected moving speed is not less than the first threshold value and less than the second threshold value (for example, not less than 50 km and less than 80 km per hour). FIG. FIG. 8C is a diagram illustrating an example of the display image 44C generated by the generation unit 20 when the detected moving speed is equal to or higher than the second threshold (80 km / h or higher).

本実施の形態では、切出部20Aが、移動速度が速くなるほど狭い切出範囲P(切出範囲P1、切出範囲P2、切出範囲P3(図6参照))で切出した切出画像42を、拡大部20Bが移動速度に応じた倍率で拡大する。これによって、生成部20は、移動速度が速いほど、撮影画像40から切出した切出画像42を高倍率に拡大した表示画像44(表示画像44A、表示画像44B、表示画像44C)を生成する(図8参照)。   In the present embodiment, the cutout image 42 is cut out in the cutout range P (the cutout range P1, the cutout range P2, and the cutout range P3 (see FIG. 6)) as the moving speed increases. Is enlarged at a magnification according to the moving speed. Accordingly, the generation unit 20 generates a display image 44 (a display image 44A, a display image 44B, and a display image 44C) in which the cut image 42 cut out from the captured image 40 is enlarged at a higher magnification as the moving speed is faster ( (See FIG. 8).

また、本実施の形態では、生成部20は、第1撮影部14Aで得られた撮影画像40から切出した切出画像42を拡大することで、第1表示部16Aに表示するための表示画像44を生成する。また、生成部20は、第2撮影部14Bで得られた撮影画像40から切出した切出画像42を拡大することで、第2表示部16Bに表示するための表示画像44を生成する。   Moreover, in this Embodiment, the production | generation part 20 expands the cut image 42 cut out from the picked-up image 40 obtained by the 1st imaging | photography part 14A, and displays the display image for displaying on the 1st display part 16A. 44 is generated. Moreover, the production | generation part 20 produces | generates the display image 44 for displaying on the 2nd display part 16B by expanding the cut-out image 42 cut out from the picked-up image 40 obtained by the 2nd imaging | photography part 14B.

このため、視界支援装置10は、サイドミラーに映る鏡像を目視で確認した場合と同様の画像を、移動速度に応じて拡大して運転者に対して提供することができる。   For this reason, the visual field assistance apparatus 10 can enlarge the same image as the case where the mirror image reflected in a side mirror is confirmed visually according to a moving speed, and can provide it to a driver | operator.

なお、本実施の形態では、生成部20は、切出部20Aが撮影画像40から切出した切出画像42を、拡大部20Bで移動速度に応じた倍率で拡大することで、表示画像44を生成する場合を説明した。   In the present embodiment, the generation unit 20 enlarges the display image 44 by enlarging the cut-out image 42 cut out from the captured image 40 by the cut-out unit 20A at a magnification corresponding to the moving speed by the enlargement unit 20B. The case of generating was explained.

しかし、生成部20は、撮影画像40そのものを、移動速度が速いほど高倍率に拡大し、表示画像44を生成してもよい。この場合には、例えば、生成部20は、拡大後の撮影画像40の外周を、表示部16の表示領域Eに合わせた形状及び大きさにトリミングすることで、表示画像44を生成すればよい。   However, the generation unit 20 may generate the display image 44 by enlarging the captured image 40 itself at a higher magnification as the moving speed increases. In this case, for example, the generation unit 20 may generate the display image 44 by trimming the outer periphery of the enlarged captured image 40 to a shape and size that match the display area E of the display unit 16. .

図1に戻り、表示制御部22は、生成部20で生成された表示画像44を、表示部16へ表示する制御を行う。本実施の形態では、表示制御部22は、第1撮影部14Aから取得した撮影画像40に応じて生成された表示画像44を、第1表示部16Aに表示する制御を行う。また、表示制御部22は、第2撮影部14Bから取得した撮影画像40に応じて生成された表示画像44を、第2表示部16Bに表示する制御を行う。   Returning to FIG. 1, the display control unit 22 performs control to display the display image 44 generated by the generation unit 20 on the display unit 16. In the present embodiment, the display control unit 22 performs control to display the display image 44 generated according to the captured image 40 acquired from the first imaging unit 14A on the first display unit 16A. In addition, the display control unit 22 performs control to display the display image 44 generated according to the captured image 40 acquired from the second imaging unit 14B on the second display unit 16B.

次に、本実施の形態の制御部12が実行する視界支援処理を説明する。   Next, the visual field support process executed by the control unit 12 of the present embodiment will be described.

図9は、制御部12が実行する視界支援処理の手順を示すフローチャートである。   FIG. 9 is a flowchart illustrating a procedure of the visibility support process executed by the control unit 12.

なお、図9の視界支援処理の開始タイミングは、車両36において視界支援装置10の電源がオン状態とされたときに開始され、図9に示す手順を実行する。オン状態とされるときとは、視界支援装置10が車両36に搭載されている場合は、車両36の電装品や動力系統に電力が供給されることとなった状態である。また、図9の終了タイミングは、車両36において電装品や動力系統への電力供給をオフとしたタイミングである。また、視界支援装置10がサイドミラーと併用されている場合などは、ユーザの任意の操作によって開始および終了が操作されてもよい。   9 is started when the power of the visual field support device 10 is turned on in the vehicle 36, and the procedure shown in FIG. 9 is executed. When the visibility support device 10 is mounted on the vehicle 36, the on state is a state where power is supplied to the electrical components and the power system of the vehicle 36. Further, the end timing in FIG. 9 is a timing at which power supply to the electrical components and the power system in the vehicle 36 is turned off. Moreover, when the visual field assistance apparatus 10 is used together with a side mirror, the start and end may be operated by an arbitrary operation of the user.

また、他の開始タイミングおよび終了タイミングの例としては、車両36のキーがスマートキーである場合に、キーが車両36の所定範囲内にあるときに開始され、所定範囲外となった場合に終了する。さらには、車両36のドアの開閉による開始と終了の連動、運転席への着座センサの検出結果による開始と終了の連動などがある。   As another example of the start timing and the end timing, when the key of the vehicle 36 is a smart key, it starts when the key is within a predetermined range of the vehicle 36 and ends when the key is out of the predetermined range. To do. Furthermore, there are an interlock between start and end by opening and closing the door of the vehicle 36, and an interlock between start and end by the detection result of the seating sensor on the driver's seat.

図9において、視界支援処理が開始されると、制御部12は、撮影開始を示す信号を撮影部14へ送信する(ステップS100)。撮影部14は、撮影開始を示す信号を受信すると、車両36の後方領域の撮影を開始し、撮影によって得られた撮影画像40の制御部12への出力を開始する。詳細には、第1撮影部14A及び第2撮影部14Bの各々が、車両36の後方領域の撮影を開始し、撮影画像40の制御部12への出力を開始する。   In FIG. 9, when the visibility support process is started, the control unit 12 transmits a signal indicating the start of shooting to the shooting unit 14 (step S100). When the imaging unit 14 receives a signal indicating the start of imaging, the imaging unit 14 starts imaging the rear region of the vehicle 36 and starts outputting the captured image 40 obtained by imaging to the control unit 12. Specifically, each of the first photographing unit 14A and the second photographing unit 14B starts photographing the rear region of the vehicle 36, and starts outputting the photographed image 40 to the control unit 12.

次に、検出部18が、車両36の移動速度の検出を開始する(ステップS102)。検出部18は、車両36に設けられた運転制御のための制御部(図示省略)から、車両36の車速を示す情報を受信することで、車両36の移動速度の検出を開始する。   Next, the detection unit 18 starts detecting the moving speed of the vehicle 36 (step S102). The detection unit 18 starts to detect the moving speed of the vehicle 36 by receiving information indicating the vehicle speed of the vehicle 36 from a control unit (not shown) for driving control provided in the vehicle 36.

なお、上記ステップS100及びステップS102の処理は、同時に開始してもよい。また、上記ステップS100の処理の前に、ステップS102の処理を開始してもよい。   Note that the processing in steps S100 and S102 may be started simultaneously. Further, the process of step S102 may be started before the process of step S100.

次に、切出部20Aが、撮影部14から取得した撮影画像40から、検出部18で検出された移動速度が速いほど、狭い切出範囲Pの切出画像42を切り出す(ステップS104)。   Next, the cutout unit 20A cuts out the cutout image 42 in the narrow cutout range P from the photographed image 40 acquired from the photographing unit 14 as the moving speed detected by the detection unit 18 increases (step S104).

次に、拡大部20Bが、切出部20Aで切出された切出画像42を、検出部18で検出された移動速度が速いほど高倍率に拡大する(ステップS106)。ステップS106の処理により、拡大部20Bは、表示画像44を生成する。   Next, the enlargement unit 20B enlarges the cut-out image 42 cut out by the cut-out unit 20A at a higher magnification as the moving speed detected by the detection unit 18 increases (step S106). The enlargement unit 20B generates the display image 44 by the process of step S106.

次に、表示制御部22が、ステップS106の処理によって生成された表示画像44を、表示部16に表示する制御を行う(ステップS108)。   Next, the display control unit 22 performs control to display the display image 44 generated by the process of step S106 on the display unit 16 (step S108).

次に、制御部12は、視界支援処理による表示が終了したか否かを判断する(ステップS110)。制御部12は、車両36の図示を省略する制御部から、エンジン停止を示す信号を受信したか否かの判別など、視界支援処理の終了を示す信号を車両36の図示を省略する制御部から受信したか否かを判別することにより、ステップS110の判断を行う。   Next, the control unit 12 determines whether or not the display by the visibility support process is finished (step S110). The control unit 12 sends a signal indicating the end of the visibility support process from the control unit that omits the illustration of the vehicle 36, such as determining whether or not a signal indicating engine stop has been received from the control unit that omits the vehicle 36. By determining whether or not it has been received, the determination in step S110 is performed.

制御部12が、視界支援処理の終了を示す信号を取得していない場合は(ステップS110:No)、上記ステップS102へ戻る。   When the control part 12 has not acquired the signal which shows the completion | finish of a visual field assistance process (step S110: No), it returns to the said step S102.

一方、制御部12は、視界支援処理の終了を示す信号を取得した場合(ステップS110:Yes)、本ルーチンを終了する。   On the other hand, the control part 12 complete | finishes this routine, when the signal which shows the completion | finish of a visual field assistance process is acquired (step S110: Yes).

視界支援装置10では、制御部12が上記視界支援処理を実行することによって、車両36のエンジン始動中は、撮影部14によって得られた撮影画像40を車両36の移動速度に応じて拡大した表示画像44が、表示部16に表示されることとなる。   In the visual field support device 10, when the control unit 12 executes the visual field support process, the captured image 40 obtained by the photographing unit 14 is enlarged according to the moving speed of the vehicle 36 while the engine of the vehicle 36 is started. The image 44 is displayed on the display unit 16.

以上説明したように、本実施の形態の視界支援装置10では、生成部20が、撮影部14によって得られた撮影画像40を、検出部18によって検出された車両36の移動速度に応じた倍率に拡大する。そして、表示制御部22は、生成部20による撮影画像40の拡大によって生成された表示画像44を、車両36に搭載された表示部16に表示する制御を行う。   As described above, in the visual field support device 10 of the present embodiment, the generation unit 20 uses the magnification according to the moving speed of the vehicle 36 detected by the detection unit 18 for the captured image 40 obtained by the imaging unit 14. Expand to. Then, the display control unit 22 performs control to display the display image 44 generated by enlarging the captured image 40 by the generation unit 20 on the display unit 16 mounted on the vehicle 36.

従って、本実施の形態の視界支援装置10では、車両36の移動速度に応じた後方視界支援を行うことができる。   Therefore, the visual field support device 10 according to the present embodiment can perform backward visual field support according to the moving speed of the vehicle 36.

また、本実施の形態の視界支援装置10では、車両36の移動速度が速いほど、撮影画像40を高倍率に拡大した表示画像44を生成する。このように、本実施の形態の視界支援装置10では、車両36を運転する運転者に対して、車両36の移動速度が速くなるほど、より確認の難しくなる後方領域の画像を拡大して提供することができる。このため、視界支援装置10は、更に、移動速度に応じた適切な後方視界支援を行うことができる。   Moreover, in the visual field assistance apparatus 10 of this Embodiment, the display image 44 which expanded the picked-up image 40 to high magnification is produced, so that the moving speed of the vehicle 36 is high. As described above, the visibility support device 10 according to the present embodiment provides the driver who drives the vehicle 36 with an enlarged image of the rear region that becomes more difficult to confirm as the moving speed of the vehicle 36 increases. be able to. For this reason, the visual field assistance apparatus 10 can further perform suitable rear visual field assistance according to a moving speed.

なお、図8及び図9で説明した表示の拡大または縮小は、車両36の移動速度の変化が緩やかである場合には、運転者は表示画像44を目視することにより、適切に後方の状況を把握することができる。一方、車両36の移動速度の変化が急である場合には、表示画像44の拡大または縮小の変動が短時間で推移する。このような場合のユーザの誤認識を防止するために、表示画像44には、検出部18が検出した後続車の車間距離や、後続車の移動速度を重畳表示してもよい。   Note that the enlargement or reduction of the display described with reference to FIGS. 8 and 9 is such that when the change in the moving speed of the vehicle 36 is gradual, the driver can visually observe the display image 44 to properly I can grasp it. On the other hand, when the change in the moving speed of the vehicle 36 is abrupt, the change in enlargement or reduction of the display image 44 changes in a short time. In order to prevent erroneous recognition by the user in such a case, the inter-vehicle distance of the succeeding vehicle detected by the detection unit 18 and the moving speed of the succeeding vehicle may be superimposed on the display image 44.

また、車両36の急加速や急減速時には、表示画像の拡大または縮小の処理を所定時間遅らせて実行してもよい。これにより、ユーザの誤認識を防止することができる。   Further, when the vehicle 36 suddenly accelerates or decelerates, the display image enlargement or reduction process may be delayed for a predetermined time. Thereby, a user's misrecognition can be prevented.

<変形例>
なお、上記実施の形態では、表示部16が、表示領域Eの外周の一部を覆う枠部32を備える場合を説明した。そして、視界支援装置10は、車両36の移動速度に応じて切出画像42を拡大した表示画像44を、表示部16に表示する場合を説明した。
<Modification>
In the above-described embodiment, the case where the display unit 16 includes the frame unit 32 that covers a part of the outer periphery of the display region E has been described. And the visual field assistance apparatus 10 demonstrated the case where the display image 44 which expanded the cut-out image 42 according to the moving speed of the vehicle 36 is displayed on the display part 16. FIG.

しかし、表示部16は、枠部32を備えない構成であってもよい。以下、第1の変形例として、車両36の移動速度に応じて拡大した表示画像に、表示枠画像を重畳した重畳画像を、表示画像44として生成する視界支援装置10について説明する。   However, the display unit 16 may be configured without the frame unit 32. Hereinafter, as a first modification, the visual field support device 10 that generates a display image 44 by superimposing a display frame image on a display image enlarged according to the moving speed of the vehicle 36 will be described.

この場合、例えば、切出部20Aは、撮影画像40から、矩形形状の切出範囲Pの切出画像42を切り出す。図10は、矩形形状の切出範囲PAの説明図である。図10に示すように、切出部20Aは、撮影画像40から、矩形形状の切出範囲PAの切出画像46を、切出画像42として切出す。   In this case, for example, the cutout unit 20A cuts out the cutout image 42 of the cutout range P having a rectangular shape from the captured image 40. FIG. 10 is an explanatory diagram of a rectangular cutout area PA. As illustrated in FIG. 10, the cutout unit 20 </ b> A cuts out a cutout image 46 of a rectangular cutout range PA as a cutout image 42 from the captured image 40.

そして、この場合、拡大部20Bは、切出画像46を上記と同様にして拡大した表示画像に、表示枠画像を重畳し、重畳画像を生成する。   In this case, the enlargement unit 20B superimposes the display frame image on the display image obtained by enlarging the cutout image 46 in the same manner as described above to generate a superimposed image.

図11は、重畳画像50の説明図である。図11に示すように、拡大部20Bは、切出画像46を拡大した表示画像45に、表示枠画像52を重畳し、重畳画像50を表示画像44として生成する。表示枠画像52は、表示画像45の端部を覆う画像である。表示枠画像52における、表示画像45の端部を覆う面積は、常に一定の面積を覆うことによってサイドミラーの鏡面の形状を形成してもよいが、検出部18によって検知された移動速度が速いほど狭くしてもよい。   FIG. 11 is an explanatory diagram of the superimposed image 50. As illustrated in FIG. 11, the enlarging unit 20 </ b> B superimposes the display frame image 52 on the display image 45 obtained by enlarging the cutout image 46, and generates the superimposed image 50 as the display image 44. The display frame image 52 is an image that covers the end of the display image 45. The area of the display frame image 52 that covers the edge of the display image 45 may form the mirror surface of the side mirror by always covering a certain area, but the moving speed detected by the detection unit 18 is fast. It may be as narrow as possible.

すなわち、拡大部20Bは、検出部18によって検知された移動速度が速いほど、該表示画像45の端部を覆う面積の狭い表示枠画像52を作成し、表示画像45に重畳する。そして、重畳によって作成した重畳画像50を、表示部16に表示する表示画像44として生成する。   That is, the enlargement unit 20 </ b> B creates a display frame image 52 with a smaller area that covers the end of the display image 45 and superimposes it on the display image 45 as the moving speed detected by the detection unit 18 increases. Then, the superimposed image 50 created by the superposition is generated as a display image 44 to be displayed on the display unit 16.

この重畳画像50における、表示枠画像52によって覆われていない領域Qは、車両36に設けられた、または該車両36と同様の他の車両に設けられるサイドミラーの鏡面と相似形状であることが好ましい。拡大部20Bは、領域Qの形状がサイドミラーの鏡面と相似形状となるように、表示枠画像52を作成し、表示画像45に重畳させる。   The region Q that is not covered by the display frame image 52 in the superimposed image 50 may be similar in shape to the mirror surface of a side mirror provided in the vehicle 36 or provided in another vehicle similar to the vehicle 36. preferable. The enlargement unit 20B creates the display frame image 52 and superimposes it on the display image 45 so that the shape of the region Q is similar to the mirror surface of the side mirror.

表示枠画像52は、表示画像45の領域Qと表示枠画像52とを明確に区別可能とする事の可能な色及び濃度の画像である。例えば、表示枠画像52は、黒色画像である。   The display frame image 52 is an image having a color and density that can clearly distinguish the region Q of the display image 45 from the display frame image 52. For example, the display frame image 52 is a black image.

なお、表示制御部22は、この表示枠画像52内に、車両36に設けられた運転制御のための制御部(図示省略)から受信した警告情報や緊急情報等の報知画像や報知文字を表示させてもよい。これらの報知画像や報知文字は、車両36の運転者に対して視認可能な色及び濃度であればよい。   The display control unit 22 displays in the display frame image 52 a notification image and a notification character such as warning information and emergency information received from a control unit (not shown) for driving control provided in the vehicle 36. You may let them. These notification images and notification characters may be any color and density that are visible to the driver of the vehicle 36.

図12は、生成部20によって生成された重畳画像50としての表示画像44の一例を示す図である。   FIG. 12 is a diagram illustrating an example of the display image 44 as the superimposed image 50 generated by the generation unit 20.

図12(A)は、検出された移動速度が予め定めた第1閾値未満(例えば、時速50km未満)であったときに、生成部20で生成された表示画像50Aの一例を示す図である。図12(B)は、検出された移動速度が、第1閾値以上第2閾値未満(例えば、時速50km以上80km未満)であったときに、生成部20で生成された表示画像50Bの一例を示す図である。図12(C)は、検出された移動速度が、第2閾値以上(時速80km以上)であったときに、生成部20で生成された表示画像50Cの一例を示す図である。   FIG. 12A is a diagram illustrating an example of a display image 50A generated by the generation unit 20 when the detected moving speed is less than a predetermined first threshold (for example, less than 50 km / h). . FIG. 12B illustrates an example of a display image 50B generated by the generation unit 20 when the detected moving speed is greater than or equal to the first threshold value and less than the second threshold value (for example, greater than or equal to 50 km and less than 80 km per hour). FIG. FIG. 12C is a diagram illustrating an example of the display image 50C generated by the generation unit 20 when the detected moving speed is equal to or higher than the second threshold (80 km / h or higher).

図12に示す例では、切出部20Aが、移動速度が速くなるほど狭い切出範囲PAで切出した切出画像46(図10参照)を、拡大部20Bが移動速度に応じた倍率で拡大する。これにより、拡大部20Bは、表示画像45(45A〜45C)を生成する。また、拡大部20Bは、検出部18によって検知された移動速度が速いほど、該表示画像45(45A〜45C)の端部を覆う面積の狭い表示枠画像52(52A〜52C)を生成する。そして、拡大部20Bは、表示画像45(45A〜45C)に表示枠画像52(52A〜52C)を重畳した重畳画像50(50A〜50C)を、表示部16に表示する表示画像44として生成する。   In the example shown in FIG. 12, the enlargement unit 20 </ b> B enlarges the cut-out image 46 (see FIG. 10) cut out with a cut-out range PA that becomes narrower as the moving speed increases. . Thereby, the enlargement unit 20B generates display images 45 (45A to 45C). The enlargement unit 20B generates the display frame image 52 (52A to 52C) having a smaller area covering the end of the display image 45 (45A to 45C) as the moving speed detected by the detection unit 18 increases. Then, the enlargement unit 20B generates a superimposed image 50 (50A to 50C) in which the display frame image 52 (52A to 52C) is superimposed on the display image 45 (45A to 45C) as the display image 44 to be displayed on the display unit 16. .

従って、本変形例の視界支援装置10では、実施の形態1と同様に、車両36の移動速度に応じた適切な後方視界支援を行うことができる。   Therefore, in the visual field support device 10 of the present modification, appropriate rear visual field support according to the moving speed of the vehicle 36 can be performed as in the first embodiment.

上述した視界支援装置10の表示画像45(45A〜45C)は、拡大部20Bの処理によって、検出された移動速度に応じた倍率で拡大された。しかし、検出された移動速度に応じて表示枠画像52(52A〜52C)の端部を覆う面積を狭くする処理を行う場合、表示画像45の倍率は不変としてもよい。このような形態の場合、車両36の移動速度が速いほど表示枠画像52が狭くなるため、相対的に表示画像45の表示面積が大きくなる。このため、車両36の移動速度に応じて適切な後方視界支援を行うことができる。   The display image 45 (45A to 45C) of the visual field support device 10 described above was enlarged at a magnification according to the detected moving speed by the processing of the enlargement unit 20B. However, when performing the process of narrowing the area covering the end of the display frame image 52 (52A to 52C) according to the detected moving speed, the magnification of the display image 45 may be unchanged. In the case of such a form, the display frame image 52 becomes narrower as the moving speed of the vehicle 36 becomes faster, so that the display area of the display image 45 becomes relatively larger. For this reason, appropriate rear view support can be performed according to the moving speed of the vehicle 36.

(実施の形態2)
実施の形態1においては、撮影画像40における中心C1を、切出範囲Pの中心位置として切出画像42を生成した。本実施の形態では、撮影画像における消失点の位置と、拡大後の表示画像における消失点の位置と、の位置関係を維持しながら切出画像42を拡大する場合を説明する。
(Embodiment 2)
In the first embodiment, the cutout image 42 is generated with the center C1 in the captured image 40 as the center position of the cutout range P. In the present embodiment, a case will be described in which the clipped image 42 is enlarged while maintaining the positional relationship between the position of the vanishing point in the captured image and the position of the vanishing point in the enlarged display image.

図13は、本実施の形態の視界支援装置11を示す機能ブロック図である。   FIG. 13 is a functional block diagram showing the visual field support device 11 of the present embodiment.

視界支援装置11は、移動体に搭載されている。視界支援装置11は、実施の形態1と同様に、移動体として車両に搭載されている場合を説明する。   The visual field support device 11 is mounted on a moving body. Similar to the first embodiment, the visual field support device 11 is described as being mounted on a vehicle as a moving body.

視界支援装置11は、制御部13、撮影部14、表示部16、及び記憶部17を備える。撮影部14、表示部16、及び記憶部17は、実施の形態1と同様である。   The visual field support device 11 includes a control unit 13, a photographing unit 14, a display unit 16, and a storage unit 17. The photographing unit 14, the display unit 16, and the storage unit 17 are the same as those in the first embodiment.

制御部13は、CPUなどを含んで構成されるコンピュータであり、視界支援装置11全体を制御する。なお、制御部13は、CPU以外の回路等であってもよい。   The control unit 13 is a computer including a CPU and the like, and controls the entire visual field support device 11. The control unit 13 may be a circuit other than the CPU.

制御部13は、検出部18、生成部21、及び表示制御部23を備える。検出部18は、実施の形態1と同様である。検出部18、生成部21、及び表示制御部23の一部または全ては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   The control unit 13 includes a detection unit 18, a generation unit 21, and a display control unit 23. The detection unit 18 is the same as that in the first embodiment. Some or all of the detection unit 18, the generation unit 21, and the display control unit 23 may be realized by causing a processing device such as a CPU to execute a program, that is, by software or hardware such as an IC. It may be realized by a combination of software and hardware.

生成部21は、切出部20A、演算部21B、及び拡大部21Cを備える。   The generation unit 21 includes a cutout unit 20A, a calculation unit 21B, and an enlargement unit 21C.

演算部21Bは、撮影部14によって得られた撮影画像40の消失点を演算する。詳細には、演算部21Bは、第1撮影部14Aによって得られた撮影画像40、及び第2撮影部14Bによって得られた撮影画像40の各々について、消失点を演算する。消失点の演算方法には、公知の方法を用いる。なお、演算部21Bは、切出部20Aによって切出された切出画像42の消失点を演算することで、撮影画像40の消失点を演算してもよい。   The computing unit 21B computes the vanishing point of the captured image 40 obtained by the imaging unit 14. Specifically, the calculation unit 21B calculates a vanishing point for each of the captured image 40 obtained by the first imaging unit 14A and the captured image 40 obtained by the second imaging unit 14B. A known method is used as the vanishing point calculation method. The calculation unit 21B may calculate the vanishing point of the captured image 40 by calculating the vanishing point of the cutout image 42 cut out by the cutout unit 20A.

図14は、消失点C3の説明図である。演算部21Bは、公知の演算方法を用いて、撮影画像40から消失点C3を演算する。消失点C3の演算方法の例としては、特開2010−160567に記載の方法などがある。   FIG. 14 is an explanatory diagram of the vanishing point C3. The calculation unit 21B calculates the vanishing point C3 from the captured image 40 using a known calculation method. As an example of a method for calculating the vanishing point C3, there is a method described in Japanese Patent Application Laid-Open No. 2010-160567.

図13に戻り、切出部20Aは、実施の形態1と同様にして、撮影画像40から切出範囲P内の切出画像42を切り出す。なお、本実施の形態では、切出部20Aは、図14に示すように、演算部21Bで演算された消失点C3を含む切出範囲Pの切出画像42を切り出す場合を説明する。   Returning to FIG. 13, the cutout unit 20 </ b> A cuts out the cutout image 42 in the cutout range P from the captured image 40 in the same manner as in the first embodiment. In the present embodiment, a description will be given of a case where the cutout unit 20A cuts out a cutout image 42 in the cutout range P including the vanishing point C3 calculated by the calculation unit 21B, as shown in FIG.

拡大部21Cは、実施の形態1の拡大部20Bと同様に、切出部20Aによって切出された切出画像42を、検出部18によって検出された移動速度に応じた倍率に拡大した表示画像44を生成する。   As with the enlargement unit 20B of the first embodiment, the enlargement unit 21C enlarges the cut image 42 cut out by the cutout unit 20A to a magnification corresponding to the moving speed detected by the detection unit 18. 44 is generated.

なお、拡大部21Cは、切出画像42を拡大するときに、演算部21Bで演算された撮影画像40における消失点C3の相対位置と、該切出画像42から生成する表示画像44における消失点の相対位置と、が一致するように、該切出画像42を拡大する。すなわち、拡大部21Cは、撮影画像40における消失点C3の相対位置と、拡大後の表示画像44における消失点の相対位置と、の位置関係を維持しながら、該撮影画像40を拡大する。   Note that, when the enlargement unit 21C enlarges the cutout image 42, the relative position of the vanishing point C3 in the captured image 40 calculated by the calculation unit 21B and the vanishing point in the display image 44 generated from the cutout image 42. The cut-out image 42 is enlarged so that the relative positions of the two coincide with each other. That is, the enlarging unit 21C enlarges the captured image 40 while maintaining the positional relationship between the relative position of the vanishing point C3 in the captured image 40 and the relative position of the vanishing point in the enlarged display image 44.

表示制御部23は、生成部21によって生成された表示画像44を、表示部16に表示する制御を行う。実施の形態1と同様に、表示制御部23は、第1撮影部14Aから取得した撮影画像40に応じて生成された表示画像44を、第1表示部16Aに表示する制御を行う。また、表示制御部23は、第2撮影部14Bから取得した撮影画像40に応じて生成された表示画像44を、第2表示部16Bに表示する制御を行う。   The display control unit 23 performs control to display the display image 44 generated by the generation unit 21 on the display unit 16. Similar to the first embodiment, the display control unit 23 performs control to display the display image 44 generated according to the captured image 40 acquired from the first imaging unit 14A on the first display unit 16A. In addition, the display control unit 23 performs control to display the display image 44 generated according to the captured image 40 acquired from the second imaging unit 14B on the second display unit 16B.

次に、本実施の形態の制御部13が実行する視界支援処理を説明する。   Next, the visual field support processing executed by the control unit 13 of the present embodiment will be described.

図15は、制御部13が実行する視界支援処理の手順を示すフローチャートである。   FIG. 15 is a flowchart showing the procedure of the visibility support process executed by the control unit 13.

制御部13は、実施の形態1の視界支援装置10における制御部12が実行するステップS100〜ステップS102の処理と同様にして(図9参照)、ステップS200〜ステップS202の処理を行う。   The control unit 13 performs the processing of step S200 to step S202 in the same manner as the processing of step S100 to step S102 executed by the control unit 12 in the visual field support device 10 of the first embodiment (see FIG. 9).

次に、演算部21Bが、撮影画像40の消失点C3を演算する(ステップS204)。   Next, the calculation unit 21B calculates the vanishing point C3 of the captured image 40 (step S204).

次に、制御部13は、実施の形態1のステップ104〜ステップS110と同様にして(図9参照)、ステップS206〜ステップS212の処理を行う。   Next, the control unit 13 performs the processing of step S206 to step S212 in the same manner as in step 104 to step S110 of the first embodiment (see FIG. 9).

すなわち、切出部20Aが、撮影部14から取得した撮影画像40から、検出部18で検出された移動速度に対応する大きさの切出範囲Pの切出画像42を切り出す(ステップS206)。   That is, the cutout unit 20A cuts out the cutout image 42 in the cutout range P having a size corresponding to the moving speed detected by the detection unit 18 from the shot image 40 acquired from the shooting unit 14 (step S206).

次に、拡大部21Cが、切出部20Aで切出された切出画像42を、検出部18で検出された移動速度が速いほど高倍率に拡大する(ステップS208)。このとき、拡大部21Cは、演算部21Bで演算された撮影画像40における消失点C3の相対位置と、該切出画像42から生成する表示画像44における消失点の相対位置と、が一致するように、該切出画像42を拡大する。ステップS208の処理により、拡大部21Cは、表示画像44を生成する。   Next, the enlargement unit 21C enlarges the cut-out image 42 cut out by the cut-out unit 20A at a higher magnification as the moving speed detected by the detection unit 18 increases (step S208). At this time, the enlargement unit 21C matches the relative position of the vanishing point C3 in the captured image 40 calculated by the calculation unit 21B with the relative position of the vanishing point in the display image 44 generated from the cut image 42. Then, the cut image 42 is enlarged. The enlargement unit 21C generates the display image 44 by the process of step S208.

次に、表示制御部23が、ステップS208の処理によって生成された表示画像44を、表示部16に表示する制御を行う(ステップS210)。   Next, the display control unit 23 performs control to display the display image 44 generated by the process of step S208 on the display unit 16 (step S210).

次に、制御部13は、視界支援処理による表示が終了したか否かを判断する(ステップS212)。制御部13は、ステップS110(図9参照)と同様にして、ステップS212の判断を行う。   Next, the control unit 13 determines whether or not the display by the visibility support process is finished (step S212). The control unit 13 determines in step S212 in the same manner as in step S110 (see FIG. 9).

制御部13が、視界支援処理の終了を示す信号を取得していない場合は(ステップS212:No)、上記ステップS202へ戻る。   When the control unit 13 has not acquired a signal indicating the end of the visibility support process (step S212: No), the process returns to step S202.

一方、制御部13は、視界支援処理の終了を示す信号を取得した場合(ステップS212:Yes)、本ルーチンを終了する。   On the other hand, the control part 13 complete | finishes this routine, when the signal which shows the completion | finish of a visual field assistance process is acquired (step S212: Yes).

以上説明したように、本実施の形態の視界支援装置11では、移動速度に応じて切出画像42を拡大するときに、演算部21Bで演算された撮影画像40における消失点C3の相対位置と、該切出画像42から生成する表示画像44における消失点の相対位置と、が一致するように、該切出画像42を拡大する。   As described above, in the visual field support device 11 of the present embodiment, when the clipped image 42 is enlarged according to the moving speed, the relative position of the vanishing point C3 in the captured image 40 calculated by the calculation unit 21B The clipped image 42 is enlarged so that the relative position of the vanishing point in the display image 44 generated from the clipped image 42 matches.

このため、本実施の形態の視界支援装置11は、上記実施の形態1の効果に加えて更に、撮影部14による撮影状況を同じ状況の表示画像を、運転者に対して視認可能に提供することができる。   For this reason, in addition to the effect of the first embodiment, the visual field support device 11 of the present embodiment further provides the driver with a display image having the same shooting situation as that of the shooting unit 14 so that the driver can see the display image. be able to.

(実施の形態3)
次に、実施の形態1および実施の形態2と同様の表示処理を、車両の速度に代えて、車両の進行方向に応じて表示される範囲の異なる表示を行う視界支援装置100について説明する。
(Embodiment 3)
Next, a description will be given of the visual field support device 100 that performs the same display processing as in the first embodiment and the second embodiment, instead of the speed of the vehicle, and displays a different display range depending on the traveling direction of the vehicle.

図16は、本実施の形態の視界支援装置100を示す機能ブロック図である。   FIG. 16 is a functional block diagram showing the visual field support device 100 of the present embodiment.

視界支援装置100は、実施の形態1および実施の形態2と同様に、移動体に搭載されており、以下、移動体である車両に搭載されている場合を説明する。   The visibility support device 100 is mounted on a moving body as in the first embodiment and the second embodiment, and hereinafter, a case where it is mounted on a vehicle that is a moving body will be described.

視界支援装置100は、制御部120、撮影部140、表示部160および記憶部170を備える。撮影部140、表示部160および記憶部170は、各々撮影部14、表示部16および記憶部17と同様である。   The visual field support device 100 includes a control unit 120, a photographing unit 140, a display unit 160, and a storage unit 170. The imaging unit 140, the display unit 160, and the storage unit 170 are the same as the imaging unit 14, the display unit 16, and the storage unit 17, respectively.

制御部120は、その構成は制御部12および制御部13と同様であるが、その機能として、検出部18の代わりに進行方向検出部180を備えていることが異なる。制御部120は、生成部21と同様の生成部120を備える。切出部120Aおよび拡大部120Bは、切出部20Aおよび拡大部21Cに対応する。また、表示制御部122は、表示制御部23に対応する。   The configuration of the control unit 120 is the same as that of the control unit 12 and the control unit 13 except that the control unit 120 includes a traveling direction detection unit 180 instead of the detection unit 18 as a function. The control unit 120 includes a generation unit 120 similar to the generation unit 21. The cutout part 120A and the enlarged part 120B correspond to the cutout part 20A and the enlarged part 21C. The display control unit 122 corresponds to the display control unit 23.

進行方向検出部180は、視界支援装置100の搭載された車両36の進行方向を検出する。ここでいう進行方向とは、将来(例えば所定時間後)、到達すると予測される方向である。例えば、進行方向は、到達予定の交差点等における進行予定方向である。   The traveling direction detection unit 180 detects the traveling direction of the vehicle 36 on which the visual field support device 100 is mounted. Here, the traveling direction is a direction predicted to be reached in the future (for example, after a predetermined time). For example, the traveling direction is a planned traveling direction at an intersection or the like scheduled to reach.

進行方向検出部180における具体的な進行方向の検出方法としては、車両36本体の制御部から取得するウィンカ情報を用いる方法、および、ウィンカから取得するオンオフ情報を用いる方法などを適用できる。この場合、例えば運転者がウィンカを動作させたときに、進行方向検出部180は、動作開始を検出したウィンカの方向を進行方向として検出する。   As a specific method of detecting the traveling direction in the traveling direction detection unit 180, a method using the winker information acquired from the control unit of the main body of the vehicle 36, a method using the on / off information acquired from the winker, and the like can be applied. In this case, for example, when the driver operates the blinker, the traveling direction detection unit 180 detects the direction of the blinker that has detected the start of operation as the traveling direction.

また、他の検出方法としては、視界支援装置100と接続された図示しないナビゲーション装置から取得する、設定された経路および車両36の現在位置情報を用いる方法が適用できる。具体的には、進行方向検出部180は、ナビゲーション装置より経路情報、特に右左折などの進行方向の変化が経路として予定される地点の情報に加えて、車両36の現在位置情報を取得する。進行方向検出部180は、これらの情報に基づき、車両36の現在位置情報が、進行方向を変化させる予定の交差点等の地点から、例えば10m手前となった場合に、進行方向を変化させる方向(変化後の方向)を進行方向として検出する。   Further, as another detection method, a method using a set route and current position information of the vehicle 36 acquired from a navigation device (not shown) connected to the visual field support device 100 can be applied. Specifically, the traveling direction detection unit 180 acquires the current position information of the vehicle 36 from the navigation device, in addition to the route information, in particular, information on a point where a change in the traveling direction such as a left or right turn is planned as a route. Based on these pieces of information, the traveling direction detection unit 180 changes the traveling direction when the current position information of the vehicle 36 is, for example, 10 meters before a point such as an intersection where the traveling direction is to be changed. The direction after the change is detected as the traveling direction.

さらに、他の検出方法としては、視界支援装置100と接続された図示しないナビゲーション装置から取得する、適切な車線情報をさらに用いる方法が適用できる。具体的には、進行方向検出部180は、ナビゲーション装置より経路情報、特に経路における適切な車線情報に加えて、車両36の現在位置情報を取得する。進行方向検出部180は、これらの情報に基づき、車両36の現在位置情報により判断されている走行中の車線に対して、進行予定方向に適切に進行するための車線とが異なるために車線変更を要するか判断する。そして、車線変更を要すると判断した場合に、進行方向検出部180は、変更する車線の方向を進行方向として取得する。例えば、交差点または分岐点等の地点から、100m手前となった場合に、進行方向を変化させる方向を進行方向として検出する。   Furthermore, as another detection method, a method of further using appropriate lane information acquired from a navigation device (not shown) connected to the visual field support device 100 can be applied. Specifically, the traveling direction detection unit 180 acquires the current position information of the vehicle 36 from the navigation device, in addition to the route information, particularly appropriate lane information on the route. Based on these pieces of information, the traveling direction detection unit 180 changes the lane because the traveling lane determined by the current position information of the vehicle 36 is different from the lane for appropriately traveling in the planned traveling direction. Judgment is required. When it is determined that a lane change is required, the traveling direction detection unit 180 acquires the direction of the lane to be changed as the traveling direction. For example, the direction in which the traveling direction is changed is detected as the traveling direction when it is 100 meters before an intersection or a branching point.

次に、本実施の形態の制御部120が実行する視界支援処理を説明する。   Next, the visual field support processing executed by the control unit 120 of the present embodiment will be described.

図17は、制御部120が実行する視界支援処理の手順を示すフローチャートである。   FIG. 17 is a flowchart illustrating a procedure of the visibility support process executed by the control unit 120.

制御部120は、実施の形態1の視界支援装置10における制御部12が実行するステップS100の処理と同様にしてステップS300の処理を行う。   The control unit 120 performs the process of step S300 in the same manner as the process of step S100 executed by the control unit 12 in the visual field support device 10 of the first embodiment.

次に、進行方向検出部180は、進行方向の検出を開始する(ステップS302)。進行方向検出部180は、上述したように、ウィンカの動作に基づく信号や、ナビゲーション装置から取得する情報などの取得を開始することで、進行方向の検出を開始する。なお、上記ステップS300およびステップS302の処理は、同時に開始されてもよい。   Next, the traveling direction detection unit 180 starts detecting the traveling direction (step S302). As described above, the traveling direction detection unit 180 starts detection of the traveling direction by starting acquisition of a signal based on the operation of the blinker, information acquired from the navigation device, and the like. Note that the processing of step S300 and step S302 may be started simultaneously.

ステップS300およびステップS302の処理が開始された状態においては、視界支援装置100の表示部160は、通常状態の表示が実行されている。ここでいう通常状態の表示とは、撮影部140が撮影した画像に対して、切出部120Aが、デフォルト値として予め定められた範囲の画像を切り出し、拡大部120Bが、デフォルト値として予め定められた倍率に拡大または縮小した画像を、表示制御部122が表示することである。   In the state where the processes of Step S300 and Step S302 are started, the display unit 160 of the visual field support device 100 is displaying the normal state. The display in the normal state here refers to an image captured by the photographing unit 140, the cutting unit 120 </ b> A cuts out an image in a predetermined range as a default value, and the enlargement unit 120 </ b> B is predetermined as a default value. The display control unit 122 displays an image that has been enlarged or reduced to the specified magnification.

切出部120Aおよび拡大部120Bのデフォルト値は、当該車両に設置されているサイドミラーまたは当該車両と同等の車両に設置されるサイドミラーが映し出す範囲および拡大率と同一または近いことが望ましい。   It is desirable that the default values of the cutout part 120A and the enlargement part 120B are the same as or close to the range and enlargement ratio that the side mirror installed in the vehicle or a side mirror installed in a vehicle equivalent to the vehicle is projected.

進行方向検出部180は、ステップS302の処理において進行方向検出処理を開始した後、逐次進行方向が検出されたか否かを判断する(ステップS304)。ステップS304において進行方向を検出したと判断された場合(ステップS304:Yes)、切出部120Aは、ステップS304で判断された進行方向に対応する撮影部140が撮影した画像の切り出し範囲を変更する(ステップS306)。   The traveling direction detection unit 180 determines whether or not the traveling direction is sequentially detected after starting the traveling direction detection process in the process of step S302 (step S304). When it is determined in step S304 that the traveling direction has been detected (step S304: Yes), the cutout unit 120A changes the cutout range of the image captured by the photographing unit 140 corresponding to the traveling direction determined in step S304. (Step S306).

ステップS306において切り出し範囲が変更される画像は、撮影部140のうち第1撮影部140Aが撮像した画像または第2撮像部140Bが撮像した画像のうち、進行方向に応じた画像となる。例えば、ステップS304の判断において検出された進行方向が、右折または分岐点を右方向、さらには右車線への変更など、車両36を右方向へ移動させる動作が発生する場合、第1撮影部140Aが撮影した画像が対象となる。同様に、ステップS304の判断において検出された進行方向が、左折または分岐点を左方向、さらには左車線への変更など、車両36を左方向へ移動させる動作が発生する場合、第2撮影部140Bが撮影した画像が対象となる。   The image whose cutout range is changed in step S306 is an image according to the traveling direction of the image captured by the first image capturing unit 140A or the image captured by the second image capturing unit 140B in the image capturing unit 140. For example, when the traveling direction detected in the determination in step S304 causes an action to move the vehicle 36 to the right, such as a right turn or a change of the branch point to the right, and further to the right lane, the first photographing unit 140A The image taken by is the target. Similarly, when the traveling direction detected in the determination in step S304 causes an operation to move the vehicle 36 to the left, such as a left turn or a branch point changing to the left, and further to the left lane, the second photographing unit Images taken by 140B are targets.

また、ステップS306の処理における切り出し範囲の変更とは、例えばステップS304において進行方向が検出されていない状態の切り出し範囲より広い範囲を切出すことである。   Further, the change of the cutout range in the process of step S306 is to cut out a range wider than the cutout range in which the traveling direction is not detected in step S304, for example.

次に、ステップS306において切出された画像を、拡大部120Bは、表示部160の表示範囲に適切に表示されるように、進行方向に対応する撮影画像の縮小処理を行う。   Next, the enlargement unit 120B performs a reduction process of the captured image corresponding to the traveling direction so that the image cut out in step S306 is appropriately displayed in the display range of the display unit 160.

ステップS306およびステップS308の処理によって、進行方向に対応する撮影部140が撮影した画像は、広い範囲を表示するための画像として生成される。   By the processing in step S306 and step S308, the image captured by the imaging unit 140 corresponding to the traveling direction is generated as an image for displaying a wide range.

次に、ステップS306およびステップS308の処理によって生成された表示画像を、表示制御部122は表示部160に表示させる制御を行う(ステップS310)。   Next, the display control unit 122 performs control to display the display image generated by the processes of step S306 and step S308 on the display unit 160 (step S310).

ステップS310の後、または、ステップS304において進行方向を検出しないと判断された場合(ステップS304:No)、制御部120は、視界支援処理による表示が終了したか否かを判断する(ステップS312)。ステップS312の判断は、実施の形態1におけるステップS110と同様の判断である。   After step S310 or when it is determined in step S304 that the traveling direction is not detected (step S304: No), the control unit 120 determines whether or not the display by the visual field support process has ended (step S312). . The determination in step S312 is the same determination as in step S110 in the first embodiment.

図18および図19を用いて、視界支援装置100における表示部160の表示例を説明する。図18は、ステップS300およびステップS302までの処理による通常時の表示形態の例である。また、図19は、ステップS304において進行方向が左方向であることを検出し、ステップS306からステップS310までの処理を行った場合の表示形態の例である。図18および図19は、図8同様に、枠部32によって覆われていない範囲、またはサイドミラーの鏡面の形状の相似形状に切出した場合は、切出された表示画像を示す。   A display example of the display unit 160 in the visual field support device 100 will be described with reference to FIGS. 18 and 19. FIG. 18 is an example of a normal display mode by the processes up to step S300 and step S302. FIG. 19 is an example of a display form when it is detected that the traveling direction is the left direction in step S304 and the processing from step S306 to step S310 is performed. FIG. 18 and FIG. 19 show the cut-out display image when cut out into a range not covered by the frame part 32 or a similar shape of the mirror surface of the side mirror, as in FIG.

図18および図19の例では、進行方向が左方向であることが検出されたため、左方向に対応する第2表示部160Bに表示する画像(第2撮像部140Bで撮像された画像)が、切り出し範囲の変更の対象となる。一方、右方向に対応する第1表示部160Aに表示する画像(第1撮像部140Aで撮像された画像)は切り出し範囲の変更の対象とならない。   In the example of FIGS. 18 and 19, since the traveling direction is detected to be the left direction, an image displayed on the second display unit 160B corresponding to the left direction (an image captured by the second imaging unit 140B) is This is the target for changing the clipping range. On the other hand, an image displayed on the first display unit 160A corresponding to the right direction (an image captured by the first imaging unit 140A) is not a target for changing the clipping range.

図19に示すように、第2表示部160Bには、通常時(図18の第2表示部160Bの画像)より広い範囲から切り出された画像が表示される。これにより、移動体の進行方向に応じた適切な視界支援を行うことが可能となる。   As shown in FIG. 19, on the second display unit 160B, an image cut out from a wider range than normal (image of the second display unit 160B in FIG. 18) is displayed. Thereby, it becomes possible to perform appropriate visual field support according to the traveling direction of the moving body.

本実施の形態においても、切出し範囲の中心位置を、実施の形態1または実施の形態3同様に、撮影画像の中心又は消失点としてもよい。さらには、進行方向の反対側の位置を固定し、進行方向側のみを広く切出してもよい。図19の第2表示部160Bに表示された画像は、図18の第2表示部160Bに表示された画像に対して、進行方向である左の反対側(右側)の位置を固定し、進行方向側を広く切出した例である。   Also in the present embodiment, the center position of the cutout range may be the center or vanishing point of the captured image, as in the first or third embodiment. Furthermore, the position opposite to the traveling direction may be fixed, and only the traveling direction side may be widely cut out. The image displayed on the second display unit 160B in FIG. 19 is fixed in the position opposite to the left (right side) in the traveling direction with respect to the image displayed on the second display unit 160B in FIG. This is an example in which the direction side is widely cut out.

本実施の形態においても、実施の形態1同様に、重畳画像50を表示する形態としてもよい。さらに、ステップS300およびステップS302までの処理を行った状態における重畳画像50に対して、ステップ306からステップS310までの処理を行った状態の重畳画像50は、図12と同様に、その面積を狭くしてもよい。   Also in the present embodiment, the superimposed image 50 may be displayed as in the first embodiment. Furthermore, the superimposed image 50 in the state in which the processing from step 306 to step S310 is performed on the superimposed image 50 in the state in which the processing from step S300 and step S302 has been performed has a smaller area as in FIG. May be.

なお、上記実施の形態及び変形例の視界支援装置10及び視界支援装置11、視界支援装置100は、制御部12、制御部120および記憶部17、記憶部170を含む構成を、移動体である車両において利用可能なコンピュータである、車載コンピュータやナビゲーション装置を用いて構成してもよい。または、可搬型の端末によって構成してもよい。表示部16および表示部160は、図4に示すように、移動体である車両に予め備えられている表示装置により構成されるが、可搬型の表示端末を車両内の適切な位置に備えることによって構成してもよい。   Note that the visual field support device 10, the visual field support device 11, and the visual field support device 100 according to the above-described embodiments and modifications are configured to include the control unit 12, the control unit 120, the storage unit 17, and the storage unit 170 as a moving body. You may comprise using the vehicle-mounted computer and navigation apparatus which are computers available in a vehicle. Or you may comprise by a portable terminal. As shown in FIG. 4, the display unit 16 and the display unit 160 are configured by a display device that is provided in advance in a vehicle that is a moving body, but a portable display terminal is provided at an appropriate position in the vehicle. You may comprise by.

上記実施の形態及び変形例の視界支援装置10及び視界支援装置11、視界支援装置100で実行される視界支援処理を実行するための各種プログラムは、インストール可能な形式又は実行可能な形式のファイルで、制御部12、制御部120が利用可能なROMに予め記憶されるが、制御部12、制御部120を含む装置が読み取り可能な記録媒体に記録されて提供されてもよい。   The various programs for executing the visual field support processing executed by the visual field support device 10, the visual field support device 11, and the visual field support device 100 according to the above embodiment and the modification are files in an installable format or an executable format. The control unit 12 and the control unit 120 are stored in advance in a usable ROM, but may be provided by being recorded on a recording medium that can be read by a device including the control unit 12 and the control unit 120.

また、上記実施の形態及び変形例の視界支援装置10及び視界支援装置11、視界支援装置100で実行される視界支援処理を実行するための各種プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。   In addition, on the computer connected to a network such as the Internet, various programs for executing the visual field support processing executed by the visual field support device 10, the visual field support device 11, and the visual field support device 100 according to the above-described embodiments and modifications. And may be provided by being downloaded via a network.

なお、上記実施の形態及び変形例の視界支援装置10及び視界支援装置11、視界支援装置100で実行される視界支援処理を実行するための各種プログラムは、上述した処理を実行するための機能部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各機能部が主記憶装置上にロードされ、主記憶装置上に生成されるようになっている。   The various programs for executing the visual field support processing executed by the visual field support device 10, the visual field support device 11, and the visual field support device 100 according to the embodiment and the modification are functional units for executing the above-described processing. As the actual hardware, the CPU (processor) reads the program from the storage medium and executes it to load the functional units onto the main storage device. It is to be generated.

なお、上記には、本発明のいくつかの実施の形態及び変形例を説明したが、これらの実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although several embodiment and modification of this invention were described above, these embodiment was shown as an example and is not intending limiting the range of invention. . These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

10、11、100 視界支援装置
12、120 制御部
16、160 表示部
18 検出部
20、120 生成部
20A、120A 切出部
20B、120B 拡大部
21B 演算部
21C 拡大部
22、23、122 表示制御部
10, 11, 100 Visibility support device 12, 120 Control unit 16, 160 Display unit 18 Detection unit 20, 120 Generation unit 20A, 120A Extraction unit 20B, 120B Enlargement unit 21B Calculation unit 21C Enlargement unit 22, 23, 122 Display control Part

Claims (10)

移動体に搭載され、前記移動体の後方領域を撮影する撮影部と、
前記移動体の移動速度を検出する検出部と、
前記撮影部の撮影によって得られた撮影画像に基づき、前記検出部が検出した移動速度に応じて表示される範囲の異なる表示画像を生成する生成部と、
前記生成部が生成した前記表示画像を、前記移動体に搭載された表示部に表示するように制御する表示制御部と、
を備えた視界支援装置。
A photographing unit mounted on a moving body and photographing a rear region of the moving body;
A detection unit for detecting a moving speed of the moving body;
A generation unit that generates a display image having a different range to be displayed according to the moving speed detected by the detection unit, based on a captured image obtained by imaging of the imaging unit;
A display control unit that controls the display image generated by the generation unit to be displayed on a display unit mounted on the moving body;
Visibility support device with
前記生成部は、前記撮影画像に基づき、前記検出部が検出した移動速度に応じて表示倍率を異ならせることにより、表示される範囲の異なる表示画像を生成する、
請求項1に記載の視界支援装置。
The generation unit generates a display image having a different display range by changing a display magnification according to a moving speed detected by the detection unit based on the captured image.
The visual field support device according to claim 1.
前記生成部は、前記検出部が検出した移動速度が速いほど、前記撮影画像を高倍率に拡大した前記表示画像を生成する、
請求項2に記載の視界支援装置。
The generation unit generates the display image obtained by enlarging the photographed image at a higher magnification as the moving speed detected by the detection unit is faster.
The visual field support device according to claim 2.
前記生成部は、表示される範囲の異なる表示画像を生成する際に、画像の中心位置を変えずに表示画像を生成する、
請求項1から請求項3の何れか1項に記載の視界支援装置。
The generation unit generates a display image without changing the center position of the image when generating a display image having a different display range.
The visual field support device according to any one of claims 1 to 3.
前記撮影画像における消失点を求める演算部をさらに備え、
前記生成部は、表示される範囲の異なる表示画像を生成する際に、前記消失点の位置を変えずに表示画像を生成する、
請求項1から請求項3の何れか1項に記載の視界支援装置。
A calculation unit for obtaining a vanishing point in the captured image;
The generation unit generates a display image without changing the position of the vanishing point when generating a display image having a different display range.
The visual field support device according to any one of claims 1 to 3.
前記生成部は、前記表示画像の端部に表示枠画像が重畳された表示画像を生成するとともに、前記検出部が検出した移動速度に応じて前記表示枠画像の面積を変化させることにより、表示される範囲の異なる表示画像を生成する、
請求項1から請求項5の何れか1項に記載の視界支援装置。
The generation unit generates a display image in which a display frame image is superimposed on an end of the display image, and changes the area of the display frame image according to the moving speed detected by the detection unit, thereby displaying Generate different display images,
The visual field support device according to any one of claims 1 to 5.
前記生成部は、前記検出部が検出した移動速度が速いほど、前記表示枠画像の面積を狭く変化させる、
請求項6に記載の視界支援装置。
The generation unit changes the area of the display frame image narrower as the moving speed detected by the detection unit is faster.
The visual field support device according to claim 6.
前記生成部は、前記表示枠画像の重畳によって、前記撮影画像を、前記移動体に設けられたまたは前記移動体と同様の他の移動体に設けられるサイドミラーの鏡面と相似形状となる表示画像を生成する、
請求項6または請求項7に記載の視界支援装置。
The generator generates a display image having a similar shape to a mirror surface of a side mirror provided on the moving body or provided on another moving body similar to the moving body by superimposing the display frame image. Generate
The visual field support apparatus according to claim 6 or 7.
移動体の移動速度を検出する検出ステップと、
前記移動体に搭載され、前記移動体の後方領域を撮影する撮影部によって得られた撮影画像に基づき、前記検出ステップにおいて検出された移動速度に応じて表示される範囲の異なる表示画像を生成する生成ステップと、
前記生成ステップにおいて生成された表示画像を、前記移動体に搭載された表示部に表示するように制御する表示ステップと、
を含む視界支援方法。
A detection step for detecting the moving speed of the moving body;
Based on a photographed image obtained by a photographing unit that is mounted on the movable body and photographs a rear region of the movable body, a display image having a different range to be displayed is generated according to the moving speed detected in the detection step. Generation step;
A display step for controlling the display image generated in the generation step to be displayed on a display unit mounted on the moving body;
Visibility support method including
移動体において用いられる視界支援装置が利用可能なコンピュータに、
前記移動体の移動速度を検出する検出ステップと、
前記移動体に搭載され、前記移動体の後方領域を撮影する撮影部によって得られた撮影画像に基づき、前記検出ステップにおいて検出された移動速度に応じて表示される範囲の異なる表示画像を生成する生成ステップと、
前記生成ステップにおいて生成された表示画像を、前記移動体に搭載された表示部に表示するように制御する表示ステップと、
を実行させるための視界支援プログラム。
In a computer that can use a field of view support device used in a moving object,
A detecting step for detecting a moving speed of the moving body;
Based on a photographed image obtained by a photographing unit that is mounted on the movable body and photographs a rear region of the movable body, a display image having a different range to be displayed is generated according to the moving speed detected in the detection step. Generation step;
A display step for controlling the display image generated in the generation step to be displayed on a display unit mounted on the moving body;
Visibility support program to execute.
JP2014051778A 2013-12-27 2014-03-14 Visual field support device, visual field support method, and visual field support program Pending JP2015144406A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014051778A JP2015144406A (en) 2013-12-27 2014-03-14 Visual field support device, visual field support method, and visual field support program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013271857 2013-12-27
JP2013271857 2013-12-27
JP2014051778A JP2015144406A (en) 2013-12-27 2014-03-14 Visual field support device, visual field support method, and visual field support program

Publications (1)

Publication Number Publication Date
JP2015144406A true JP2015144406A (en) 2015-08-06

Family

ID=53889182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014051778A Pending JP2015144406A (en) 2013-12-27 2014-03-14 Visual field support device, visual field support method, and visual field support program

Country Status (1)

Country Link
JP (1) JP2015144406A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068692A1 (en) * 2015-10-22 2017-04-27 日産自動車株式会社 Display control method and display control device
JP2017183974A (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
CN110877598A (en) * 2018-09-06 2020-03-13 本田技研工业株式会社 Side window defroster

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068692A1 (en) * 2015-10-22 2017-04-27 日産自動車株式会社 Display control method and display control device
CN108140318A (en) * 2015-10-22 2018-06-08 日产自动车株式会社 Display control method and display control unit
JPWO2017068692A1 (en) * 2015-10-22 2018-09-27 日産自動車株式会社 Display control method and display control apparatus
US10322674B2 (en) 2015-10-22 2019-06-18 Nissan Motor Co., Ltd. Display control method and display control device
JP2017183974A (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
CN110877598A (en) * 2018-09-06 2020-03-13 本田技研工业株式会社 Side window defroster
JP2020040422A (en) * 2018-09-06 2020-03-19 本田技研工業株式会社 Side defroster device
JP7012626B2 (en) 2018-09-06 2022-01-28 本田技研工業株式会社 Side defroster device
CN110877598B (en) * 2018-09-06 2023-08-11 本田技研工业株式会社 Side window defrosting device

Similar Documents

Publication Publication Date Title
WO2015098156A1 (en) Visual field support device, visual field support method, and visual field support program
EP2487906B1 (en) Control device and vehicle surrounding monitoring device
JP5321267B2 (en) Vehicular image display device and overhead image display method
JP6346614B2 (en) Information display system
JP6825709B2 (en) Surrounding vehicle display method and surrounding vehicle display device
EP2974909A1 (en) Periphery surveillance apparatus and program
WO2016002163A1 (en) Image display device and image display method
US10887568B2 (en) Image processing apparatus, and image processing method
JP6045796B2 (en) Video processing apparatus, video processing method, and video display system
JP2016097896A (en) Image display control device
JP6561616B2 (en) In-vehicle head-up display device and in-vehicle display system
JP2010130646A (en) Vehicle periphery checking system
JP6929177B2 (en) Driving support display method and driving support display device
JP5626147B2 (en) Vehicle approaching object detection device
JP2010116086A (en) On-vehicle display, display method, and display program
JP2017054478A (en) Vehicle display device and vehicle display method
JP5262515B2 (en) Vehicle display device and display method
JP6448714B2 (en) Information display system
JP6825433B2 (en) Virtual image display device and computer program
JP2015144406A (en) Visual field support device, visual field support method, and visual field support program
JP7006460B2 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
JP2007025739A (en) Image display device for vehicle
JP2017111739A (en) Driving support apparatus and driving support method
US20210280157A1 (en) Vehicle operation system and computer readable non-transitory storage medium
JP4679816B2 (en) Vehicle periphery display control device