JP6989212B2 - Vehicle visibility device - Google Patents

Vehicle visibility device Download PDF

Info

Publication number
JP6989212B2
JP6989212B2 JP2017227158A JP2017227158A JP6989212B2 JP 6989212 B2 JP6989212 B2 JP 6989212B2 JP 2017227158 A JP2017227158 A JP 2017227158A JP 2017227158 A JP2017227158 A JP 2017227158A JP 6989212 B2 JP6989212 B2 JP 6989212B2
Authority
JP
Japan
Prior art keywords
vehicle
display
image
focus
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017227158A
Other languages
Japanese (ja)
Other versions
JP2019097127A (en
Inventor
正則 小杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2017227158A priority Critical patent/JP6989212B2/en
Publication of JP2019097127A publication Critical patent/JP2019097127A/en
Application granted granted Critical
Publication of JP6989212B2 publication Critical patent/JP6989212B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、車両周辺を視認するために車両周辺を撮影して撮影画像を表示する車両用視認装置に関する。 The present invention relates to a vehicle visual recognition device that photographs a vehicle peripheral area and displays a photographed image in order to visually recognize the vehicle peripheral area.

車両にカメラ等の撮影部及びモニタ等の表示部を搭載して、車両周辺を撮影部で撮影した撮影画像を表示部に表示する車両用視認装置が知られている。 There is known a vehicle visual recognition device in which a photographing unit such as a camera and a display unit such as a monitor are mounted on a vehicle, and a photographed image taken by the photographing unit around the vehicle is displayed on the display unit.

このような車両用視認装置では、運転者が運転中の場合には遠方を見て運転しており、車室内の表示部に視点を切替えた場合に、近くに目の焦点を合わせ直す必要があった。また、老眼や遠視の人は、そもそも近い場所に焦点が合わない人もおり、車室内の表示部に焦点が合わないことがある。 In such a vehicle visual recognition device, when the driver is driving, he / she looks at a distance and drives, and when the viewpoint is switched to the display unit in the vehicle interior, it is necessary to refocus the eyes closer. there were. In addition, some people with presbyopia or hyperopia may not be able to focus on a nearby place, and may not be able to focus on the display part in the vehicle interior.

そこで、車両用視認装置に焦点や視度を調整する構成を持たせることが考えられる。例えば、視度を調整する技術として、特許文献1の技術が提案されている。特許文献1では、画像処理により表示画像を変換して観者の網膜上の焦点外れを補正して、眼鏡やコンタクトレンズのように、視度を補正する視度補正装置が提案されている。 Therefore, it is conceivable to give the vehicle visual recognition device a configuration for adjusting the focus and diopter. For example, as a technique for adjusting diopter, the technique of Patent Document 1 has been proposed. Patent Document 1 proposes a diopter correction device that corrects diopter, such as eyeglasses and contact lenses, by converting a display image by image processing to correct out-of-focus on the viewer's retina.

特許第5607473号公報Japanese Patent No. 5607473

特許文献1の技術を用いて、画像処理により乗員の視度を調整する技術を用いる場合、表示部に表示される撮影画像の全域に対して、画像処理を行ったのでは、処理負荷が高くなってしまう。また、処理負荷が高くなると、表示の遅延が発生し、車両周辺の視認性に影響があるため、改善の余地がある。 When the technique of adjusting the diopter of the occupant by image processing is used by using the technique of Patent Document 1, if the image processing is performed on the entire area of the captured image displayed on the display unit, the processing load is high. turn into. Further, when the processing load becomes high, a delay in display occurs, which affects the visibility around the vehicle, and there is room for improvement.

本発明は、上記事実を考慮して成されたもので、仮想的な焦点調整の処理負荷を低減しつつ、車両周辺の視認性を確保可能な車両用視認装置を提供することを目的とする。 The present invention has been made in consideration of the above facts, and an object of the present invention is to provide a vehicle visibility device capable of ensuring visibility around a vehicle while reducing the processing load of virtual focus adjustment. ..

上記目的を達成するために第1の態様は、車両周辺の撮影画像を表示する表示部と、前記撮影画像の一部の予め定めた領域または当該領域以外の領域に対して画像処理を施すことにより乗員が視認性を確保できる予め定めた位置に仮想的に目の焦点を変更して前記表示部に表示する表示制御を行う制御部と、を備え、前記制御部が、予め定めた車速以上、かつ前記撮影画像中に予め定めた距離以内に車両が検出された場合に、前記予め定めた距離以内の車両に対応する領域を前記予め定めた領域として、前記表示制御を行うIn order to achieve the above object, the first aspect is to perform image processing on a display unit that displays a photographed image around the vehicle, a predetermined area of the photographed image, or an area other than the area. A control unit that virtually changes the focus of the eyes to a predetermined position where the occupant can secure visibility and controls the display to be displayed on the display unit is provided, and the control unit is provided with a vehicle speed equal to or higher than the predetermined vehicle speed. In addition, when a vehicle is detected within a predetermined distance in the captured image, the display control is performed with the area corresponding to the vehicle within the predetermined distance as the predetermined area .

第1の態様によれば、表示部には、車両周辺の撮影画像が表示されるので、表示部を確認することによって車両周辺を視認できる。 According to the first aspect, since the photographed image around the vehicle is displayed on the display unit, the periphery of the vehicle can be visually recognized by checking the display unit.

制御部では、撮影画像の一部の予め定めた領域または当該領域以外の領域に対して画像処理を施すことにより乗員が視認性を確保できる予め定めた位置に仮想的に目の焦点を変更して表示部に表示する表示制御が行われる。このよう制御することで、表示部の全面に対して仮想的な焦点調整を行うことなく、一部に対して画像処理を行うので、処理負荷を低減できる。また、何かの拍子に焦点が切り替わってもぼけずに見える部分を確保することで視認性を確保できる。 The control unit virtually changes the focus of the eyes to a predetermined position where the occupant can ensure visibility by performing image processing on a part of the captured image or an area other than the predetermined area. The display is controlled to be displayed on the display unit. By controlling in this way, image processing is performed on a part of the display unit without performing virtual focus adjustment on the entire surface, so that the processing load can be reduced. In addition, visibility can be ensured by securing a part that can be seen without blurring even if the focus is switched to some beat.

また、制御部は、予め定めた車速以上、かつ撮影画像中に予め定めた距離以内に車両が検出された場合に、予め定めた距離以内の車両に対応する領域を予め定めた領域として、表示制御を行 In addition , when a vehicle is detected within a predetermined distance in the captured image and at a speed higher than the predetermined vehicle speed, the control unit displays an area corresponding to the vehicle within the predetermined distance as a predetermined area. control intends line.

また、制御部は、予め定めた車速未満の場合、または撮影画像中に予め定めた距離以内に車両が検出されない場合に、仮想的な前記焦点の調整を禁止して撮影画像を表示部に表示する無矯正表示制御、または表示部の全面に対応する撮影画像に対して仮想的に焦点を変更して表示部に表示する全面矯正表示制御を更に行ってもよい。 In addition, the control unit prohibits the virtual adjustment of the focal point and displays the captured image on the display unit when the vehicle speed is lower than the predetermined vehicle speed or when the vehicle is not detected within the predetermined distance in the captured image. The uncorrected display control may be performed, or the full-face corrected display control may be further performed by virtually changing the focus on the captured image corresponding to the entire surface of the display unit and displaying the image on the display unit.

また、制御部は、車両の後退が検出された場合に、表示部の全面に対応する撮影画像に対して仮想的に焦点を変更して表示部に表示する後退表示制御を更に行ってもよい。 Further, the control unit may further perform backward display control for displaying on the display unit by virtually changing the focus on the captured image corresponding to the entire surface of the display unit when the vehicle is detected to be retracted. ..

さらに、制御部は、仮想的に焦点を変更する際に、乗員によって予め設定された焦点位置に変更してもよい。 Further, the control unit may change the focus position to a position preset by the occupant when the focus is virtually changed.

以上説明したように本発明によれば、仮想的な焦点調整の処理負荷を低減しつつ、車両周辺の視認性を確保可能な車両用視認装置を提供できる、という効果がある。 As described above, according to the present invention, there is an effect that it is possible to provide a vehicle visibility device capable of ensuring visibility around the vehicle while reducing the processing load of virtual focus adjustment.

本実施形態に係る車両用視認装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the visual recognition device for a vehicle which concerns on this embodiment. 本実施形態に係る車両用視認装置の制御装置の機能を示す機能ブロック図である。It is a functional block diagram which shows the function of the control device of the vehicle visual recognition device which concerns on this embodiment. 運転者が乗車している様子を示す図である。It is a figure which shows the state that a driver is riding. 画像処理による仮想的な矯正を説明するための図である。It is a figure for demonstrating virtual correction by image processing. 仮想的な矯正を行う領域の一例を示す図である。It is a figure which shows an example of the area which performs virtual correction. 本実施形態に係る車両用視認装置の制御装置で行われる処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process performed in the control device of the vehicle visual recognition device which concerns on this embodiment. 本実施形態に係る車両用視認装置の制御装置で行われる後退時の割込処理(後退表示制御)の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the interrupt process (reverse display control) at the time of retreat performed by the control device of the vehicle visual recognition device which concerns on this embodiment.

以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。図1は、本実施形態に係る車両用視認装置の概略構成を示すブロック図である。 Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a vehicle visual recognition device according to the present embodiment.

車両用視認装置10には、後方カメラ18、及びドアカメラ16(16L、16R)が設けられている。後方カメラ18は、車両後部かつ車幅方向中央部(例えば、トランクまたはリアバンパの車幅方向中央部)に配置され、車両の後方を所定の画角(撮影領域)で撮影可能とされている。また、ドアカメラ16Lは、車両の車幅左側のドアミラーに設けられ、ドアカメラ16Rは、車両の車幅右側のドアミラーに設けられている。ドアカメラ16L、16Rは、車体側方から車両後方を所定の画角(撮影領域)で撮影可能とされている。なお、以下では、ドアカメラ16L、16Rは、左右を区別しない場合には、ドアカメラ16として説明する。 The vehicle visual recognition device 10 is provided with a rear camera 18 and a door camera 16 (16L, 16R). The rear camera 18 is arranged at the rear of the vehicle and at the center of the vehicle width direction (for example, the center of the trunk or the rear bumper in the vehicle width direction), and is capable of photographing the rear of the vehicle at a predetermined angle of view (shooting area). Further, the door camera 16L is provided on the door mirror on the left side of the vehicle width, and the door camera 16R is provided on the door mirror on the right side of the vehicle width. The door cameras 16L and 16R are capable of photographing the rear of the vehicle from the side of the vehicle body at a predetermined angle of view (shooting area). In the following, the door cameras 16L and 16R will be described as the door camera 16 when the left and right are not distinguished.

後方カメラ18及びドアカメラ16は、車両周辺としての車両後方を撮影する。詳細には、後方カメラ18の撮影領域の一部は、ドアカメラ16の撮影領域の一部と重複し、後方カメラ18、及びドアカメラ16により、車両後方を車体の右斜め後方から左斜め後方の範囲に渡って撮影可能とされている。これにより、車両の後方側が広角に撮影される。 The rear camera 18 and the door camera 16 photograph the rear of the vehicle as the periphery of the vehicle. Specifically, a part of the shooting area of the rear camera 18 overlaps with a part of the shooting area of the door camera 16, and the rear camera 18 and the door camera 16 make the rear of the vehicle from diagonally right rear to diagonally rear left of the vehicle body. It is possible to shoot over the range of. As a result, the rear side of the vehicle is photographed at a wide angle.

車両の車室内には、インナーミラー22(図3参照)が設けられており、インナーミラー22は、車室内天井面の車両前側かつ車幅方向中央部に取付けられている。インナーミラー22には、表示部としての長尺矩形状とされたモニタ12が設けられており、モニタ12は、長手方向が車幅方向とされ、かつ表示面が車両後方に向けられている。これにより、モニタ12は、車両前側のフロントウインドシールドガラスの上部付近に配置されて、表示面が車室内の乗員に視認可能にされている。 An inner mirror 22 (see FIG. 3) is provided in the vehicle interior of the vehicle, and the inner mirror 22 is attached to the front side of the vehicle interior and the central portion in the vehicle width direction on the ceiling surface of the vehicle interior. The inner mirror 22 is provided with a monitor 12 having a long rectangular shape as a display unit, and the monitor 12 has a longitudinal direction in the vehicle width direction and a display surface facing the rear of the vehicle. As a result, the monitor 12 is arranged near the upper part of the front windshield glass on the front side of the vehicle, and the display surface is visible to the occupants in the vehicle interior.

モニタ12の表示面には、ハーフミラー(ワイドミラー)が設けられており、モニタ12が非表示の場合に、ハーフミラーには、車室内と共にリアウインドガラス及びドアガラスを通した後方視界が写される。 A half mirror (wide mirror) is provided on the display surface of the monitor 12, and when the monitor 12 is hidden, the half mirror captures the rear view through the rear window glass and the door glass together with the vehicle interior. Will be done.

また、インナーミラー22の近傍には、インナーカメラ14が設けられており、撮影方向が車両後方に向けられて、インナーカメラ14が車室内を撮影する。 Further, an inner camera 14 is provided in the vicinity of the inner mirror 22, and the shooting direction is directed to the rear of the vehicle, and the inner camera 14 shoots the interior of the vehicle.

また、車両用視認装置10には、制御部としての制御装置20が設けられており、制御装置20にモニタ12、インナーカメラ14、ドアカメラ16、後方カメラ18、車速センサ36、及び後方監視部38が接続されている。制御装置20には、CPU20A、ROM20B、RAM20C、不揮発性記憶媒体(例えば、EPROM)20D、及びI/O(入出力インタフェース)20Eがそれぞれバス20Fに接続されたマイクロコンピュータが含まれている。ROM20B等には、車両用視認表示制御プログラム等の各種のプログラムが記憶されており、CPU20AがROM20B等に記憶されるプログラムを読み出して実行することで、制御装置20がモニタ12に乗員の視認を補助する画像を表示する。 Further, the vehicle visual recognition device 10 is provided with a control device 20 as a control unit, and the control device 20 includes a monitor 12, an inner camera 14, a door camera 16, a rear camera 18, a vehicle speed sensor 36, and a rear monitoring unit. 38 is connected. The control device 20 includes a microcomputer in which a CPU 20A, a ROM 20B, a RAM 20C, a non-volatile storage medium (for example, EPROM) 20D, and an I / O (input / output interface) 20E are connected to the bus 20F, respectively. Various programs such as a vehicle visual display control program are stored in the ROM 20B and the like, and the CPU 20A reads and executes the program stored in the ROM 20B and the like so that the control device 20 can visually recognize the occupant on the monitor 12. Display an auxiliary image.

車速センサ36は、車両の速度(以下、車速と称す。)を検出し、検出結果を制御装置20に出力する。 The vehicle speed sensor 36 detects the speed of the vehicle (hereinafter referred to as vehicle speed) and outputs the detection result to the control device 20.

後方監視部38は、後方の障害物や車両等を監視し、監視結果を制御装置20に出力する。後方監視部24は、例えば、超音波レーダ、レーザレーダ等の各種レーダを適用してもよいし、ステレオカメラ等の距離測定が可能なカメラを適用してもよい。 The rear monitoring unit 38 monitors obstacles, vehicles, and the like behind it, and outputs the monitoring result to the control device 20. For example, various radars such as an ultrasonic radar and a laser radar may be applied to the rear monitoring unit 24, or a camera capable of measuring a distance such as a stereo camera may be applied.

また、制御装置20は、後方カメラ18、及びドアカメラ16の各々により撮影された車両周辺の車外撮影画像を重ねて視認用画像を生成し、モニタ12に表示する制御を行う。本実施形態では、詳細は後述するが、制御装置20が、視認用画像に画像処理を施すことにより、仮想的に乗員の焦点を調整してモニタ12に表示する制御を行う。なお、モニタ12は、運転席より車両前側に設けられており、撮影画像に対してモニタ12に表示される画像が左右反転される。また、視認用画像を生成する際には、インナーカメラ14の撮影画像を透過して重ねてもよい。 Further, the control device 20 controls to generate a visual image by superimposing the images taken outside the vehicle taken by each of the rear camera 18 and the door camera 16 and display them on the monitor 12. In this embodiment, although the details will be described later, the control device 20 controls the visual recognition image to be displayed on the monitor 12 by virtually adjusting the focus of the occupant by performing image processing. The monitor 12 is provided on the front side of the vehicle from the driver's seat, and the image displayed on the monitor 12 is horizontally inverted with respect to the captured image. Further, when the visual image is generated, the captured image of the inner camera 14 may be transmitted and superimposed.

次に、制御装置20のROM20Bに記憶されたプログラムを実行することにより実現される制御装置20の機能について説明する。図2は、本実施形態に係る車両用視認装置10の制御装置20の機能を示す機能ブロック図である。 Next, the function of the control device 20 realized by executing the program stored in the ROM 20B of the control device 20 will be described. FIG. 2 is a functional block diagram showing the functions of the control device 20 of the vehicle visual recognition device 10 according to the present embodiment.

制御装置20は、図2に示すように、視認用画像生成部30、処理部32、特徴点抽出部40、及び制御部としての仮想矯正画像処理部34の機能を備えている。 As shown in FIG. 2, the control device 20 has the functions of a visual image generation unit 30, a processing unit 32, a feature point extraction unit 40, and a virtual correction image processing unit 34 as a control unit.

視認用画像生成部30は、後方カメラ18及びドアカメラ16の撮影画像をそれぞれ取得して、それぞれの撮影画像を合成して視認用画像を生成する。 The visual recognition image generation unit 30 acquires the captured images of the rear camera 18 and the door camera 16, respectively, and synthesizes the captured images to generate a visual recognition image.

処理部32は、視認用画像生成部30によって生成された視認用画像に対して、画像情報以外の入力等に基づいて、各種補正などの処理を行う。また、処理部32に、鍵や指紋などによって個人認証情報等を入力可能としてもよい。個人認証情報が処理部32に入力された場合には、個人認証結果、または、個人認証結果に対応する焦点距離の情報を仮想矯正画像処理部34に出力する。 The processing unit 32 performs various corrections and the like on the visual recognition image generated by the visual visual image generation unit 30 based on inputs other than image information and the like. Further, personal authentication information or the like may be input to the processing unit 32 by a key, a fingerprint or the like. When the personal authentication information is input to the processing unit 32, the personal authentication result or the focal length information corresponding to the personal authentication result is output to the virtual corrected image processing unit 34.

特徴点抽出部40は、後方車両を検出するための特徴点を視認用画像から抽出し、抽出した特徴点から後方の車両を検出する。そして、後方の車両の検出結果を仮想矯正画像処理部34に出力する。 The feature point extraction unit 40 extracts feature points for detecting a vehicle behind from a visual image, and detects a vehicle behind from the extracted feature points. Then, the detection result of the vehicle behind is output to the virtual correction image processing unit 34.

仮想矯正画像処理部34は、処理部32により処理された視認用画像に対して、仮想的に矯正する画像処理を施すことで、仮想的に目の焦点を変更する処理を行い、モニタ12に視認用画像を表示する。本実施形態では、視認用画像の予め定めた領域または当該領域以外の領域に対して仮想的に目の焦点を変更する。 The virtual correction image processing unit 34 performs a process of virtually changing the focus of the eyes by performing image processing for virtually correcting the visual image processed by the processing unit 32, and the monitor 12 is used. Display a visual image. In the present embodiment, the focus of the eyes is virtually changed with respect to a predetermined area of the visual image or an area other than the predetermined area.

具体的には、仮想矯正画像処理部34は、予め定めた条件が成立した場合に、予め定めた領域または当該領域以外の領域に対して仮想的に焦点調整を行う。予め定めた条件の一例としては、車速センサ36によって予め定めた車速以上が検出され、かつ特徴点抽出部40の後方車両の検出結果と後方監視部38の監視結果に基づいて後方の予め定めた距離以内に後方車両が存在することが検出された場合を適用する。また、仮想的に焦点調整を行う際の焦点位置の一例としては、乗員毎に予め登録された焦点位置や、乗員によって予め設定された焦点位置に調整する。例えば、仮想矯正画像処理部34は、処理部32から個人認証結果を受信した場合に、視認用画像に対する仮想的な焦点を、個人毎に予め登録された焦点距離に変更してもよい。或いは、仮想矯正画像処理部34は、処理部32から個人認証結果に対応する焦点距離の情報を受信した場合に、受信した焦点距離の情報に合わせて、仮想的に焦点を調整してもよい。或いは、スイッチ操作等による乗員の指示に従って焦点を調整してもよい。 Specifically, when the predetermined condition is satisfied, the virtual correction image processing unit 34 virtually adjusts the focus on the predetermined region or the region other than the predetermined region. As an example of the predetermined conditions, the vehicle speed sensor 36 detects the vehicle speed or higher, and the rear is predetermined based on the detection result of the vehicle behind the feature point extraction unit 40 and the monitoring result of the rear monitoring unit 38. This applies when it is detected that there is a vehicle behind within the distance. Further, as an example of the focal position when virtually adjusting the focus, the focal position is adjusted to a focal position registered in advance for each occupant or a focal position preset by the occupant. For example, when the virtual correction image processing unit 34 receives the personal authentication result from the processing unit 32, the virtual focus on the visual recognition image may be changed to a focal length registered in advance for each individual. Alternatively, when the virtual correction image processing unit 34 receives the focal length information corresponding to the personal authentication result from the processing unit 32, the virtual correction image processing unit 34 may virtually adjust the focus according to the received focal length information. .. Alternatively, the focus may be adjusted according to the instructions of the occupant by operating a switch or the like.

また、仮想矯正画像処理部34が、モニタ12に視認用画像を表示する際には、鏡像変換処理を行って左右を反転して表示するが、鏡像変換処理は、視認用画像生成部30、処理部32、及び仮想矯正画像処理部34の何れで行ってもよい。以下の説明では、説明を簡略化するために鏡像変換については省略して説明する場合がある。 Further, when the virtual correction image processing unit 34 displays the visual image on the monitor 12, the mirror image conversion process is performed and the left and right sides are inverted, and the mirror image conversion process is performed by the visual image generation unit 30. It may be performed by either the processing unit 32 or the virtual corrected image processing unit 34. In the following description, the mirror image conversion may be omitted for the sake of brevity.

なお、仮想矯正画像処理部34は、例えば、特許文献1として挙げた特許第5607473号公報に記載の視度補正の技術を用いて、画像処理により仮想的な焦点調整を行うことができる。或いは、Fu-Chung Huang、他3名、”Eyeglasses-free Display”、[online]、[平成29年11月13日検索]、インターネット(URL: http://web.media.mit.edu/~gordonw/VisionCorrectingDisplay/)に記載の技術を用いてもよい。 The virtual corrected image processing unit 34 can perform virtual focus adjustment by image processing using, for example, the diopter correction technique described in Japanese Patent No. 5607473 cited as Patent Document 1. Alternatively, Fu-Chung Huang, 3 others, "Eyeglasses-free Display", [online], [Searched on November 13, 2017], Internet (URL: http://web.media.mit.edu/~ The technique described in gordonw / VisionCorrectingDisplay /) may be used.

ここで、仮想矯正画像処理部34によって行われる画像処理による仮想的な矯正の一例について説明する。図3は、運転者が乗車している様子を示す図であり、図4は、画像処理による仮想的な矯正を説明するための図である。 Here, an example of virtual correction by image processing performed by the virtual correction image processing unit 34 will be described. FIG. 3 is a diagram showing a state in which the driver is on board, and FIG. 4 is a diagram for explaining virtual correction by image processing.

図3に示すように、運転者が前方方向を見ている場合には、前方の距離d1に焦点があるように運転している。一方、光学式のインナーミラー22を使った場合は、後方の距離d2に目の焦点があるように運転している。ここで、d1、d2は、5m以上の距離であり、運転状況によっては100m以上になり、運転者とインナーミラー22との距離d3に比べて遠方の距離である。 As shown in FIG. 3, when the driver is looking forward, he is driving so that the focus is on the front distance d1. On the other hand, when the optical inner mirror 22 is used, the driver is operated so that the focus of the eyes is on the rear distance d2. Here, d1 and d2 are distances of 5 m or more, 100 m or more depending on the driving situation, and are farther than the distance d3 between the driver and the inner mirror 22.

インナーミラー22は、物理的には、距離d3に位置する。光学式のインナーミラー22を用いた場合は反射した像に焦点を合わせるため、距離d3に意識することなく、焦点距離D=d2で距離d2離れた点の後方を見る。一方、モニタ12を見る場合、モニタ12に映る後方画像を見る必要があるため、目の焦点距離を距離d3に合わせて後方視界を見ることになる。 The inner mirror 22 is physically located at a distance d3. When the optical inner mirror 22 is used, in order to focus on the reflected image, the person looks behind the point separated by the distance d2 at the focal length D = d2 without being conscious of the distance d3. On the other hand, when looking at the monitor 12, since it is necessary to look at the rear image reflected on the monitor 12, the focal length of the eyes is adjusted to the distance d3 to see the rear view.

図4(A)に示すように、距離d3のモニタ12に焦点距離Dを合わせて見ている場合、ぼけることなく正常に見える。一方、図4(B)に示すように、目の焦点距離Dが距離d1に合っている状態では、距離d3のモニタ12はぼけて見えてしまうが、仮想矯正画像処理部34によって仮想的な矯正を画像処理で行うことにより、距離d3に位置するモニタ12上の画像に対する仮想的な焦点距離Dを距離d1にすることではっきり見えるようになる。つまり、焦点距離Dを距離d1から距離d3に戻すことなく、モニタ12の画像(後方視界)を見ることができる。なお、距離d1を前方の5m以上の距離としたが、距離d1(但し、d1>d3)を老眼(遠視)の人が見えることができる最も近い距離とした場合は、目の能力として見えない部分である距離d3にあるモニタ12の画像も見ることができる。 As shown in FIG. 4A, when the focal length D is adjusted to the monitor 12 at the distance d3, it looks normal without blurring. On the other hand, as shown in FIG. 4B, when the focal distance D of the eyes matches the distance d1, the monitor 12 at the distance d3 looks blurred, but it is virtualized by the virtual correction image processing unit 34. By performing the correction by image processing, the virtual focal distance D for the image on the monitor 12 located at the distance d3 is set to the distance d1 so that the image can be clearly seen. That is, the image (rear view) of the monitor 12 can be viewed without returning the focal length D from the distance d1 to the distance d3. The distance d1 is set to a distance of 5 m or more in front, but when the distance d1 (however, d1> d3) is set to the shortest distance that a person with presbyopia (hyperopia) can see, it cannot be seen as an eye ability. You can also see the image of the monitor 12 at the distance d3 which is a part.

ところで、仮想矯正画像処理部34は、乗員がモニタ12に表示された画像を見易くするために、画像処理により仮想的に焦点を調整可能とされているが、モニタ12の画面全域に対して仮想的に焦点調整を行ったのでは、処理負荷が高くなってしまう。また、何かの拍子に焦点が距離d3等に替わってしまうと、逆にぼけたように見えて、視認性が悪化することが考えられる。 By the way, the virtual correction image processing unit 34 is capable of virtually adjusting the focus by image processing in order to make it easier for the occupant to see the image displayed on the monitor 12, but it is virtual for the entire screen of the monitor 12. If the focus is adjusted, the processing load will increase. Further, if the focus is changed to the distance d3 or the like due to some beat, it may appear blurred and the visibility may be deteriorated.

そこで、本実施形態では、仮想矯正画像処理部34が、上述したように、予め定めた領域または当該領域以外の領域に対して画像処理を行って仮想的に焦点調整を行ってモニタ12に表示する表示制御を行うようになっている。なお、以下では、予め定めた領域に対して仮想的に焦点調整する例を説明する。 Therefore, in the present embodiment, as described above, the virtual correction image processing unit 34 performs image processing on a predetermined region or an region other than the region, virtually adjusts the focus, and displays the image on the monitor 12. Display control is performed. In the following, an example of virtually adjusting the focus on a predetermined area will be described.

具体的には、予め定めた条件が成立した場合(本実施形態では、予め定めた車速以上の走行時に予め定めた距離以内に後方車両が存在する場合)に、図5(A)の点線で示す領域のように、後方の近い場所の車両のみに対して、仮想的に見え方を矯正する。このようすることで、仮に焦点が距離d3となってもぼけずに見える部分を確保することで視認性を確保できる。また、ぼけずに見える領域を注意対象となる後方の車両の領域にすることで必要な部分を見易くすることができる。さらに、モニタ12の全面に対して仮想的な焦点調整を行うことなく、一部に対して画像処理を行うので、処理負荷を低減できる。 Specifically, when a predetermined condition is satisfied (in the present embodiment, when a vehicle behind the vehicle exists within a predetermined distance when traveling at a vehicle speed higher than the predetermined vehicle speed), the dotted line in FIG. 5 (A) is used. As shown in the area shown, the appearance is virtually corrected only for vehicles near the rear. By doing so, visibility can be ensured by securing a portion that can be seen without blurring even if the focal point is at a distance d3. In addition, it is possible to make it easier to see the necessary part by setting the area that can be seen without blurring to the area of the vehicle behind the vehicle to be watched. Further, since image processing is performed on a part of the monitor 12 without performing virtual focus adjustment on the entire surface, the processing load can be reduced.

ここで、仮想的に矯正する条件を後方の近い位置の車両が存在する場合に限定したのは、後方に注意対象となる要素(車両)がなければ、多少ぼけても安全性に問題がないからである。また、仮想的に矯正する条件を予め定めた車速以上の走行時に限定したのは、車庫入れ等のゆっくりと後退する場合などでは、画像の一部に処理することなく、全面を仮想的に矯正する方が、混乱を招き難いためである。 Here, the condition for virtually correcting is limited to the case where there is a vehicle in a position close to the rear, if there is no element (vehicle) to be noted in the rear, there is no problem in safety even if it is slightly blurred. Because. In addition, the condition for virtual correction is limited to when driving at a vehicle speed higher than the predetermined speed, in the case of slow retreat such as when entering the garage, the entire surface is virtually corrected without processing a part of the image. This is because it is less likely to cause confusion.

なお、仮想矯正画像処理部34は、予め定めた条件が未成立の場合(本実施形態では、予め定めた車速未満または予め定めた距離以内に後方車両が存在しない場合)に、無矯正表示制御または全面矯正表示制御を行うようになっている。無矯正表示制御は、仮想的な焦点の調整を禁止してモニタ12に視認用画像を表示する制御である。一方、全面矯正表示制御は、モニタ12の全面に対応する視認用画像に対して仮想的に焦点を変更してモニタ12に表示する制御である。 The virtual correction image processing unit 34 controls the uncorrected display when the predetermined conditions are not satisfied (in the present embodiment, when the vehicle speed is less than the predetermined vehicle speed or the rear vehicle does not exist within the predetermined distance). Alternatively, full-scale correction display control is performed. The uncorrected display control is a control that prohibits virtual focus adjustment and displays a visual image on the monitor 12. On the other hand, the full-face correction display control is a control in which the focus is virtually changed on the visual image corresponding to the entire surface of the monitor 12 and displayed on the monitor 12.

また、図5(A)の点線で示す領域は、図5(B)の点線で示す領域のように、後方の近い場所の車両を含む、図5(A)よりも広い領域としてもよい。 Further, the region shown by the dotted line in FIG. 5 (A) may be a region wider than that in FIG. 5 (A), including a vehicle at a location close to the rear, such as the region shown by the dotted line in FIG. 5 (B).

また、仮想矯正画像処理部34による仮想的な焦点調整は、例えば、車両の始動操作が行われている間、仮想的に目の焦点の変更を開始し、車両の始動操作が終了したところで、焦点の変更を終了してもよい。すなわち、車両の始動操作が行われている間は、モニタ12に表示される画像に対して仮想的に焦点の変更を続け、車両の始動操作が終了したところで、焦点を確定する。これにより、乗員の目の焦点が合ったところで、車両の始動操作を終了することで、乗員の焦点を容易に設定することができる。 Further, in the virtual focus adjustment by the virtual correction image processing unit 34, for example, while the vehicle starting operation is being performed, the change of the focus of the eyes is virtually started, and when the vehicle starting operation is completed, the virtual focus adjustment is performed. You may finish changing the focus. That is, while the vehicle starting operation is being performed, the focus is virtually changed with respect to the image displayed on the monitor 12, and the focus is determined when the vehicle starting operation is completed. As a result, the focus of the occupant can be easily set by ending the starting operation of the vehicle when the occupant's eyes are in focus.

続いて、上述のように構成された本実施形態に係る車両用視認装置10の制御装置20で行われる具体的な処理について説明する。図6は、本実施形態に係る車両用視認装置10の制御装置20で行われる処理の流れの一例を示すフローチャートである。なお、図7の処理は、図示しないイグニッションスイッチ(IG)がオンされた場合に開始する。或いは、モニタ12の電源をオンする指示が行われた場合に開始してもよい。 Subsequently, a specific process performed by the control device 20 of the vehicle visual recognition device 10 according to the present embodiment configured as described above will be described. FIG. 6 is a flowchart showing an example of the flow of processing performed by the control device 20 of the vehicle visual recognition device 10 according to the present embodiment. The process of FIG. 7 starts when an ignition switch (IG) (not shown) is turned on. Alternatively, it may be started when an instruction to turn on the power of the monitor 12 is given.

ステップ100では、CPU20Aが、カメラの撮影画像を取得開始してステップ102へ移行する。すなわち、視認用画像生成部30が、後方カメラ18、及びドアカメラ16のそれぞれによって撮影された撮影画像を取得して、それぞれの撮影画像を合成して視認用画像を生成する。 In step 100, the CPU 20A starts acquiring the captured image of the camera and proceeds to step 102. That is, the visual recognition image generation unit 30 acquires the captured images captured by each of the rear camera 18 and the door camera 16 and synthesizes the captured images to generate a visual visual image.

ステップ102では、CPU20Aが、後方視認用画像をモニタ12に表示してステップ104へ移行する。すなわち、視認用画像生成部30によって生成され、処理部32によって各種補正が行われた視認用画像が仮想矯正画像処理部34を介してモニタ12に表示される。このとき、仮想矯正画像処理部34は、視認用画像に対して画像処理を施して仮想的に焦点を調整してモニタ12に表示するが、焦点の位置は、乗員によって予め定められた位置に調整される。例えば、上述のように、車両の始動操作が行われている間に、 In step 102, the CPU 20A displays a rear view image on the monitor 12 and proceeds to step 104. That is, the visual image generated by the visual image generation unit 30 and subjected to various corrections by the processing unit 32 is displayed on the monitor 12 via the virtual corrected image processing unit 34. At this time, the virtual correction image processing unit 34 performs image processing on the visual image to virtually adjust the focus and display it on the monitor 12, but the focus position is set to a position predetermined by the occupant. It will be adjusted. For example, as described above, while the vehicle is being started.

仮想的に焦点を調整する場合は、乗員が車両に乗車して、車両始動時にスイッチ操作等により調整した調整値に調整する。或いは、鍵や指紋などによって処理部32が個人認証結果を受信した場合には、予め登録された乗員の調整値に調整してもよい。 When the focus is virtually adjusted, the occupant gets on the vehicle and adjusts to the adjustment value adjusted by operating a switch when the vehicle is started. Alternatively, when the processing unit 32 receives the personal authentication result by a key, a fingerprint, or the like, it may be adjusted to the adjustment value of the occupant registered in advance.

ステップ104では、CPU20Aが、車速を検出してステップ106へ移行する。すなわち、車速センサ36の検出結果を取得する。 In step 104, the CPU 20A detects the vehicle speed and proceeds to step 106. That is, the detection result of the vehicle speed sensor 36 is acquired.

ステップ106では、CPU20Aが、予め定めた車速以上であるか否かを判定する。該判定は、仮想矯正画像処理部34が、車速センサ36の検出結果から予め定めた車速以上の車速が検出されたか否かを判定する。該判定が肯定された場合にはステップ108へ移行し、否定された場合にはステップ116へ移行する。 In step 106, it is determined whether or not the CPU 20A is equal to or higher than a predetermined vehicle speed. In the determination, the virtual correction image processing unit 34 determines whether or not a vehicle speed higher than a predetermined vehicle speed is detected from the detection result of the vehicle speed sensor 36. If the determination is affirmed, the process proceeds to step 108, and if the determination is negative, the process proceeds to step 116.

ステップ108では、CPU20Aが、撮影画像から特徴点を抽出してステップ110へ移行する。すなわち、特徴点抽出部40が、後方車両を検出するために、視認用画像中の特徴点を抽出して、抽出した特徴点から後方の車両を検出し、検出結果を仮想矯正画像処理部34に出力する。 In step 108, the CPU 20A extracts feature points from the captured image and proceeds to step 110. That is, the feature point extraction unit 40 extracts the feature points in the visual recognition image in order to detect the vehicle behind, detects the vehicle behind from the extracted feature points, and obtains the detection result as the virtual correction image processing unit 34. Output to.

ステップ110では、CPU20Aが、予め定めた距離以内に車両があるか否かを判定する。該判定は、仮想矯正画像処理部34が、特徴点抽出部40の後方車両の検出結果と後方監視部38の監視結果に基づいて後方の予め定めた距離以内に車両が存在するか否かを判定する。該判定が肯定された場合にはステップ112へ移行し、否定された場合にはステップ116へ移行する。 In step 110, the CPU 20A determines whether or not there is a vehicle within a predetermined distance. In the determination, the virtual correction image processing unit 34 determines whether or not the vehicle exists within a predetermined distance behind based on the detection result of the vehicle behind the feature point extraction unit 40 and the monitoring result of the rear monitoring unit 38. judge. If the determination is affirmed, the process proceeds to step 112, and if the determination is negative, the process proceeds to step 116.

ステップ112では、CPU20Aが、後方視認用画像中の一部を矯正してモニタ12に表示してステップ114へ移行する。すなわち、仮想矯正画像処理部34が、後方視認用画像中の一部として予め定めた距離以内の後方の近い場所の車両(例えば、図5(A)、(B)の点線領域)の領域に対して仮想的に見え方を矯正する。このようすることで、仮に焦点が距離d3となってもぼけずに見える部分を確保することで視認性を確保できる。また、ぼけずに見える領域を注意対象となる後方の車両の領域にすることで必要な部分を見易くすることができる。さらに、モニタ12の全面に対して画像処理を行うことなく、一部に対して画像処理を行うので、処理負荷を低減できる。 In step 112, the CPU 20A corrects a part of the rear view image, displays it on the monitor 12, and proceeds to step 114. That is, the virtual correction image processing unit 34 is in the area of the vehicle (for example, the dotted line area of FIGS. On the other hand, the appearance is virtually corrected. By doing so, visibility can be ensured by securing a portion that can be seen without blurring even if the focal point is at a distance d3. In addition, it is possible to make it easier to see the necessary part by setting the area that can be seen without blurring to the area of the vehicle behind the vehicle to be watched. Further, since the image processing is performed on a part of the monitor 12 without performing the image processing on the entire surface, the processing load can be reduced.

一方、ステップ116では、CPU20Aが、後方視認用画像の一部を矯正中であるか否かを判定する。該判定は、仮想矯正画像処理部34が、ステップ112を既に実行して、視認用画像の一部に対して仮想的に矯正を行っている状態であるか否かを判定する。該判定が肯定された場合にはステップ118へ移行し、否定された場合にはステップ114へ移行する。 On the other hand, in step 116, the CPU 20A determines whether or not a part of the rearward visual recognition image is being corrected. In the determination, it is determined whether or not the virtual correction image processing unit 34 has already executed step 112 to virtually correct a part of the visual image. If the determination is affirmed, the process proceeds to step 118, and if the determination is negative, the process proceeds to step 114.

ステップ118では、CPU20Aが、後方視認用画像中の一部の矯正を停止してステップ114へ移行する。すなわち、仮想矯正画像処理部34が、後方視認用画像中の一部に対して行われている仮想的な矯正を停止してステップ114へ移行する。なお、後方視認用画像中の一部の矯正を停止した場合には、無矯正表示制御により仮想的な矯正を禁止して矯正していない視認用画像をモニタ12に表示してもよい。或いは、全面矯正表示制御により一部の矯正を停止してモニタ12の全面に対して矯正した視認用画像をモニタ12に表示してもよい。 In step 118, the CPU 20A stops some corrections in the rearward visual image and shifts to step 114. That is, the virtual correction image processing unit 34 stops the virtual correction performed on a part of the rearward visual recognition image, and proceeds to step 114. When a part of the correction in the rearward visual recognition image is stopped, the virtual correction may be prohibited by the uncorrected display control and the uncorrected visual recognition image may be displayed on the monitor 12. Alternatively, a visual image corrected for the entire surface of the monitor 12 may be displayed on the monitor 12 by stopping a part of the correction by the full-face correction display control.

ステップ114では、CPU20Aが、イグニッションスイッチ(IG)がオフされたか否かを判定する。該判定が否定された場合にはステップ104に戻って上述の処理を繰り返し、判定が肯定された場合には一連の処理を終了する。なお、ステップ114の処理は、モニタ12の電源をオフする指示が行われたか否かを判定してもよい。 In step 114, the CPU 20A determines whether or not the ignition switch (IG) has been turned off. If the determination is denied, the process returns to step 104 and the above processing is repeated, and if the determination is affirmed, a series of processing is terminated. The process of step 114 may determine whether or not an instruction to turn off the power of the monitor 12 has been given.

このように、仮想矯正画像処理部34が、上述したように、予め定めた領域に対して画像処理を行って予め定めた領域に対して仮想的に焦点調整を行うことで、乗員の焦点が切り替わることがあってもぼけずに見える部分を確保して視認性を確保できる。また、モニタ12の全面に対して画像処理を行うことなく、一部に対して画像処理を行うので、処理負荷を低減できる。 In this way, as described above, the virtual correction image processing unit 34 performs image processing on the predetermined area and virtually adjusts the focus on the predetermined area, so that the focus of the occupant is adjusted. Visibility can be ensured by securing a part that can be seen without blurring even if it is switched. Further, since the image processing is performed on a part of the monitor 12 without performing the image processing on the entire surface, the processing load can be reduced.

なお、図6の処理を実行中に、シフトセンサ等によって後退が検出された場合には、モニタ12の全面に対して矯正した視認用画像を表示する後退表示制御に移行してもよい。例えば、後退が検出された場合に割込処理として図7の後退表示制御の処理を行う。図7は、本実施形態に係る車両用視認装置10の制御装置20で行われる後退時の割込処理(後退表示制御)の流れの一例を示すフローチャートである。また、図7の処理は、シフトセンサ等によって後退が検出された場合に開始するものとする。 If a retreat is detected by a shift sensor or the like during the process of FIG. 6, the system may shift to the retreat display control for displaying the corrected visual image on the entire surface of the monitor 12. For example, when a retreat is detected, the retreat display control process of FIG. 7 is performed as an interrupt process. FIG. 7 is a flowchart showing an example of the flow of interrupt processing (backward display control) at the time of reverse movement performed by the control device 20 of the vehicle visual recognition device 10 according to the present embodiment. Further, the process of FIG. 7 shall be started when a backward movement is detected by a shift sensor or the like.

ステップ200では、CPU20Aが、後方視認用画像の全面を矯正してモニタ12に表示ステップ202へ移行する。すなわち、仮想矯正画像処理部34が、後方視認用画像の全面に対して仮想的に見え方を矯正する。これにより、車庫入れ等のゆっくりと後退する場合に、視認用画像の全面が見易くなり、混乱を招き難くなる。 In step 200, the CPU 20A corrects the entire surface of the rear view image and shifts to the display step 202 on the monitor 12. That is, the virtual correction image processing unit 34 virtually corrects the appearance of the entire surface of the rearward visual recognition image. This makes it easier to see the entire surface of the visual image when slowly retreating, such as when entering the garage, and is less likely to cause confusion.

ステップ202では、CPU20Aが、後退が終了であるか否かを判定する。該判定は、シフトセンサ等によって後退以外が検出されたか否かを判定する。該判定が肯定されるまで待機してステップ204へ移行する。 In step 202, the CPU 20A determines whether or not the retreat is complete. The determination determines whether or not a shift sensor or the like has detected something other than backward movement. It waits until the determination is affirmed and proceeds to step 204.

ステップ208では、CPU20Aが、後方視認用画像の全面を矯正する前の状態に戻して割込処理を終了して割込処理前の処理にリターンする。 In step 208, the CPU 20A returns to the state before correcting the entire surface of the rear view image, ends the interrupt process, and returns to the process before the interrupt process.

このように、割込処理を行うことにより、後退に連動して、視認用画像の全面に仮想的な矯正を施すことができ、後退時に視認用画像の全面を見易くすることができる。 In this way, by performing the interrupt processing, it is possible to perform virtual correction on the entire surface of the visual recognition image in conjunction with the retreat, and it is possible to make the entire surface of the visual recognition image easy to see at the time of retreat.

なお、上記の実施形態では、特徴点抽出部40によって検出した後方の車両の領域または当該領域以外の領域に対して、仮想的に焦点調整を行う例を説明したが、これに限るものではない。例えば、特徴点抽出部40を設けずに、視認用画像の中心部分等の予め定めた領域または当該領域以外の領域に対して、仮想的に焦点調整を行ってもよい。また、仮想的に焦点調整を行う領域は、乗員が領域を指定するようにしてもよい。 In the above embodiment, an example of virtually adjusting the focus on the area of the vehicle behind or the area other than the area detected by the feature point extraction unit 40 has been described, but the present invention is not limited to this. .. For example, the focus may be virtually adjusted to a predetermined region such as the central portion of the visual recognition image or a region other than the region without providing the feature point extraction unit 40. Further, the occupant may specify the area for virtually adjusting the focus.

また、上記の実施形態では、複数のカメラ(後方カメラ18及びドアカメラ16)の各々の撮影画像を合成してモニタ12に表示する例を説明するが、これに限るものではない。単一のカメラ(例えば、後方カメラ18)の撮影画像をモニタ12に表示する形態としてもよい。 Further, in the above embodiment, an example in which the captured images of the plurality of cameras (rear camera 18 and door camera 16) are combined and displayed on the monitor 12 will be described, but the present invention is not limited to this. The image captured by a single camera (for example, the rear camera 18) may be displayed on the monitor 12.

また、上記の実施形態における制御装置20で行われる処理は、ソフトウエアの処理として説明したが、これに限るものではない。例えば、ハードウエアで行う処理としてもよいし、ハードウエアとソフトウエアの双方を組み合わせた処理としてもよい。 Further, the processing performed by the control device 20 in the above embodiment has been described as software processing, but the processing is not limited to this. For example, it may be a process performed by hardware, or it may be a process in which both hardware and software are combined.

また、上記の実施形態における制御装置20で行われる処理は、プログラムとして記憶媒体に記憶して流通させるようにしてもよい。 Further, the processing performed by the control device 20 in the above embodiment may be stored in a storage medium as a program and distributed.

さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。 Further, the present invention is not limited to the above, and it is needless to say that the present invention can be variously modified and implemented within a range not deviating from the gist thereof.

10 車両用視認装置
12 モニタ
16 ドアカメラ
18 後方カメラ
20 制御装置
30 視認用画像生成部
34 仮想矯正画像処理部
36 車速センサ
38 後方監視部
40 特徴点抽出部
10 Vehicle visibility device 12 Monitor 16 Door camera 18 Rear camera 20 Control device 30 Visual correction image generation unit 34 Virtual correction image processing unit 36 Vehicle speed sensor 38 Rear monitoring unit 40 Feature point extraction unit

Claims (4)

車両周辺の撮影画像を表示する表示部と、
前記撮影画像の一部の予め定めた領域または当該領域以外の領域に対して画像処理を施すことにより乗員が視認性を確保できる予め定めた位置に仮想的に目の焦点を変更して前記表示部に表示する表示制御を行う制御部と、
を備え
前記制御部が、予め定めた車速以上、かつ前記撮影画像中に予め定めた距離以内に車両が検出された場合に、前記予め定めた距離以内の車両に対応する領域を前記予め定めた領域として、前記表示制御を行う車両用視認装置。
A display unit that displays captured images around the vehicle,
The display is performed by virtually changing the focus of the eyes to a predetermined position where the occupant can secure visibility by performing image processing on a part of the captured image or an area other than the predetermined area. A control unit that controls the display displayed on the unit, and
Equipped with
When the control unit detects a vehicle at a speed equal to or higher than a predetermined vehicle speed and within a predetermined distance in the captured image, a region corresponding to the vehicle within the predetermined distance is defined as the predetermined region. , A vehicle visual recognition device that controls the display.
前記制御部は、予め定めた車速未満の場合、または前記撮影画像中に予め定めた距離以内に車両が検出されない場合に、仮想的な前記焦点の調整を禁止して前記撮影画像を前記表示部に表示する無矯正表示制御、または前記表示部の全面に対応する前記撮影画像に対して仮想的に前記焦点を変更して前記表示部に表示する全面矯正表示制御を更に行う請求項1に記載の車両用視認装置。 The control unit prohibits the virtual adjustment of the focal point when the vehicle speed is lower than the predetermined vehicle speed, or when the vehicle is not detected within the predetermined distance in the captured image, and displays the captured image on the display unit. The first aspect of the present invention is to further perform uncorrected display control to be displayed on the display unit, or full-scale corrected display control to virtually change the focus of the captured image corresponding to the entire surface of the display unit and display the image on the display unit. Visual device for vehicles. 前記制御部は、車両の後退が検出された場合に、前記表示部の全面に対応する前記撮影画像に対して仮想的に前記焦点を変更して前記表示部に表示する後退表示制御を更に行う請求項1又は請求項2に記載の車両用視認装置。 When the retreat of the vehicle is detected, the control unit further performs a retreat display control of virtually changing the focus of the captured image corresponding to the entire surface of the display unit and displaying the retreat display on the display unit. The vehicle visual recognition device according to claim 1 or 2. 前記制御部は、仮想的に前記焦点を変更する際に、乗員によって予め設定された焦点位置に変更する請求項1〜3の何れか1項に記載の車両用視認装置。 The vehicle visual recognition device according to any one of claims 1 to 3, wherein the control unit changes to a focal position preset by an occupant when the focus is virtually changed.
JP2017227158A 2017-11-27 2017-11-27 Vehicle visibility device Active JP6989212B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017227158A JP6989212B2 (en) 2017-11-27 2017-11-27 Vehicle visibility device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017227158A JP6989212B2 (en) 2017-11-27 2017-11-27 Vehicle visibility device

Publications (2)

Publication Number Publication Date
JP2019097127A JP2019097127A (en) 2019-06-20
JP6989212B2 true JP6989212B2 (en) 2022-01-05

Family

ID=66972112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017227158A Active JP6989212B2 (en) 2017-11-27 2017-11-27 Vehicle visibility device

Country Status (1)

Country Link
JP (1) JP6989212B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08197981A (en) * 1995-01-23 1996-08-06 Aqueous Res:Kk Display device for vehicle
JPH0918894A (en) * 1995-06-26 1997-01-17 Sanyo Electric Co Ltd Stereoscopic image display device
EP1771811A4 (en) * 2004-07-26 2010-06-09 Silicon Optix Inc Panoramic vision system and method
US8564662B2 (en) * 2006-06-28 2013-10-22 Johnson Controls Technology Company Vehicle vision system
WO2011105502A1 (en) * 2010-02-24 2011-09-01 京セラ株式会社 Portable electronic device and projection system
JP5607473B2 (en) * 2010-09-16 2014-10-15 日本放送協会 Diopter correction device
JP5615651B2 (en) * 2010-09-28 2014-10-29 京セラ株式会社 Electronic equipment and projection system
JP5849628B2 (en) * 2011-11-11 2016-01-27 株式会社デンソー Vehicle display device
JP6327078B2 (en) * 2013-12-23 2018-05-23 株式会社デンソー Driving assistance device

Also Published As

Publication number Publication date
JP2019097127A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
CN107444263B (en) Display device for vehicle
US10843628B2 (en) Onboard display device, control method for onboard display device, and control program for onboard display device
JP6497158B2 (en) Display device, moving body
US10752177B2 (en) Vehicular visual recognition device and vehicular visual recognition image display method
JP4699054B2 (en) Vehicle perimeter monitoring device
JP6624105B2 (en) Image display device
CN111114434B (en) Vision-assisted imaging method, vehicle-mounted vision-assisted system and storage device
JP6361988B2 (en) Vehicle display device
JP7188727B2 (en) Visual recognition device for vehicles
JP4849333B2 (en) Visual aids for vehicles
JP5353734B2 (en) Imaging device
JP6770330B2 (en) Image display device
JP4798015B2 (en) Anti-glare control device
WO2015129280A1 (en) Image processing device and image processing method
EP2884735A1 (en) Method for operating a rear view camera system of a motor vehicle, rear view camera system and motor vehicle
JP6130118B2 (en) Image processing system, image processing apparatus, image processing method, and program
JP3877116B2 (en) Vehicle display device
JP5042296B2 (en) Gaze determination device
US20200361382A1 (en) Vehicular visual recognition device
JP6989212B2 (en) Vehicle visibility device
JP2019180075A (en) Operation support system, image processing system, and image processing method
KR102321522B1 (en) Around view monitoring system for folding type side view mirror
JP7004410B2 (en) Vehicle visibility device and display control method
KR20150073676A (en) Apparatus and method for correcting distortion of vehicle
JP6970035B2 (en) How to set the angle of view of the shooting unit of the vehicle visual recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211129

R150 Certificate of patent or registration of utility model

Ref document number: 6989212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150