JP7291900B2 - Visibility support image generation device and image conversion program - Google Patents

Visibility support image generation device and image conversion program Download PDF

Info

Publication number
JP7291900B2
JP7291900B2 JP2019069444A JP2019069444A JP7291900B2 JP 7291900 B2 JP7291900 B2 JP 7291900B2 JP 2019069444 A JP2019069444 A JP 2019069444A JP 2019069444 A JP2019069444 A JP 2019069444A JP 7291900 B2 JP7291900 B2 JP 7291900B2
Authority
JP
Japan
Prior art keywords
image
vehicle
support image
camera
visibility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019069444A
Other languages
Japanese (ja)
Other versions
JP2020167649A (en
Inventor
将由 道口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019069444A priority Critical patent/JP7291900B2/en
Priority to DE102020107949.4A priority patent/DE102020107949A1/en
Priority to US16/828,493 priority patent/US10988083B2/en
Publication of JP2020167649A publication Critical patent/JP2020167649A/en
Application granted granted Critical
Publication of JP7291900B2 publication Critical patent/JP7291900B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両の乗員に対して表示する視界支援画像を生成する装置、および画像変換プログラムに関する。 TECHNICAL FIELD The present invention relates to an apparatus for generating a visibility support image to be displayed to an occupant of a vehicle, and an image conversion program.

車両のドアミラーにつき、横方向(車両のドライバーから見た左右方向の、自車両から離れる方向)の死角を減らす為に、光学ミラーであるアスフェリカルミラーを用いるものがある。図1は、既存技術である光学アスフェリカルミラーの模式図であり、ドアミラーMが通常のミラー部M1とアスフェリカル部M2を備える。アスフェリカル部M2は、曲率を変化させ、前記横方向についてより広範囲の像が映るようにしている。 2. Description of the Related Art Some vehicle door mirrors use aspherical mirrors, which are optical mirrors, in order to reduce blind spots in the lateral direction (left and right directions as seen by the driver of the vehicle, away from the own vehicle). FIG. 1 is a schematic diagram of an existing optical aspherical mirror, in which a door mirror M has a normal mirror portion M1 and an aspherical portion M2. The aspherical portion M2 changes its curvature so that a wider range of images can be seen in the lateral direction.

ドアミラーMに撮像用のカメラをさらに備えたCMS(カメラモニタリングシステム)においても、上記の光学ミラーであるアスフェリカルミラーを模した原理により、前記横方向に画角を広げている。すなわち、カメラが撮像した画像における、上記ドアミラーMのアスフェリカル部M2に相当する領域に、前記横方向に圧縮をかけ、当該圧縮後の画像を表示器に表示している。 Also in a CMS (camera monitoring system) in which the door mirror M is further provided with a camera for imaging, the angle of view is widened in the lateral direction by the principle imitating the aspherical mirror, which is the optical mirror. That is, the area corresponding to the aspherical portion M2 of the door mirror M in the image captured by the camera is compressed in the horizontal direction, and the image after the compression is displayed on the display.

特許文献1には、車両の後側方の撮像画像を、横方向に変化する倍率で拡大又は圧縮してなる画像を表示器に表示させる場合に、自車両の前後方向に延在するはずの白線等の走行領域区分線が表示器に表示される画像中で曲がって表示されるのを防止するために、設定された横方向拡縮倍率で撮像画像の各部を横方向にスケール修正する横スケール修正処理と、横スケールが修正された画像中で曲がって表示される走行領域区分線の画像が直線状に延在するように設定された縦方向拡縮倍率でさらに部分的に縦方向にスケール修正する縦スケール修正処理を実行することが開示されている。 In Patent Document 1, when an image obtained by enlarging or compressing a picked-up image of the rear side of a vehicle at a magnification factor that varies in the lateral direction is displayed on a display, an image that should extend in the front-rear direction of the own vehicle is displayed. A horizontal scale that corrects the scale of each part of the captured image in the horizontal direction at a set horizontal scaling factor in order to prevent the running area division lines such as white lines from being displayed crookedly in the image displayed on the display. Correction processing and further partial vertical scale correction with a vertical scaling factor set so that the image of the driving zone division line, which appears curved in the horizontal scale corrected image, extends straight. It is disclosed to perform a vertical scale correction process that

特開2013-85142号公報JP 2013-85142 A

ところで、車両の乗員、特にドライバー(以下、ドライバー等と表記する)の視点で考えると、当該ドライバー等は、車載モニタ等に表示された表示画像を見ることになる。この表示画像の元となる画像は、ドアミラー等に備えられたカメラによって撮像されたものである。この表示画像は違和感の少ない状態で表示されるのが好ましい。 By the way, from the point of view of an occupant of a vehicle, especially a driver (hereinafter referred to as a driver, etc.), the driver, etc., sees a display image displayed on an in-vehicle monitor or the like. The original image of this display image is captured by a camera provided in a door mirror or the like. It is preferable that this display image is displayed in a state in which there is little sense of incongruity.

また、ドアミラーは車両の外(以下、外界と表記する)の状況を把握するためのものであるから、外界の適切な状況把握ができる表示画像であることも望まれる。 In addition, since the door mirror is for grasping the situation outside the vehicle (hereinafter referred to as "outside world"), it is also desired that the display image is capable of appropriately grasping the situation in the outside world.

本開示は上記の観点から、違和感が少なく、また、外界の適切な状況把握ができる表示画像を提供することを目的とする。 From the above viewpoint, an object of the present disclosure is to provide a display image that gives less sense of incongruity and allows an appropriate grasp of the situation in the outside world.

車両の視界支援画像を生成する視界支援画像生成装置が、車両からの画像を撮像するカメラと、処理部を備え、前記カメラが撮像した撮像画像を、前記処理部が画像変換することで、前記視界支援画像を生成し、前記画像変換は、前記撮像画像内に含まれる深消失点を中心として、前記撮像画像の横方向における圧縮率が、前記撮像画像の縦方向における圧縮率よりも高くなるように、前記撮像画像を圧縮するものである。前記構成により、生成した視界支援画像が、違和感が少なく、かつ、外界の適切な状況把握ができるものになる。 A visibility support image generation device for generating a visibility support image of a vehicle includes a camera that captures an image from the vehicle and a processing unit, and the processing unit converts the captured image captured by the camera, so that the A field of vision support image is generated, and the image conversion is such that a compression rate in the horizontal direction of the captured image is higher than a compression rate in the vertical direction of the captured image, centering on a deep vanishing point included in the captured image. As described above, the captured image is compressed. With the above configuration, the generated visual field support image has less sense of incongruity and allows appropriate grasping of the situation of the outside world.

違和感が少なく、外界の適切な状況把握ができる表示画像を提供することができる。 It is possible to provide a display image that gives less sense of incongruity and enables an appropriate grasp of the situation in the outside world.

既存技術である光学アスフェリカルミラーの模式図。Schematic diagram of an existing optical aspherical mirror. 本開示の視界支援画像生成装置1による画像生成の原理を示す模式図であり、(a)レンズモデルの一例を示す図、(b)撮像画像(入力画像)を示す図、(c)表示画像(出力画像)を示す図。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic diagram showing the principle of image generation by the visibility support image generation device 1 of the present disclosure, (a) a diagram showing an example of a lens model, (b) a diagram showing a captured image (input image), and (c) a display image. (output image). 本開示の視界支援画像生成装置1の実施例を示す構成図。1 is a configuration diagram showing an embodiment of a visibility support image generation device 1 of the present disclosure; FIG. 処理部11が行う画像処理の一例を示すフロー図。4 is a flowchart showing an example of image processing performed by a processing unit 11; FIG. 真円レンズモデルの説明図。Explanatory drawing of a perfect circle lens model. 入力画像Iinから出力画像Ioutを生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1による場合との比較図。FIG. 4 is a comparison diagram between the case of generating an output image I out from an input image I in according to the conventional technique and the case of the visibility support image generation device 1 of the present disclosure; 入力画像Iinから出力画像Ioutを生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1による場合との第2の比較図。FIG. 10 is a second comparison diagram between the conventional art and the visibility support image generation device 1 of the present disclosure when an output image I out is generated from an input image I in ; 入力画像Iinから出力画像Ioutを生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1による場合との第3の比較図。FIG. 11 is a third comparison diagram between the case of the prior art and the case of the visibility support image generation device 1 of the present disclosure when the output image I out is generated from the input image I in ; 従来技術である視界支援画像生成装置を用いて生成した視界支援画像(出力画像)Ioutを示す図。FIG. 10 is a view showing a visibility support image (output image) I out generated using a conventional visibility support image generation device; 本開示の視界支援画像生成装置1Bの実施例を示す構成図。1 is a configuration diagram showing an embodiment of a visibility support image generation device 1B of the present disclosure; FIG. 本開示の視界支援画像生成装置1Bが備えるカメラ12によって撮像されるセンサ画像と、表示装置13に表示される視界支援画像MPとを示す図。FIG. 3 is a diagram showing a sensor image captured by a camera 12 included in a visibility assistance image generation device 1B of the present disclosure and a visibility assistance image MP displayed on a display device 13; 検出車両表示部Dの、視界支援画像MP内での追随を示す図であり、(a)初期状態、(b)追随状態、(c)追随終了状態をそれぞれ示す。It is a figure which shows the following in the visibility support image MP of the detected vehicle display part D, (a) initial state, (b) following state, (c) following end state is shown, respectively. 入力画像Iinから視界支援画像を生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1Bによる場合との比較図。FIG. 10 is a comparison diagram between a conventional technique and a visibility support image generating device 1B of the present disclosure when a visibility support image is generated from an input image Iin . 割付の1態様を示す図であり、(a)センサ画像、(b)視界支援画像MPを示す。It is a figure which shows 1 aspect of layout, (a) A sensor image, (b) Visibility support image MP is shown. 極座標に基づいた割り当てを示す図。FIG. 4 illustrates allocation based on polar coordinates; 図10に示したシステム構成に基づく処理フロー図。FIG. 11 is a processing flowchart based on the system configuration shown in FIG. 10; 本開示の視界支援画像生成装置1Cの実施例を示す構成図。The block diagram which shows the Example of 1 C of visibility support image generation apparatuses of this indication. 車載カメラの様々な設置例を示す図。The figure which shows the various installation examples of a vehicle-mounted camera. 図17に示したシステム構成に基づく処理フロー図であり、(a)距離感を仮想的に表現する処理、(b)表示装置13の輝度調光処理を示す。FIG. 18 is a processing flow diagram based on the system configuration shown in FIG. 17 , showing (a) processing for representing a sense of distance virtually, and (b) brightness control processing for the display device 13 ; 表示装置13に表示される視界支援画像の比較図であり、(a)表示装置上の注視ポイントを示す図、(b)本開示の視界支援画像生成装置1Cを用いない場合の視界支援画像、(c)本開示の視界支援画像生成装置1Cを用いた場合の視界支援画像MP。3A and 3B are comparison diagrams of visibility support images displayed on the display device 13, (a) a diagram showing a gaze point on the display device, (b) a visibility support image when the visibility support image generation device 1C of the present disclosure is not used, (c) A view support image MP when the view support image generation device 1C of the present disclosure is used.

以下、車両は右ハンドルの自動車であり、ドライバーの死角になりやすい右側のドアミラーに設けたカメラによって撮像した撮像画像を用いて、車内に設けた表示装置に表示画像を表示する、という前提で、適宜図面を参照しながら詳細に説明する。ただし、特許請求の範囲に記載の主題をこの前提のみに限定することは意図されていない。例えば、車両以外の移動体や、車両が有するハンドルの位置(左ハンドル、右ハンドル、ハンドルがそもそも存在しない自動運転)や、カメラを取り付ける位置(左ドアミラー、右ドアミラー、その他)等の、種々の変形があり得る。 Below, it is assumed that the vehicle is a right-hand drive vehicle, and that a display image is displayed on a display device provided in the vehicle using a captured image captured by a camera provided on the right door mirror, which is likely to be a blind spot for the driver. A detailed description will be given with appropriate reference to the drawings. However, it is not intended to limit the claimed subject matter to only this premise. For example, a moving body other than a vehicle, the position of the steering wheel of the vehicle (left steering wheel, right steering wheel, automatic driving without a steering wheel in the first place), and the camera mounting position (left door mirror, right door mirror, etc.). Deformation is possible.

添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure and are not intended to limit the claimed subject matter thereby.

図2は、本開示の視界支援画像生成装置1(図3に基づき後述)による画像生成の原理を示す模式図であり、(a)レンズモデルの一例を示す図、(b)撮像画像(入力画像)を示す図、(c)表示画像(出力画像)を示す図である。 FIG. 2 is a schematic diagram showing the principle of image generation by the visibility support image generation device 1 (described later based on FIG. 3) of the present disclosure, (a) a diagram showing an example of a lens model, (b) a captured image (input image), and (c) a diagram showing a display image (output image).

本開示の視界支援画像生成装置1においては、撮像画像内に含まれる深消失点を中心として、撮像画像の横方向における圧縮率が、撮像画像の縦方向における圧縮率よりも高くなるように、前記撮像画像を圧縮できるような幾何学形状レンズモデルを用いる。幾何学形状レンズモデルとして、本実施形態においては、図2(a)に示した縦長楕円レンズモデルEを用いる。 In the visibility support image generation device 1 of the present disclosure, the compression rate in the horizontal direction of the captured image is higher than the compression rate in the vertical direction of the captured image, centering on the deep vanishing point included in the captured image. A geometric lens model is used that can compress the captured image. As the geometric lens model, in this embodiment, the oblong elliptical lens model E shown in FIG. 2(a) is used.

この縦長楕円レンズモデルEにおける長軸(縦軸)の長さをb、短軸(横軸)の長さをcとすると、b>cである。そして、後述するが、この縦長楕円レンズモデルEを用いると、画像の圧縮率は横方向から縦方向に線形に変化することになる。これを言い換えると、横方向を偏角0度、縦方向を偏角90度とした場合、偏角が0度から90度へと増加するにつれて、圧縮率は線形に減少する。また、これも後述するが、楕円の中心からの距離が遠いほどに、圧縮率が増加するものとなる。 Let b be the length of the major axis (vertical axis) and c be the length of the minor axis (horizontal axis) of the oblong elliptical lens model E, then b>c. As will be described later, if this vertically elongated elliptical lens model E is used, the compression rate of the image will linearly change from the horizontal direction to the vertical direction. In other words, assuming that the angle of deflection is 0 degrees in the horizontal direction and the angle of deflection is 90 degrees in the vertical direction, the compression rate decreases linearly as the angle of deflection increases from 0 degrees to 90 degrees. Also, as will be described later, the greater the distance from the center of the ellipse, the greater the compression rate.

図2(b)は、入力画像Iinを示す図であり、本実施形態においては、自車両100の右ドアミラーに取り付けられたカメラが撮像した撮像画像に相当する。 FIG. 2(b) is a diagram showing the input image Iin , which corresponds to a captured image captured by a camera attached to the right door mirror of the vehicle 100 in this embodiment.

入力画像Iinの中には、その左側に、自車両100の車体が映り込んでいる。また、説明の為の一例にすぎないが、入力画像Iinの中には、物体OBJ1~OBJ4が映りこんでいる。この例においては、物体OBJ1~OBJ4はそれぞれ、自車両100の隣のレーンを走行中の、自車両100とは異なる車両である。 The body of the own vehicle 100 is reflected on the left side of the input image Iin . Further, although this is merely an example for explanation, objects OBJ1 to OBJ4 are reflected in the input image Iin . In this example, each of the objects OBJ1-OBJ4 is a vehicle different from the own vehicle 100, which is traveling in a lane adjacent to the own vehicle 100. FIG.

図2(c)は、出力画像Ioutを示す図であり、本実施形態においては、自車両100の内部に取り付けられたモニタによって、右ハンドルを握るドライバーへ向けて表示される表示画像に相当する。 FIG. 2(c) is a diagram showing the output image Iout , which in this embodiment corresponds to a display image displayed toward the driver holding the right steering wheel by a monitor mounted inside the own vehicle 100. do.

図2(c)から分かるように、出力画像Ioutにも、自車両100の車体と、物体OBJ1~OBJ4とが映り込んでいる。ここで、入力画像Iin(図2(b))と出力画像Iout(図2(c))とを比較すると、出力画像Ioutに映りこんでいる物体OBJ1~OBJ4は、横方向の圧縮率の方が、縦方向の圧縮率よりも高くなっている。すなわち、横方向に画角が広がる。なお、このような出力画像Ioutが、違和感が少なく、また、外界の適切な状況把握ができる表示画像である事については、後述する。 As can be seen from FIG. 2(c), the output image I out also includes the body of the own vehicle 100 and the objects OBJ1 to OBJ4. Comparing the input image I in (FIG. 2(b)) and the output image I out (FIG. 2(c)), the objects OBJ1 to OBJ4 appearing in the output image I out are horizontally compressed. compression rate is higher than the compression rate in the longitudinal direction. That is, the angle of view widens in the horizontal direction. It should be noted that such an output image I out is a display image that gives less sense of incongruity and allows an appropriate grasp of the situation of the external world, which will be described later.

図3は、本開示の視界支援画像生成装置1の実施例を示す構成図である。本開示の視界支援画像生成装置1は、処理部11とカメラ12とを備える。なお、これら以外の構成要素を備えていてもよい。図示しているように、視界支援画像生成装置1が不揮発性メモリ14等を更に備えるようにすることもできる。 FIG. 3 is a configuration diagram showing an embodiment of the visibility support image generation device 1 of the present disclosure. A visibility support image generation device 1 of the present disclosure includes a processing unit 11 and a camera 12 . In addition, you may provide the component other than these. As illustrated, the visibility support image generation device 1 may further include a non-volatile memory 14 and the like.

処理部11は、視界支援画像生成装置1における情報処理を行う構成要素である。処理部11は画像処理を行い、装置内の他の構成要素や装置外部から入力された指令や信号の処理を行い、逆に、装置内の他の構成要素や装置外部へと指令や信号を送信してよい。 The processing unit 11 is a component that performs information processing in the visibility support image generation device 1 . The processing unit 11 performs image processing, processes commands and signals input from other components within the device and the outside of the device, and conversely, processes commands and signals to other components within the device and the outside of the device. may be sent.

カメラ12は、車両からの画像を撮像して上述の入力画像Iinを取得するための手段である。本実施形態においては、カメラ12は車両の後側方を撮像するための、ドアミラーに取り付けられたカメラであるが、これには限定されない。例えば、車両の前方や後方を撮像するカメラ等であってもよい。 The camera 12 is means for capturing an image from the vehicle to obtain the above-mentioned input image Iin . In this embodiment, the camera 12 is a camera attached to a door mirror for imaging the rear side of the vehicle, but is not limited to this. For example, it may be a camera or the like that images the front or rear of the vehicle.

表示装置13は、視界支援画像生成装置1によって生成された表示画像を表示することができる装置である。典型的には、表示装置13は自車両100内に設けられたモニタ等であるが、これには限定されない。ドライバー等は、この表示装置13に表示された表示画像を見ることとなる。図3においては、表示装置13は視界支援画像生成装置1とは別体となっている。しかし、表示装置13を視界支援画像生成装置1の中に含めてもよい。 The display device 13 is a device that can display the display image generated by the visibility support image generation device 1 . Typically, the display device 13 is a monitor or the like provided inside the vehicle 100, but is not limited to this. A driver or the like sees the display image displayed on the display device 13 . In FIG. 3 , the display device 13 is separate from the visibility support image generation device 1 . However, the display device 13 may be included in the visibility support image generation device 1 .

不揮発性メモリ14は、処理部11が行う画像処理に用いるプログラムや、各種パラメータ情報、真円レンズモデル(後述)に基づく変換テーブル等を記憶していてよい。 The nonvolatile memory 14 may store a program used for image processing performed by the processing unit 11, various parameter information, a conversion table based on a perfect circle lens model (described later), and the like.

なお、視界支援画像生成装置1に含まれる構成要素は、さらに一体化されていてもよく、逆に複数のサブコンポーネントへとさらに分割されていてもよい。 Note that the components included in the visibility support image generation device 1 may be further integrated, or conversely may be further divided into a plurality of subcomponents.

図4は、処理部11が行う画像処理の一例を示すフロー図である。 FIG. 4 is a flowchart showing an example of image processing performed by the processing unit 11. As shown in FIG.

図4は、入力画像Iinに基づいて出力画像Iout生成する画像変換処理に用いられる、変換テーブルを作成する為の処理の一例を示している。前提条件として、本例においては、図2(a)に示した縦長楕円レンズモデルEを用いる。また、図5に基づき後述するように、本例においては、レンズ歪みの除去も併せて行うこととする。 FIG. 4 shows an example of processing for creating a conversion table used in image conversion processing for generating an output image Iout based on an input image Iin . As a prerequisite, in this example, the oblong elliptical lens model E shown in FIG. 2(a) is used. Moreover, as will be described later with reference to FIG. 5, in this example, lens distortion is also removed.

ステップS01において、処理部11が、入力画像Iinを取り込む。取り込まれた画像は、図示を省略するメモリ等に保持されてよい。 In step S01, the processing unit 11 takes in the input image Iin . The captured image may be held in a memory or the like (not shown).

ステップS02では、処理部11が、処理すべき次の画素が残っているか否かを判断している。次の画素がある場合(図中のyes)は、ステップS03へと進む。次の画素が残っていない場合(図中のno)は、入力画像Iinの全てについて処理が終了した状況を示しており、変換テーブル作成処理は終了となる。 In step S02, the processing unit 11 determines whether or not the next pixel to be processed remains. If there is a next pixel (yes in the drawing), the process proceeds to step S03. If the next pixel does not remain (no in the drawing), it indicates that the process has been completed for all of the input image Iin , and the conversion table creation process ends.

ステップS03において、処理部11が、処理対象となる次の画素を選択する。選択された画素の座標を、便宜的に座標Pとする。 In step S03, the processing unit 11 selects the next pixel to be processed. Let the coordinates of the selected pixel be coordinates P for convenience.

ステップS04において、処理部11が、中央座標Oと座標Pとの間の距離Doを算出する。ここで、中央座標Oは、入力画像Iin内に含まれる深消失点を意味している。例えば図2(b)を用いて例示すると、自動車が走行している路面には白線Wが複数引かれている。これら複数の白線Wの延長線上に、それらの延長線が1点に交わる点がある。この交点が、深消失点である。図2(b)においては、画像内部、左上側に深消失点(中央座標О)がある。 In step S04, the processing unit 11 calculates the distance Do between the central coordinate O and the coordinate P. FIG. Here, the central coordinate O means the deep vanishing point contained within the input image Iin . For example, using FIG. 2B, a plurality of white lines W are drawn on the road surface on which the automobile is running. On the extension lines of these white lines W, there is a point where the extension lines intersect with one point. This intersection point is the deep vanishing point. In FIG. 2(b), there is a deep vanishing point (central coordinate O) inside the image on the upper left side.

ステップS05において、処理部11が、距離Doを真円レンズモデルの変換テーブルで変換し、変換後の距離Do’を決定する。このステップS05については、図5も併せて参照しつつ、下記でさらに詳述する。 In step S05, the processing unit 11 converts the distance Do using the conversion table of the perfect circle lens model, and determines the converted distance Do'. This step S05 will be described in further detail below with reference to FIG. 5 as well.

図5に、真円レンズモデルの説明図を示している。図5に示されるレンズ50は、ピンホールカメラ等で用いられる一般的な真円状のレンズである。なお、図5は、真円レンズを正面ではなく横から見た状態を示している。 FIG. 5 shows an explanatory diagram of the perfect circle lens model. A lens 50 shown in FIG. 5 is a general circular lens used in a pinhole camera or the like. It should be noted that FIG. 5 shows a state in which the perfect circular lens is viewed not from the front but from the side.

光学系の評価面51上での像位置を、光軸からの距離で表した値を像高と呼ぶが、像高には理想像高53と実像高52の2種類がある。理想像高53は理想的な像高である。しかし、通常の光学系の像高は、レンズ歪み等の影響を受けるため、理想像高53とはならない。一方、実像高52は、評価面で実際に結像している位置を指す像高である。なお、前記ステップS04で算出した中央座標Oと座標Pとの間の距離Doは、実像高52に相当する。 The image position on the evaluation surface 51 of the optical system is represented by the distance from the optical axis and is called the image height. An ideal image height 53 is an ideal image height. However, the image height of a normal optical system is not the ideal image height 53 because it is affected by lens distortion and the like. On the other hand, the real image height 52 is the image height indicating the position where the image is actually formed on the evaluation plane. Note that the distance Do between the central coordinate O and the coordinate P calculated in step S04 corresponds to the actual image height 52. As shown in FIG.

そして、各座標における実像高52と、各座標における理想像高53とを組み合わせて、1つの変換テーブルとする。図5に示した例において、レンズ50は真円レンズである。したがって、図5に示してある実像高52と、真円レンズの理想像高53とを組み合わせた変換テーブルは、真円レンズモデルの変換テーブルとなる。真円レンズモデルの変換テーブルを用いれば、レンズ歪みの影響を受けた実像高52を、レンズ歪みの除去された(真円レンズモデルの)理想像高53へと変換することができる。 Then, the real image height 52 at each coordinate and the ideal image height 53 at each coordinate are combined to form one conversion table. In the example shown in FIG. 5, lens 50 is a perfect round lens. Therefore, the conversion table obtained by combining the real image height 52 shown in FIG. 5 and the ideal image height 53 of the perfect circular lens is the conversion table of the perfect circular lens model. Using the conversion table of the perfect circular lens model, the real image height 52 affected by the lens distortion can be converted into the ideal image height 53 (of the perfect circular lens model) from which the lens distortion is removed.

上述のような真円レンズモデルの変換テーブルは、例えば不揮発性メモリ14等に保存されていてよい。そして処理部11が、上記ステップS05において、この真円レンズモデルの変換テーブルを用いて、実像高52である距離Doから、真円レンズモデルの理想像高53に相当する変換後の距離Do’を決定する。 The conversion table for the perfect circle lens model as described above may be stored in, for example, the nonvolatile memory 14 or the like. Then, in step S05, the processing unit 11 converts the distance Do, which is the actual image height 52, into the converted distance Do', which corresponds to the ideal image height 53 of the perfect circular lens model, using the conversion table of the perfect circular lens model. to decide.

ステップS06において、処理部11が、真円レンズモデルによる、像高変化割合aを算出する。なお、a=(Do’/Do)-1である。 In step S06, the processing unit 11 calculates the image height change rate a by the perfect circle lens model. Note that a=(Do'/Do)-1.

像高変化割合aは、真円レンズモデルの理想像高53である距離Do’を、実像高52である距離Doで除算し、そこから1を引いた値である。例えば、理想像高53である距離Do’=120、実像高52である距離Do=100である場合、像高変化割合a=(120/100)-1=0.2となる。これは、実像高52に対して(真円レンズモデルの)理想像高53が20%変化(この場合は増加)していることを意味する。 The image height change rate a is a value obtained by dividing the distance Do', which is the ideal image height 53 of the perfect circle lens model, by the distance Do, which is the actual image height 52, and subtracting 1 from the result. For example, when the distance Do'=120, which is the ideal image height 53, and the distance Do=100, which is the real image height 52, the image height change rate a=(120/100)-1=0.2. This means that the ideal image height 53 (of the perfect circular lens model) changes (increases in this case) by 20% with respect to the real image height 52 .

ここで、本開示における視界支援画像生成装置1は、既に述べたように、縦長楕円レンズモデルE(図2(a))を用いる。そのため、ステップS06で計算した像高変化割合aに、縦長楕円の要素を混入させる必要がある。そこで、後続のステップS07以降において、以下のような処理を行う。 Here, the visibility support image generation device 1 in the present disclosure uses the vertically elongated elliptical lens model E (FIG. 2(a)), as already described. Therefore, it is necessary to mix the elements of the vertically oblong ellipse into the image height change rate a calculated in step S06. Therefore, the following processing is performed in subsequent steps S07 and subsequent steps.

ステップS07において、処理部11が、座標Oから座標Pへと延びる直線と、長軸bおよび短軸cで定義される縦長楕円関数Eとの交点P1の座標を計算する。次のステップS08において、処理部11が、座標Oと座標P1との間の距離D1を算出する。 In step S07, the processing unit 11 calculates the coordinates of the intersection point P1 between the straight line extending from the coordinate O to the coordinate P and the longitudinal elliptic function E defined by the major axis b and the minor axis c. In the next step S08, the processing section 11 calculates the distance D1 between the coordinate O and the coordinate P1.

なお、長軸bおよび短軸cの長さは、適宜決定することができる。本例においては縦長楕円レンズモデルEを用いているので、長軸bが縦方向(Y軸方向)に延び、短軸cが横方向(X軸方向)に延びる。c<bである。 The lengths of the long axis b and the short axis c can be determined as appropriate. In this example, the vertically long elliptical lens model E is used, so the long axis b extends in the vertical direction (Y-axis direction) and the short axis c extends in the horizontal direction (X-axis direction). c<b.

ここで、理解をより容易とするために、具体例を2つ示す。 Here, two specific examples are shown for easier understanding.

まず、第1の具体例を示す。座標Pが、座標Оを原点とした場合のX軸上に存在していたとする。つまり、座標P=(m,0)であったとする。mは任意の正の実数である。この時、座標Oから座標Pへと延びる直線と、上記縦長楕円関数Eとの交点P1の座標は(c/2,0)であるので、D1=c/2である。 First, a first specific example will be shown. Assume that the coordinate P exists on the X-axis with the coordinate O as the origin. That is, assume that the coordinates P=(m, 0). m is any positive real number. At this time, the coordinates of the intersection point P1 between the straight line extending from the coordinate O to the coordinate P and the vertical elliptic function E are (c/2, 0), so D1=c/2.

第2の具体例を示す。座標Pが、座標Оを原点とした場合のY軸上に存在していたとする。つまり、座標P=(0,n)であったとする。nは任意の正の実数である。この時、座標Oから座標Pへと延びる直線と、上記縦長楕円関数Eとの交点P1の座標は(0,b/2)であるので、D1=b/2である。 A second specific example is shown. Assume that the coordinate P exists on the Y-axis with the coordinate O as the origin. That is, assume that the coordinates P=(0, n). n is any positive real number. At this time, the coordinates of the intersection point P1 between the straight line extending from the coordinate O to the coordinate P and the vertical elliptic function E are (0, b/2), so D1=b/2.

ここで、上述の2つの具体例同士を比較すると、c<bであるから、c/2<b/2となる。すなわち、第1の具体例よりも、第2の具体例の方が、距離D1の値が大きい。 Here, when the above two specific examples are compared, since c<b, c/2<b/2. That is, the value of the distance D1 is larger in the second specific example than in the first specific example.

続くステップS09において、処理部11が、座標Pについての圧縮係数A=(a/D1)+1を算出する。上述のように、aは像高変化割合、D1は座標Oから座標P1までの距離である。ここでD1が逆数として用いられているので、上記2つの具体例の間で、値の大小関係は逆転する。すなわち、第2の具体例におけるA=(2a/b)+1よりも、第1の具体例におけるA=(2a/c)+1の方が、圧縮係数Aの値が大きい。この圧縮係数Aは、圧縮率に相当する。 In subsequent step S09, the processing unit 11 calculates the compression coefficient A p =(a/D1)+1 for the coordinate P. As described above, a is the image height change rate, and D1 is the distance from the coordinate O to the coordinate P1. Since D1 is used here as the reciprocal number, the magnitude relationship of the values is reversed between the above two specific examples. That is, A p =(2a/c)+1 in the first specific example has a larger compression coefficient A p than A p =(2a/b)+1 in the second specific example. This compression factor A p corresponds to the compression ratio.

つまり、横方向にある座標P=(m,0)である第1の具体例の方が、縦方向にある座標P=(0,n)である第2の具体例よりも、圧縮係数Aの値が大きい。これは、座標O(深消失点)を中心として、横方向の圧縮率が、縦方向の圧縮率よりも高いことを示している。 That is, the first specific example with coordinates P=(m, 0) in the horizontal direction has a higher compression factor A than the second example with coordinates P=(0, n) in the vertical direction. The value of p is large. This indicates that the compression rate in the horizontal direction is higher than the compression rate in the vertical direction centering on the coordinate O (deep vanishing point).

続くステップS10において、処理部11は、座標Pについての圧縮係数Aを、縦長楕円レンズモデルの理想像高53として、縦長楕円レンズモデルEの変換テーブルに書き入れる。つまり、実像高52と、縦長楕円レンズモデルEの理想像高53とを組み合わせて記録する。ここまでの説明から分かるように、縦長楕円レンズモデルEの変換テーブルは、上述の真円レンズモデルの変換テーブルを変形したものとなる。 In subsequent step S10, the processing unit 11 writes the compression coefficient Ap for the coordinate P into the conversion table of the vertically elongated elliptical lens model E as the ideal image height 53 of the vertically elongated elliptical lens model. That is, the real image height 52 and the ideal image height 53 of the oblong elliptical lens model E are combined and recorded. As can be seen from the description so far, the conversion table for the oblong elliptical lens model E is a modification of the above-described conversion table for the perfectly circular lens model.

そして、処理はステップS02へと戻る。つまり、上述のステップS01で処理部11が取り込んだ入力画像Iinに含まれる、すべての画素(座標P)に対して、実像高52と、縦長楕円レンズモデルEの理想像高53との組み合わせを記録して、これを縦長楕円レンズモデルEの変換テーブルとする。 Then, the process returns to step S02. That is, the combination of the real image height 52 and the ideal image height 53 of the oblong elliptical lens model E is is recorded, and this is used as a conversion table for the oblong elliptical lens model E.

以上のようにして、真円レンズモデルの変換テーブルを変形して、縦長楕円レンズモデルEの変換テーブルを作成することができる。 As described above, the conversion table for the elongated elliptical lens model E can be created by transforming the conversion table for the perfect circular lens model.

そして、入力画像Iinに対して、縦長楕円レンズモデルEの変換テーブルを適用することにより、出力画像Ioutを生成することができる。より詳しくは、入力画像Iinにおける座標Oから座標Pまでの線分を、A倍圧縮する(距離Doを、距離Do/Aへと変える)。この圧縮は、座標O(深消失点)を中心とした横方向の圧縮率が、縦方向の圧縮率よりも高いものである。 By applying the conversion table of the oblong elliptical lens model E to the input image Iin , the output image Iout can be generated. More specifically, the line segment from the coordinate O to the coordinate P in the input image I in is compressed by A p times (the distance Do is changed to the distance Do/A p ). In this compression, the compression rate in the horizontal direction around the coordinate O (deep vanishing point) is higher than the compression rate in the vertical direction.

なお、縦長楕円レンズモデルEの長軸bおよび短軸cの長さは、適宜変更が可能である。つまり、本開示の視界支援画像生成装置1は、座標O(深消失点)を中心とした横方向の圧縮率と、縦方向の圧縮率とを、別個独立に調整することができる。 The lengths of the major axis b and the minor axis c of the oblong elliptical lens model E can be changed as appropriate. In other words, the visibility support image generation device 1 of the present disclosure can independently adjust the horizontal compression rate centered on the coordinate O (deep vanishing point) and the vertical compression rate.

図6は、入力画像Iinから出力画像Ioutを生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1による場合との比較図である。図6(a)は入力画像Iinである。この入力画像Iinに対し従来技術を用いて生成した出力画像Ioutが図6(b)である。同じ入力画像Iinに対し、本開示の視界支援画像生成装置1を用いて生成した出力画像Ioutが図6(c)である。 FIG. 6 is a comparison diagram between the case of generating the output image Iout from the input image Iin according to the prior art and the case of the visibility support image generation device 1 of the present disclosure. FIG. 6(a) is the input image Iin . FIG. 6B shows an output image I out generated from the input image I in using the conventional technique. FIG. 6C shows an output image I out generated using the visibility support image generation device 1 of the present disclosure for the same input image I in .

図6(a)に示す入力画像Iinの中には、その左側に、自車両100の車体が映り込んでいる。また、説明の為の一例ではあるが、入力画像Iinの中には、物体OBJ1~OBJ4が映り込んでいる。この例においては、物体OBJ1~OBJ4は、自車両の隣のレーンを走行中の、自車両100とは異なる車両である。 In the input image Iin shown in FIG. 6(a), the vehicle body of the own vehicle 100 is reflected on the left side thereof. Although it is an example for explanation, objects OBJ1 to OBJ4 are reflected in the input image Iin . In this example, the objects OBJ1 to OBJ4 are vehicles different from the own vehicle 100, which are traveling in lanes adjacent to the own vehicle.

図6(b)に示す、従来技術により生成された出力画像Ioutは、入力画像Iinに映り込んだレーン上の白線Wを直線化するために、横方向の拡縮を行った後に、縦方向の拡縮をさらに行って生成されている。つまり、横方向と縦方向の、2段階の拡縮を行っている。これは、後述の図7(b)および図8(b)についても同様である。 The output image Iout generated by the conventional technique shown in FIG. It is generated with further directional scaling. In other words, two steps of enlargement/reduction are performed in the horizontal direction and the vertical direction. This also applies to FIGS. 7(b) and 8(b), which will be described later.

図6(b)に示した出力画像Ioutをみると、車両であるOBJ1、OBJ2の形状が、入力画像Iinとは大きく異なっている。これらは横方向に大きく潰れ、原形を認識し難いものとなっている。また、横方向の距離感も大きく変動しており、OBJ1からOBJ2までの車間距離が、極端に短縮化している。これをドライバー等の視点で見た場合、そこに何かしらの物体が存在していること自体は知覚できるものの、その物体がはたして何であるかが判別困難になることがある。また、OBJ1とOBJ2との間の車間距離は、本来は充分にあけられている(図6(a))。しかし、図6(b)では互いに衝突しそうであるように見える。 Looking at the output image Iout shown in FIG. 6B, the shapes of the vehicles OBJ1 and OBJ2 are significantly different from the input image Iin . These are greatly crushed in the lateral direction, making it difficult to recognize the original shape. In addition, the sense of distance in the lateral direction also fluctuates greatly, and the inter-vehicle distance from OBJ1 to OBJ2 is extremely shortened. When viewed from the viewpoint of a driver or the like, although the presence of an object itself can be perceived, it may be difficult to determine what the object really is. Also, the inter-vehicle distance between OBJ1 and OBJ2 is originally sufficiently large (FIG. 6(a)). However, in FIG. 6(b) it appears that they are likely to collide with each other.

一方、図6(c)に示す、本開示の視界支援画像生成装置1によって生成された出力画像Ioutの場合は、立体の形状変化が緩和される。また、横方向の距離感の変化も緩やかである。よって、ドライバー等の視点では、隣のレーンを移動する物体OBJ1~OBJ4の形を認識しやすい。また、距離感の急激な変動によって混乱することもない。 On the other hand, in the case of the output image I out generated by the visibility support image generation device 1 of the present disclosure, shown in FIG. Also, the change in the sense of distance in the lateral direction is moderate. Therefore, from the viewpoint of the driver or the like, it is easy to recognize the shapes of the objects OBJ1 to OBJ4 moving in the next lane. In addition, there is no confusion due to sudden changes in the sense of distance.

図7は、入力画像Iinから出力画像Ioutを生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1による場合との第2の比較図である。図7(a)は入力画像Iinである。この入力画像Iinに対し従来技術を用いて生成した出力画像Ioutが図7(b)である。同じ入力画像Iinに対し、本開示の視界支援画像生成装置1を用いて生成した出力画像Ioutが図7(c)である。 FIG. 7 is a second comparison diagram between the prior art and the visibility support image generation device 1 of the present disclosure when the output image Iout is generated from the input image Iin . FIG. 7(a) is the input image Iin . FIG. 7B shows an output image I out generated from the input image I in using the conventional technique. FIG. 7C shows an output image I out generated using the visibility support image generation device 1 of the present disclosure for the same input image I in .

図7においては、自車両100の進行方向に対して直交する直線L1、L2を、補助線として付加した。直線L1が、自車両100の近傍における線、直線L2が、自車両100の遠方における線である。 In FIG. 7, straight lines L1 and L2 orthogonal to the traveling direction of the vehicle 100 are added as auxiliary lines. A straight line L1 is a line near the host vehicle 100, and a straight line L2 is a line far from the host vehicle 100. FIG.

図7(a)に示す入力画像Iinにおいては、2つの直線L1とL2は平行になっている。 In the input image Iin shown in FIG. 7A, the two straight lines L1 and L2 are parallel.

図7(b)に示す、従来技術により生成された出力画像Ioutを見ると、2つの直線L1とL2は、その傾きが大きく異なっている。この傾きの相違は、ドライバー等の視点では、画像の歪みや違和感として認識される。また、画像内に映り込んだ複数台の車両は、2つの直線L1、L2と直交する方向に進行している。つまり、出力画像Ioutが動画であった場合、この動画内に映り込んだ車両は、実際には直進しているはずであるが、画像の右側へと進むにつれ、カーブしながら進行しているように映る。これもまた、ドライバー等に違和感を覚えさせる。 Looking at the output image Iout generated by the conventional technique shown in FIG. 7B, the two straight lines L1 and L2 have greatly different slopes. This difference in inclination is recognized as image distortion or discomfort from the viewpoint of the driver or the like. In addition, the multiple vehicles reflected in the image are traveling in a direction orthogonal to the two straight lines L1 and L2. In other words, when the output image I out is a moving image, the vehicle reflected in this moving image should actually be traveling straight, but as it moves to the right side of the image, it is traveling while curving. It looks like This also makes the driver or the like feel uncomfortable.

一方、図7(c)に示す、本開示の視界支援画像生成装置1によって生成された出力画像Ioutであれば、2つの直線L1とL2との間の傾きの違いが、従来よりも緩やかになる。よって、ドライバー等にとっての違和感が少ない。また、出力画像Ioutが動画であった場合、当該動画に映り込んでいる車両の進行がより自然に見えるので、やはり違和感が少ない。 On the other hand, in the case of the output image I out generated by the visibility support image generation device 1 of the present disclosure, shown in FIG. become. Therefore, the sense of incongruity for the driver or the like is small. In addition, when the output image I out is a moving image, the movement of the vehicle reflected in the moving image looks more natural, so there is less sense of incongruity.

図8は、入力画像Iinから出力画像Ioutを生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1による場合との第3の比較図である。図8(a)は入力画像Iinである。この入力画像Iinに対し従来技術を用いて生成した出力画像Ioutが図8(b)である。同じ入力画像Iinに対し、本開示の視界支援画像生成装置1を用いて生成した出力画像Ioutが図8(c)である。 FIG. 8 is a third comparison diagram between the prior art and the visibility support image generation device 1 of the present disclosure when the output image Iout is generated from the input image Iin . FIG. 8(a) is the input image Iin . FIG. 8B shows an output image I out generated from the input image I in using the conventional technique. FIG. 8C shows an output image I out generated using the visibility support image generation device 1 of the present disclosure for the same input image I in .

図8においては、車両であるOBJ2のフロントバンパー付近に説明用の矢印L3を入れている。この矢印L3は、画像に映り込む物体が備えている、自車両100の進行方向に直交する直線を示している。 In FIG. 8, an arrow L3 for explanation is put in the vicinity of the front bumper of OBJ2 which is a vehicle. This arrow L3 indicates a straight line perpendicular to the traveling direction of the own vehicle 100, which is provided by the object reflected in the image.

図8(b)に示す、従来技術により生成された出力画像Ioutを見ると、矢印L3が湾曲していることが見て取れる。つまりドライバー等の視点では、物体OBJ2を構成する、直線状に形成されている部材(フロントバンパー等)が、湾曲して見えることになる。これもまた、ドライバー等に違和感を覚えさせる。 Looking at the output image I out generated by the conventional technique shown in FIG. 8(b), it can be seen that the arrow L3 is curved. In other words, from the viewpoint of the driver or the like, the linearly formed member (the front bumper or the like) that constitutes the object OBJ2 appears curved. This also makes the driver or the like feel uncomfortable.

一方、図8(c)に示す、本開示の視界支援画像生成装置1によって生成された出力画像Ioutであれば、上述の湾曲も緩和され、直線状に形成されている部材(フロントバンパー等)が、直線に近い形状としてドライバー等の目に映る。すなわち、ドライバー等にとって違和感が少ない。 On the other hand, in the case of the output image I out generated by the visibility support image generation device 1 of the present disclosure, shown in FIG. However, it is reflected in the eyes of drivers etc. as a shape close to a straight line. That is, there is little sense of incongruity for the driver or the like.

以上、例示したように、本開示の視界支援画像生成装置1によって生成された出力画像Ioutは、違和感の少ない画像となる。 As described above, the output image I out generated by the visibility support image generation device 1 of the present disclosure is an image with little discomfort.

これに加えて、本開示の視界支援画像生成装置1によって生成される出力画像Ioutは、撮像画像内に含まれる深消失点を中心として、撮像画像の横方向における圧縮率が、撮像画像の縦方向における圧縮率よりも高くなるように、前記撮像画像を圧縮するものである(図1~図5参照)。よって、画角を横方向に拡大するという、光学アスフェリカルミラーが有する利点も、依然として享受することができる。 In addition to this, the output image I out generated by the visibility support image generation device 1 of the present disclosure has a compression rate in the horizontal direction of the captured image centered on the deep vanishing point included in the captured image. The captured image is compressed so that the compression rate in the vertical direction is higher than that in the vertical direction (see FIGS. 1 to 5). Therefore, it is still possible to enjoy the advantage of the optical aspherical mirror that the angle of view is enlarged in the horizontal direction.

すなわち、本開示の視界支援画像生成装置1は、違和感が少なく、また、外界の適切な状況把握ができる出力画像Ioutを生成することができる。 That is, the visibility support image generation device 1 of the present disclosure can generate an output image I out that gives less sense of discomfort and enables an appropriate grasp of the situation of the external world.

なお、下記にて、補足事項をいくつか説明する。 In addition, some supplementary items will be explained below.

図4に基づき説明したフロー図は、真円レンズモデルの変換テーブルに基づいて縦長楕円レンズモデルEの変換テーブルを作成し、縦長楕円レンズモデルEの変換テーブルを用いて出力画像Ioutを生成する例であった。この縦長楕円レンズモデルEの変換テーブルを不揮発性メモリ14等に保存しておけば、入力画像Iinが入力される都度、新たに変換テーブルを生成する必要が無くなる。つまり、入力画像Iinに対して、既に保存されている縦長楕円レンズモデルEの変換テーブルを参照して、出力画像Ioutを生成することができるようになる。逆に、入力画像Iinが入力される都度、上記のように圧縮係数Aを動的に計算した上で、出力画像Ioutを生成してもよい。 In the flow chart described with reference to FIG. 4, a conversion table for the oblong elliptical lens model E is created based on the conversion table for the perfect circle lens model, and the conversion table for the oblong elliptical lens model E is used to generate the output image Iout . It was an example. By storing the conversion table of the longitudinal elliptical lens model E in the non-volatile memory 14 or the like, it becomes unnecessary to generate a new conversion table each time the input image Iin is input. In other words, the output image Iout can be generated by referring to the previously stored conversion table of the longitudinally elongated elliptical lens model E for the input image Iin . Conversely, the compression coefficient A p may be dynamically calculated as described above each time the input image I in is input, and then the output image I out may be generated.

また、上記の実施形態においては、ステップS01~S10に係る処理を、処理部11が行っている。この処理に係るプログラムが不揮発性メモリ14等に保存され、処理部11がこのプログラムを読み出して画像処理を行ってよい。一方、上述の処理を、ソフトウェア処理ではなく、ハードウェア処理によって行ってもよい。例えば、専用の回路等によって当該処理を行ってよい。 Further, in the above embodiment, the processing section 11 performs the processing related to steps S01 to S10. A program related to this processing may be stored in the non-volatile memory 14 or the like, and the processing unit 11 may read out this program and perform image processing. On the other hand, the above processing may be performed by hardware processing instead of software processing. For example, the processing may be performed by a dedicated circuit or the like.

次に、圧縮率についての補足説明を行う。図4のステップS09につき、具体例を2つ示した。すなわち、圧縮率(圧縮係数A)について、横方向(第1の具体例)と縦方向(第2の具体例)との2方向を比較した。しかし、その中間である斜め方向の圧縮率もある。上述のように、縦長楕円レンズモデルEの変換テーブルは、上述の真円レンズモデルの変換テーブルを変形したものある。真円を縦長楕円に変換しているので、圧縮率(圧縮係数A)は横方向から縦方向に、線形に変化することになる(図2(a)参照)。これを言い換えると、横方向を偏角0度、縦方向を偏角90度とした場合、偏角が増加するにつれて、圧縮率(圧縮係数A)は線形に減少する。 Next, a supplementary explanation of the compression rate will be given. Two specific examples are shown for step S09 in FIG. That is, the compression rate (compression coefficient A p ) was compared in two directions, the horizontal direction (first specific example) and the vertical direction (second specific example). However, there is also a diagonal compression ratio in between. As described above, the conversion table for the oblong elliptical lens model E is a modified version of the conversion table for the perfectly circular lens model. Since the perfect circle is converted into a vertically oblong ellipse, the compression ratio (compression coefficient A p ) linearly changes from the horizontal direction to the vertical direction (see FIG. 2(a)). In other words, when the deflection angle is 0 degrees in the horizontal direction and the deflection angle is 90 degrees in the vertical direction, the compression rate (compression coefficient A p ) decreases linearly as the deflection angle increases.

また、真円レンズモデルとして、中心からの距離が遠いほどに圧縮率が増加するレンズモデルを用いることができる。そのような真円レンズモデルに基づいて作成した縦長楕円レンズモデルEもまた、中心(深消失点)からの距離が遠いほどに圧縮率が増加するものとなる。 Also, as the perfect circle lens model, a lens model in which the compression ratio increases as the distance from the center increases can be used. The longitudinally elongated elliptical lens model E created based on such a perfect circle lens model also increases in compression ratio as the distance from the center (deep vanishing point) increases.

次に、違和感が少なく、また、外界の適切な状況把握ができる表示画像を提供するという本開示の目的から、アスフェリカル部分を可動にする工夫である、視界支援画像生成装置1Bについて説明する。 Next, for the purpose of the present disclosure, which is to provide a display image that gives less sense of incongruity and allows an appropriate grasp of the situation in the outside world, the visibility support image generation device 1B, which is a contrivance to make the aspherical portion movable, will be described.

CMS(カメラモニタリングシステム)が搭載された車両に搭乗するドライバー等は、車両に設けられた表示装置によって、視界支援画像を見ることになる。しかし、従来技術である視界支援画像生成装置を用いて生成した視界支援画像は、光学ミラーであるドアミラーMのアスフェリカル部M2(図1参照)に相当する、視界支援画像の片側端部に行くほど強く圧縮される。すると、当該視界支援画像を見るドライバー等は、違和感を覚えることになる。 A driver or the like in a vehicle equipped with a CMS (camera monitoring system) sees a visual field support image on a display device provided in the vehicle. However, the visibility support image generated by using the conventional visibility support image generation device is so close to one end of the visibility support image that corresponds to the aspherical portion M2 (see FIG. 1) of the door mirror M, which is an optical mirror. strongly compressed. Then, a driver or the like who sees the visibility support image feels uncomfortable.

図9を用いて例示を行う。図9は、従来技術である視界支援画像生成装置を用いて生成した視界支援画像(出力画像)Ioutを示す図である。図9の下部には黒色の矢印が付加されており、圧縮率を表現している。すなわち、視界支援画像(出力画像)Ioutの右側に行くにつれて、圧縮率が上昇している。 An example will be given using FIG. FIG. 9 is a diagram showing a view support image (output image) I out generated using a view support image generation device of the prior art. A black arrow is added at the bottom of FIG. 9 to represent the compression rate. That is, the compression rate increases toward the right side of the view support image (output image) Iout .

視界支援画像(出力画像)Ioutには、車両である物体OBJ2が、自車両100の隣の車線を走行しており、後方から自車両100に近づき、追い越していく状況が映っている。この時、物体OBJ2が、前記アスフェリカル部M2に相当する視界支援画像(出力画像)Ioutの右側へと移動するにつれて、物体OBJ2の形状は画像圧縮によって大きくつぶれることになる。図9に示された、左右に大きくつぶれた物体OBJ1と、同じく図9の、物体OBJ1ほどは左右につぶれていない物体OBJ2とを対比することで、つぶれの問題を直感的に理解できる。 The visibility support image (output image) I out shows a situation in which an object OBJ2, which is a vehicle, is traveling in a lane adjacent to own vehicle 100, and approaches and overtakes own vehicle 100 from behind. At this time, as the object OBJ2 moves to the right side of the visual field support image (output image) Iout corresponding to the aspherical portion M2, the shape of the object OBJ2 is greatly crushed by the image compression. By comparing the object OBJ1 shown in FIG. 9, which is greatly crushed to the left and right, and the object OBJ2, which is not as crushed to the left and right as the object OBJ1, which is also shown in FIG.

また、物体OBJ2の視界支援画像(出力画像)Iout上の移動速度は、自車両100に距離が近づくにつれて、徐々に速く見えるようになる。しかし一方、アスフェリカル部M2に相当する画像右側においては、画像が圧縮されるため、物体OBJ2が急速に減速するように見える。すると、自車両100のドライバー等の目には、車両である物体OBJ2が徐々に加速しながら自車両に100近づいた後、突如減速しながら、自車両100を追い抜いていくかのように映る。このような画像表示は、違和感が大きいものである。 Also, the moving speed of the object OBJ2 on the view support image (output image) I out appears to gradually increase as the distance to the own vehicle 100 approaches. However, on the right side of the image corresponding to the aspherical portion M2, the image is compressed, so the object OBJ2 appears to decelerate rapidly. Then, in the eyes of the driver of the own vehicle 100, it appears as if the object OBJ2, which is a vehicle, gradually accelerates and approaches the own vehicle 100, and then suddenly decelerates and overtakes the own vehicle 100.例文帳に追加Such image display gives a great sense of discomfort.

そこで本開示の視界支援画像生成装置1Bにおいては、CMS(カメラモニタリングシステム)による、光学アスフェリカルミラー状の画像表示において、上述のような違和感が生じることを抑制する。これを実現するために、光学アスフェリカルミラーのアスフェリカル部に相当する表示部分における圧縮の仕方を、車両表示位置に応じて変動させる。 Therefore, in the visibility support image generation device 1B of the present disclosure, the above-described discomfort is suppressed in the optical aspherical mirror image display by the CMS (camera monitoring system). In order to achieve this, the method of compressing the display portion corresponding to the aspherical portion of the optical aspherical mirror is changed according to the display position of the vehicle.

より詳しくは、視界支援画像内の高圧縮部分を、視界支援画像内に表示される検出車両DC(後述)以外の箇所に設定する。そして、検出車両DCが表示される位置における圧縮強度が急激に変わらないようにする。 More specifically, the highly compressed portion in the visibility support image is set to a location other than the detected vehicle DC (described later) displayed in the visibility support image. Then, the compression strength at the position where the detected vehicle DC is displayed is prevented from changing abruptly.

上述のような本開示の視界支援画像生成装置1Bにより、ドライバー等にとって違和感の無い視界支援画像を提供することができる。さらに、視界支援画像には依然としてアスフェリカル部に相当する箇所があるため、高画角の表示が可能である。以下、このような本開示の視界支援画像生成装置1Bについて詳述する。 The visibility assistance image generating device 1B of the present disclosure as described above can provide a visibility assistance image that does not cause discomfort to the driver or the like. Furthermore, since the visibility support image still has a portion corresponding to the aspherical portion, it is possible to display with a wide angle of view. Hereinafter, the view support image generation device 1B of the present disclosure will be described in detail.

図10は、本開示の視界支援画像生成装置1Bの実施例を示す構成図である。図10に示した各装置が、自車両100に搭載されている。図10に示すハードウェア構成は、図3に基づき説明した視界支援画像生成装置1と基本的に同様である。図10に示した実施例が、図3に示した実施例と異なるのは、視界支援画像生成装置1Bが、近接車両位置算出装置15と接続されている点である。 FIG. 10 is a configuration diagram showing an embodiment of the visibility support image generation device 1B of the present disclosure. Each device shown in FIG. 10 is mounted on the own vehicle 100 . The hardware configuration shown in FIG. 10 is basically the same as the visibility support image generation device 1 described based on FIG. The embodiment shown in FIG. 10 differs from the embodiment shown in FIG. 3 in that the visibility support image generation device 1B is connected to the approaching vehicle position calculation device 15 .

近接車両位置算出装置15は、例えば、車両のリアバンパー内側等に設置されたミリ波レーダーであってよく、隣接車線を走行する車両を検出し、当該車両の位置を算出することが出来る。ただし、例えばTOFセンサ等の他の測距装置を用いて、隣接車線を走行する車両を検出してもよい。 The approaching vehicle position calculation device 15 may be, for example, a millimeter wave radar installed inside the rear bumper of the vehicle or the like, and can detect a vehicle traveling in an adjacent lane and calculate the position of the vehicle. However, other distance measuring devices such as TOF sensors may be used to detect vehicles traveling in adjacent lanes.

また、近接車両位置算出装置15は、例えばカメラ12であってもよい。すなわち、カメラ12によって自車両100から見た外界(特に、隣接車線)を撮像し、この撮像画像から、隣接車線を走行する車両の位置をソフトウェア処理で求めればよい。 Also, the approaching vehicle position calculation device 15 may be the camera 12, for example. That is, the camera 12 captures an image of the outside world (particularly, the adjacent lane) viewed from the host vehicle 100, and from the captured image, the position of the vehicle traveling in the adjacent lane may be obtained by software processing.

上記いずれの場合においても共通するのは、近接車両位置算出装置15によって、自車両100の隣接車線を走行する最も近い車両(以下、検出車両DCと表記する)の位置を算出する、ということである。このような車両が、自車両100との衝突の危険性が最も高い。視界支援画像生成装置1Bは、検出車両DCの位置情報を、近接車両位置算出装置15から取得することで、後述の画像処理を行うことができる。 What is common to all of the above cases is that the position of the closest vehicle (hereinafter referred to as the detected vehicle DC) traveling in the adjacent lane of the own vehicle 100 is calculated by the adjacent vehicle position calculation device 15. be. Such a vehicle has the highest risk of colliding with own vehicle 100 . The visibility support image generation device 1B can perform image processing, which will be described later, by acquiring the position information of the detected vehicle DC from the proximity vehicle position calculation device 15 .

図11は、本開示の視界支援画像生成装置1Bが備えるカメラ12によって撮像されるセンサ画像と、表示装置13に表示される視界支援画像MPとを示す図である。なお、視界支援画像MPは上述の出力画像Ioutに相当する画像であり、表示装置13に表示される。自車両100に搭乗するドライバー等が、表示装置13に表示された視界支援画像MPを見る。自車両100の外界の様子が視界支援画像MPに含まれているので、視界支援画像MPは、ドライバー等の視界を支援するものである。 FIG. 11 is a diagram showing a sensor image captured by the camera 12 included in the visibility assistance image generating device 1B of the present disclosure and the visibility assistance image MP displayed on the display device 13. As shown in FIG. Note that the visibility support image MP is an image corresponding to the output image I out described above, and is displayed on the display device 13 . A driver or the like on board the own vehicle 100 sees the visibility support image MP displayed on the display device 13 . Since the appearance of the external world of the own vehicle 100 is included in the visibility support image MP, the visibility support image MP assists the visibility of the driver or the like.

図11(b)に示すように、視界支援画像MPは、検出車両表示部Dとアスフェリカル部Aとを有している。検出車両表示部Dは、前記近接車両位置算出装置15によって位置が取得された検出車両DCが映り込む、画像上の領域である。一方で、アスフェリカル部Aは、上述の光学アスフェリカルミラーにおけるアスフェリカル部M2に相当する画像上の領域である。 As shown in FIG. 11(b), the visibility support image MP has a detected vehicle display portion D and an aspherical portion A. As shown in FIG. The detected vehicle display portion D is an area on the image in which the detected vehicle DC whose position is acquired by the approaching vehicle position calculation device 15 is displayed. On the other hand, the aspherical portion A is a region on the image corresponding to the aspherical portion M2 in the optical aspherical mirror described above.

本来、光学アスフェリカルミラーにおけるアスフェリカル部M2は、ミラーに映る視野角を広げる為に、当該光学ミラーの他の箇所よりも圧縮度が高くなっている。これと同様に、視界支援画像MPが有するアスフェリカル部Aは、検出車両表示部Dよりも圧縮率が高くなっている。ただし、CMS(カメラモニタリングシステム)上では、検出車両表示部Dを必ずしも等倍表示にしなくてもよい。検出車両表示部Dを一定の圧縮率で圧縮し、アスフェリカル部Aをさらに大きな圧縮率にすることもできる。いずれにせよ、本開示の視界支援画像生成装置1Bにおいては、圧縮する合計画素数と検出車両DC周辺の圧縮率とを、予め決めておく。 Originally, the aspherical portion M2 in the optical aspherical mirror has a higher degree of compression than other portions of the optical mirror in order to widen the viewing angle reflected on the mirror. Similarly, the aspherical portion A of the visibility support image MP has a higher compression rate than the detected vehicle display portion D. However, on a CMS (camera monitoring system), the detected vehicle display section D does not necessarily have to be displayed at the same size. It is also possible to compress the detected vehicle display portion D at a constant compression rate and set the aspherical portion A at an even greater compression rate. In any case, in the visibility support image generation device 1B of the present disclosure, the total number of pixels to be compressed and the compression ratio around the detected vehicle DC are determined in advance.

(表示量の規定)
以下、検出車両表示部Dの圧縮率を1倍(等倍)とした例を説明する。まず、ドライバー等が表示装置13で視認できる、視界支援画像MPの最終表示画角を規定する。なお、図11(a)に示すように、センサ画像上の画素数を規定してもよい。
(Regulations on labeling amount)
An example in which the compression ratio of the detected vehicle display portion D is set to 1 (same size) will be described below. First, the final display angle of view of the visibility support image MP that can be visually recognized by the driver or the like on the display device 13 is defined. In addition, as shown in FIG. 11A, the number of pixels on the sensor image may be specified.

本例では、センサ画像上の画素数に基づいて例示を行こととする。図11(a)に示したセンサ画像上の、横方向の画素数を1300ピクセルと予め決定する。センサ画像上での、検出車両表示部Dの横方向の画素数を500ピクセルと設定する。センサ画像上での、アスフェリカル部Aの横方向の画素数を800ピクセルと規定する。 In this example, the example is based on the number of pixels on the sensor image. The number of pixels in the horizontal direction on the sensor image shown in FIG. 11(a) is determined in advance to be 1300 pixels. The number of pixels in the horizontal direction of the detected vehicle display portion D on the sensor image is set to 500 pixels. The number of pixels in the horizontal direction of the aspherical portion A on the sensor image is defined as 800 pixels.

この時、センサ画像上の、図11(a)に示した横方向500ピクセル+800ピクセルの領域が、一部圧縮されて、視界支援画像MPへと変換されることとなる。視界支援画像MPの横方向の画素数を800ピクセルとする。 At this time, the area of 500+800 pixels in the horizontal direction shown in FIG. 11A on the sensor image is partially compressed and converted into the visibility support image MP. Assume that the number of pixels in the horizontal direction of the visibility support image MP is 800 pixels.

なお、上記の画素数はあくまで例示であり、他の設定値にしてもよい。 Note that the number of pixels described above is merely an example, and other set values may be used.

図11(a)に示したセンサ画像中の横方向1300ピクセルおいて、アスフェリカル部Aを800ピクセルから300ピクセルへと圧縮する。一方、検出車両表示部Dの500ピクセルは、この例においては圧縮しない。予め、検出車両表示部Dの表示倍率を等倍に決めていたからである。すると、図11(b)に示したように、アスフェリカル部Aが横方向に縮んだ状態で、視界支援画像MPが生成される。なお、圧縮前の1300ピクセル分の画角は、視界支援画像MPにおいても維持されている。 At 1300 pixels in the horizontal direction in the sensor image shown in FIG. 11A, the aspherical portion A is compressed from 800 pixels to 300 pixels. On the other hand, the 500 pixels of the detected vehicle display D are not compressed in this example. This is because the display magnification of the detected vehicle display portion D is determined to be 1:1 in advance. Then, as shown in FIG. 11(b), the view support image MP is generated with the aspherical portion A contracted in the horizontal direction. Note that the angle of view of 1300 pixels before compression is also maintained in the visibility support image MP.

そして、図11(b)に示したような、表示上の按分比率(検出車両表示部D:アスフェリカル部A=500:300)を固定する。この、図11(b)に示した態様を、表示の初期状態とする。次に、この初期状態からの、検出車両表示部Dの追随移動について説明する。 Then, the proportional division ratio on the display (detected vehicle display portion D: aspherical portion A=500:300) as shown in FIG. 11(b) is fixed. The mode shown in FIG. 11B is assumed to be the initial display state. Next, the follow-up movement of the detected vehicle display portion D from this initial state will be described.

図12は、検出車両表示部Dの、視界支援画像MP内での追随を示す図であり、(a)初期状態、(b)追随状態、(c)追随終了状態をそれぞれ示している。 12A and 12B are diagrams showing the following in the view support image MP of the detected vehicle display section D, showing (a) initial state, (b) following state, and (c) following end state, respectively.

図12の右側、視界支援画像MP上に示された破線は、可変閾値である所定の箇所を示している。本例では、検出車両表示部Dの横方向(水平方向)の中心に、可変閾値を、図のように仮想的に設置する。なお、可変閾値は検出車両表示部Dのさらに右側、あるいは左側へとずれていてもよい。 A dashed line shown on the right side of FIG. 12 on the view support image MP indicates a predetermined point that is a variable threshold. In this example, a variable threshold is virtually set at the center of the detected vehicle display section D in the lateral direction (horizontal direction) as shown in the figure. Note that the variable threshold may be shifted further to the right or left of the detected vehicle display section D.

近接車両位置算出装置15によって検出した検出車両DCは、道路上で自車両100を後ろから追い抜く、追い抜き車両である。この検出車両DCは、図12に示した検出車両表示部D上を、左側から右側へと移動するように表示される。 The detected vehicle DC detected by the approaching vehicle position calculation device 15 is an overtaking vehicle that overtakes the host vehicle 100 from behind on the road. The detected vehicle DC is displayed so as to move from the left side to the right side on the detected vehicle display portion D shown in FIG.

この検出車両DC(の所定の箇所。例えば車両の前面(フロントバンパー等))が前述の可変閾値を超えた後は、視界支援画像MPにおける、検出車両表示部Dが右側に移動する。検出車両表示部Dの移動は、前記検出車両DC(の中の所定の箇所)が、検出車両表示部Dの前記左右方向における中央に位置するように行われる。すなわち、視界支援画像MPにおける検出車両表示部Dの位置が、検出車両DC(の中の所定の箇所)に追随して、初期状態から右方向へと移動する(図12中段の追随状態)。 After the detected vehicle DC (predetermined location, for example, the front surface of the vehicle (front bumper, etc.)) exceeds the above-described variable threshold, the detected vehicle display portion D moves to the right side in the visibility support image MP. The detected vehicle display portion D is moved so that the detected vehicle DC (predetermined portion thereof) is positioned at the center of the detected vehicle display portion D in the horizontal direction. That is, the position of the detected vehicle display portion D in the visibility support image MP moves rightward from the initial state (following state in the middle of FIG. 12) following (predetermined portion in) the detected vehicle DC.

検出車両表示部Dの前記追随移動に伴い、アスフェリカル部Aが、アスフェリカル部A1およびA2の2つに分割される。ただし、表示上の按分比率(検出車両表示部D:アスフェリカル部A=500:300)は、依然として固定されたままである。例えば、検出車両表示部Dの右側に存在する、本来のアスフェリカル部Aであるアスフェリカル部A1は、図12に示した追随状態においては、横方向に150ピクセル分の領域を占める。検出車両表示部Dの左側領域を補うように出現した、追加のアスフェリカル部A2は、図12に示した追随状態においては、横方向に150ピクセル分の領域を占める。アスフェリカル部A1とA2を併せると、横方向に300ピクセルとなる。このように、検出車両表示部Dの前記追随移動に伴い、検出車両表示部Dの左右に配置されたアスフェリカル部A1、A2の画素数(画角)も変化する。アスフェリカル部A1、A2の画素数(画角)の変化幅は、いずれも、0画素(0度)から所定の設計値までである。 Along with the following movement of the detected vehicle display portion D, the aspherical portion A is divided into two aspherical portions A1 and A2. However, the proportional division ratio on the display (detected vehicle display portion D: aspherical portion A=500:300) remains fixed. For example, the aspherical portion A1, which is the original aspherical portion A, present on the right side of the detected vehicle display portion D occupies an area of 150 pixels in the horizontal direction in the follow-up state shown in FIG. The additional aspherical portion A2 that appears to supplement the left side area of the detected vehicle display portion D occupies an area of 150 pixels in the horizontal direction in the following state shown in FIG. Together, the aspherical portions A1 and A2 are 300 pixels in the horizontal direction. In this manner, as the detected vehicle display portion D follows the movement, the number of pixels (angle of view) of the aspherical portions A1 and A2 arranged on the left and right sides of the detected vehicle display portion D also changes. The width of change in the number of pixels (angle of view) of the aspherical portions A1 and A2 is from 0 pixel (0 degree) to a predetermined design value.

以上のような、視界支援画像MPにおける検出車両表示部Dの追随移動は、図12の下段に示した追随終了状態になるまで行われる。追随終了状態においては、視界支援画像MPにおける左側の300ピクセルがアスフェリカル部A2であり、右側の500ピクセルが検出車両表示部Dである。アスフェリカル部A1の幅は0ピクセルである。 The follow-up movement of the detected vehicle display portion D in the view support image MP as described above is performed until the follow-up end state shown in the lower part of FIG. 12 is reached. In the tracking end state, 300 pixels on the left side of the view support image MP are the aspherical portion A2, and 500 pixels on the right side are the detected vehicle display portion D. The width of the aspherical portion A1 is 0 pixels.

検出車両DCは、自車両100を追い抜いて、視界支援画像MPの右側方向へ抜ける。つまり、検出車両DCは、視界支援画像MPに表示されなくなる。検出車両DCが視界支援画像MPに表示されなくなった段階で、視界支援画像MPの表示形態は、図12の上段に示した初期状態に戻る。 The detected vehicle DC overtakes the own vehicle 100 and exits in the right direction of the visibility support image MP. That is, the detected vehicle DC is no longer displayed in the visibility support image MP. When the detected vehicle DC is no longer displayed in the visibility support image MP, the display form of the visibility support image MP returns to the initial state shown in the upper part of FIG.

図13は、入力画像Iinから視界支援画像を生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1Bによる場合との比較図である。図6(a)は入力画像Iinである。この入力画像Iinに対し従来技術を用いて生成した出力画像Ioutが図13(b)である。同じ入力画像Iinに対し、本開示の視界支援画像生成装置1Bを用いて生成した視界支援画像MP(出力画像Iout)が図13(c)である。 FIG. 13 is a comparison diagram between the conventional technology and the visibility support image generation device 1B of the present disclosure when the visibility support image is generated from the input image Iin . FIG. 6(a) is the input image Iin . FIG. 13B shows an output image I out generated from the input image I in using the conventional technique. A view support image MP (output image I out ) generated using the view support image generation device 1B of the present disclosure for the same input image I in is shown in FIG. 13(c).

なお、図13(a)および図13(b)は、図8(a)および図8(b)にそれぞれ相当する。 13(a) and 13(b) correspond to FIGS. 8(a) and 8(b), respectively.

図13(b)については、出力画像Ioutのアスフェリカル部に相当する右側部分が圧縮されている為、車両である物体OBJ1だけでなく、車両である物体OBJ2も形状が歪んでいる。また、物体OBJ2は、図9に基づいて説明したように、画像の右側へと進むにつれて、急速に減速するように見える。 In FIG. 13B, since the right side portion corresponding to the aspherical portion of the output image I out is compressed, not only the vehicle object OBJ1 but also the vehicle object OBJ2 are distorted in shape. Also, object OBJ2 appears to decelerate rapidly as it moves to the right side of the image, as described with reference to FIG.

一方、図13(c)に示した、本開示の視界支援画像生成装置1Bを用いて生成した視界支援画像MP(出力画像Iout)の場合は、検出車両DC(物体OBJ2)の形状が歪んでいない。なぜなら検出車両DCは、検出車両表示部Dに表示されるからである。上述のように、本例において検出車両表示部Dは等倍表示されている。その一方で、左右に設けられたアスフェリカル部A1およびA2は横方向に圧縮されている。 On the other hand, in the case of the visibility support image MP (output image I out ) generated using the visibility support image generation device 1B of the present disclosure, the shape of the detected vehicle DC (object OBJ2) is distorted. not This is because the detected vehicle DC is displayed in the detected vehicle display portion D. FIG. As described above, in this example, the detected vehicle display portion D is displayed at the same size. On the other hand, the left and right aspherical portions A1 and A2 are laterally compressed.

したがって、視界支援画像生成装置1Bによって生成した視界支援画像MPにおいては、衝突の可能性が一番高く、もっとも注意を払うべき検出車両DCが、正しい形状、正しい位置に表示される。かつ、この検出車両DCが、自車両100の後方から接近し自車両100を追い抜くまでの状況を、視界支援画像MPによって、直感的に広画角で表示し、乗員に情報提示を行うことができる。 Therefore, in the visibility assistance image MP generated by the visibility assistance image generation device 1B, the detected vehicle DC, which has the highest possibility of collision and should be paid the most attention to, is displayed in the correct shape and at the correct position. In addition, the situation in which the detected vehicle DC approaches the own vehicle 100 from behind and overtakes the own vehicle 100 can be intuitively displayed at a wide angle of view by the visibility support image MP to present information to the occupants. can.

次に、検出車両DCの、視界支援画像MPへの割り付けについて説明する。 Next, allocation of the detected vehicle DC to the visibility support image MP will be described.

上述のように、視界支援画像MPは検出車両表示部Dとアスフェリカル部A1(およびA2)を有しており、検出車両表示部Dは所定の一定倍率(本例においては等倍)としつつ、アスフェリカル部A1(およびA2)を適宜圧縮して、横方向の広画角を実現している。 As described above, the view support image MP has the detected vehicle display portion D and the aspherical portion A1 (and A2). The aspherical portion A1 (and A2) is appropriately compressed to achieve a wide angle of view in the horizontal direction.

ここで、検出車両DCの視界支援画像MP上への割り付けには自由度がある。図14は割付の1態様を示す図であり、(a)センサ画像、(b)視界支援画像MPを示す。 Here, there is a degree of freedom in laying out the detected vehicle DC on the view support image MP. FIG. 14 is a diagram showing one mode of allocation, showing (a) a sensor image and (b) a visibility support image MP.

図14(a)に示したセンサ画像において、既に説明した横方向1300ピクセルの全体が、車両(検出車両DC、およびそれ以外の車両)が表示される範囲となる。 In the sensor image shown in FIG. 14( a ), the entire 1300 pixels in the horizontal direction described above is the range in which the vehicles (detected vehicle DC and other vehicles) are displayed.

ここで、図14(a)に2つの丸印がプロットされている。一方は検出車両DC(物体OBJ2)の位置を示しており、他方は、検出車両DCの前を走る車両(物体OBJ1)の位置を示している。図14(a)にセンサ画像上においては、アスフェリカル部A1、A2はまだ圧縮前の状態である。 Here, two circles are plotted in FIG. 14(a). One indicates the position of the detected vehicle DC (object OBJ2), and the other indicates the position of the vehicle (object OBJ1) running in front of the detected vehicle DC. On the sensor image shown in FIG. 14(a), the aspherical portions A1 and A2 are still in a pre-compression state.

図14(a)に示した状況において、センサ画像の左端から検出車両DCまで(間隔1)、検出車両DCから物体OBJ1まで(間隔2)、物体OBJ1からセンサ画像の右端まで(間隔3)が、それぞれ等間隔にであったとする。 In the situation shown in FIG. 14A, from the left end of the sensor image to the detected vehicle DC (distance 1), from the detected vehicle DC to the object OBJ1 (distance 2), and from the object OBJ1 to the right end of the sensor image (distance 3). , are equally spaced.

このようなセンサ画像に基づいて、視界支援画像生成装置1Bは、これらの間隔1、間隔2、間隔3が等間隔のままになるように、検出車両DCの表示位置を視界支援画像MP上に割り当てることができる。この割り当ては、左右に配置されたアスフェリカル部A1及びA2のそれぞれの幅を適宜調整し、また、アスフェリカル部A1及びA2のそれぞれの箇所の圧縮率を適宜調整することにより、実現可能である。 Based on such a sensor image, the visibility support image generation device 1B shifts the display position of the detected vehicle DC onto the visibility support image MP so that the intervals 1, 2, and 3 remain equal. can be assigned. This assignment can be realized by appropriately adjusting the width of each of the aspherical portions A1 and A2 arranged on the left and right, and by appropriately adjusting the compression rate of each portion of the aspherical portions A1 and A2.

検出車両DCの表示位置を上述のように割り当てることにより、視界支援画像MPにおける検出車両DCの表示位置が、視界支援画像MPに表示可能な最大画角範囲(1300ピクセル)における、検出車両DCの移動の仕方に追従する。 By assigning the display position of the detected vehicle DC as described above, the display position of the detected vehicle DC in the visibility support image MP is the maximum angle of view range (1300 pixels) that can be displayed in the visibility support image MP. Follow the way you move.

次に、極座標に基づいた均等割り割り当てについて説明する。 Next, even allocation based on polar coordinates will be described.

図15は、極座標に基づいた割り当てを示す図である。図の右側に示すように、自車両100と検出車両DCとが並走している。検出車両DCは自車両100の隣接車線を走行中であり、自車両100を追い抜こうとしている。 FIG. 15 is a diagram illustrating allocation based on polar coordinates. As shown on the right side of the figure, own vehicle 100 and detection vehicle DC are running side by side. The detected vehicle DC is traveling in a lane adjacent to the own vehicle 100 and is about to overtake the own vehicle 100 .

図15の右側には、自車両100が備えるカメラ12の視野範囲(例えば画角90度)が、扇形状に示されている。また、この視野範囲を、極座標系において等間隔に分割する間隔線PCLが複数本、描かれている。 On the right side of FIG. 15, the field of view range (for example, the angle of view of 90 degrees) of the camera 12 provided on the vehicle 100 is shown in a fan shape. In addition, a plurality of interval lines PCL are drawn to divide the visual field range into equal intervals in the polar coordinate system.

一方、図15の左側には、表示装置13に表示する視界支援画像MP(この例においては、横方向の画角90度)に上述の間隔線PCLが描かれている。 On the other hand, on the left side of FIG. 15, the interval line PCL is drawn in the visibility support image MP (in this example, the horizontal angle of view is 90 degrees) displayed on the display device 13 .

そして、視界支援画像MP(図15左側)における検出車両DCの表示位置が、カメラ12と検出車両DCとの間の相対位置(図15右側)と極座標上で一致するように割り当てられてよい。この割り当てもまた、左右に配置されたアスフェリカル部A1及びA2のそれぞれの幅を適宜調整し、また、アスフェリカル部A1及びA2のそれぞれの箇所の圧縮率を適宜調整することにより、実現可能である。 Then, the display position of the detected vehicle DC in the visibility support image MP (left side of FIG. 15) may be assigned so as to match the relative position (right side of FIG. 15) between the camera 12 and the detected vehicle DC on the polar coordinates. This allocation can also be realized by appropriately adjusting the width of each of the aspherical portions A1 and A2 arranged on the left and right, and by appropriately adjusting the compression rate of each portion of the aspherical portions A1 and A2.

図16は、図10に示したシステム構成に基づく処理フロー図である。 FIG. 16 is a processing flow diagram based on the system configuration shown in FIG.

ステップS101において、近接車両位置算出装置15が、隣接車線の車両情報を確認する。 In step S101, the adjacent vehicle position calculation device 15 confirms the vehicle information of the adjacent lane.

ステップS102において、処理部11が、隣接車線に車両が存在したか否かを判断する。存在した場合(Yesの場合)はステップS103に進む。存在しなかった場合(Noの場合)は、検出車両表示部Dの追随等を行わない、上述の初期状態(図12上段を参照)での視界支援画像MPの表示を行う。この表示は、処理部11による制御の下、表示装置13により行われる。 At step S102, the processing unit 11 determines whether or not there is a vehicle in the adjacent lane. If it exists (Yes), the process proceeds to step S103. If it does not exist (No), the visibility support image MP is displayed in the above-described initial state (see the upper part of FIG. 12) without following the detected vehicle display portion D. This display is performed by the display device 13 under the control of the processing section 11 .

ステップS103において、処理部11が、近接車両位置算出装置15が確認した最も近い車両(前記検出車両DC)の位置情報に基づいて、この車両の視界支援画像MP上の表示位置を計算する。 In step S103, the processing unit 11 calculates the display position of this vehicle on the visibility support image MP based on the position information of the closest vehicle (detected vehicle DC) confirmed by the proximity vehicle position calculation device 15. FIG.

ステップS104において、処理部11が、検出車両DCの視界支援画像MP上の表示位置が、視界支援画像MP上の可変閾値である所定の箇所を超えたか否かを判断する。超えた場合(Yesの場合)はステップS105へ進む。超えない場合(Noの場合)は、検出車両表示部Dの追随等を行わない、上述の初期状態(図12上段を参照)での視界支援画像MPの表示を行う。この表示は、処理部11による制御の下、表示装置13により行われる。 In step S104, the processing unit 11 determines whether or not the display position of the detected vehicle DC on the visibility assistance image MP has exceeded a predetermined location, which is a variable threshold value, on the visibility assistance image MP. If it exceeds (Yes), the process proceeds to step S105. If it does not exceed (No), the visibility support image MP is displayed in the above-described initial state (see the upper part of FIG. 12) without following the detected vehicle display portion D. FIG. This display is performed by the display device 13 under the control of the processing section 11 .

ステップS105において、処理部11が、検出車両DCの視界支援画像MP上の表示位置に応じて、表示データ(視界支援画像MP)の形成を行う。すなわち前述のような検出車両表示部Dの追随等の処理が行われる。 In step S105, the processing unit 11 forms display data (visual field support image MP) according to the display position of the detected vehicle DC on the visual field support image MP. That is, processing such as tracking of the detected vehicle display portion D as described above is performed.

上記の構成とすることによって、表示装置13に表示する視界支援画像MPを、自車両100のドライバー等に違和感を与えない、また、アスフェリカル部により画角も広く確保した画像にすることができる。 With the above configuration, the visibility support image MP displayed on the display device 13 can be an image that does not give a sense of discomfort to the driver of the own vehicle 100 or the like, and also secures a wide angle of view due to the aspherical portion.

次に、違和感が少なく、また、外界の適切な状況把握ができる表示画像を提供するという本開示の目的から、表示画像上で距離感を表現する工夫である、視界支援画像生成装置1Cについて説明する。 Next, for the purpose of the present disclosure, which is to provide a display image that gives less sense of incongruity and allows an appropriate grasp of the situation in the outside world, the visibility support image generation device 1C, which is a device for expressing a sense of distance on the display image, will be described. do.

車両の中には、光学ミラーや、前述の光学アスフェリカルミラーを車載カメラに置き換えるものがある。車載カメラで撮像した画像を適宜画像処理し、視界支援画像として車内の表示装置等に表示する。車両に搭乗したドライバー等はこの視界支援画像を見て、車外の様子を確認することができる。 Some vehicles have optical mirrors or replace the aforementioned optical aspherical mirrors with onboard cameras. The image captured by the in-vehicle camera is appropriately image-processed and displayed on the in-vehicle display device or the like as a visual field support image. A driver or the like in the vehicle can see the visual field support image to check the situation outside the vehicle.

ここで、上記の置き換え前の光学ミラーの場合、肉眼の視差から発生する眼球の動き、対象物に対するピント合わせの反応により、ドライバー等は距離感を得ることができる。 Here, in the case of the optical mirror before replacement, the driver or the like can get a sense of distance from the movement of the eyeball caused by the parallax of the naked eye and the reaction of focusing on the object.

一方、車載カメラは、一般的にピント調整の機構を持たない。その為、例えば無限遠に固定ピントで撮像すると、得られる映像のピントは一様となる。したがって、表示装置に表示された視界支援画像から、ドライバー等が十分な遠近感を得ることはできないものであった。 On the other hand, in-vehicle cameras generally do not have a mechanism for adjusting focus. Therefore, for example, when an image is captured at infinity with a fixed focus, the obtained image has a uniform focus. Therefore, the driver or the like cannot obtain a sufficient sense of perspective from the visual field support image displayed on the display device.

特に、CMS(カメラモニタリングシステム)などでドアミラーが車載カメラに置き換わった場合に、ドライバー等が表示装置上の画像を見ながら車両を後退させるシーンなどで、遠近感の無さが問題となる。 In particular, when the door mirror is replaced with an in-vehicle camera in a CMS (camera monitoring system), etc., the lack of perspective becomes a problem in scenes such as when the vehicle is backed up while looking at the image on the display device.

例えば、ドライバーが車両を後退させて駐車する場合を考える。車両の後方に柵などによって駐車枠が仕切られていることがある。この時、ドライバーの視点では、表示装置上の画像からドライバー等が十分な遠近感を得ることはできないため、車体に柵が刺さっているかの如く見える。このような状態では、ドライバーが後退駐車時の停止位置をうまく判断することができない。 For example, consider the case where the driver reverses the vehicle to park. A parking frame may be partitioned off behind the vehicle by a fence or the like. At this time, from the driver's point of view, the image on the display device does not allow the driver or the like to obtain a sufficient sense of perspective, so it looks as if a fence is stuck in the vehicle body. In such a state, the driver cannot properly determine the stop position for reverse parking.

そこで、本開示の視界支援画像生成装置1Cにおいては、表示装置への人間の注視ポイントを把握し、当該注視ポイントにピントを合わせ、そのポイントとは距離(遠近)の異なる箇所にぼかし処理を行うことにより、視界支援画像上で距離感を仮想的に表現することができる。 Therefore, in the visibility support image generation device 1C of the present disclosure, the gaze point of the person to the display device is grasped, the gaze point is focused, and the point is blurred at a different distance (perspective). Thus, a sense of distance can be virtually expressed on the view support image.

以下、視界支援画像上で距離感を仮想的に表現するための構成について詳述するが、本開示の視界支援画像生成装置1Cにより、ドライバー等は、視界支援画像上で距離感を得ることができる。 The configuration for virtually expressing the sense of distance on the visibility support image will be described below. With the visibility support image generation device 1C of the present disclosure, the driver or the like can obtain the sense of distance on the visibility support image. can.

図17は、本開示の視界支援画像生成装置1Cの実施例を示す構成図である。図17に示した各装置が、自車両100に搭載されている。図17に示すハードウェア構成は、図3に基づき説明した視界支援画像生成装置1と基本的に同様である。図17に示した実施例が、図3に示した実施例と違うのは、視界支援画像生成装置1Cが、カメラが2つに増えていることと、検知部18を更に備えていることである。検知部18については後述することとし、まずはカメラが2つに増えていることについて説明する。 FIG. 17 is a configuration diagram showing an example of a visibility support image generation device 1C of the present disclosure. Each device shown in FIG. 17 is mounted on the own vehicle 100 . The hardware configuration shown in FIG. 17 is basically the same as the visibility support image generation device 1 described based on FIG. The embodiment shown in FIG. 17 differs from the embodiment shown in FIG. 3 in that the view support image generation device 1C has two cameras and further includes a detection unit 18. be. The detection unit 18 will be described later, and first, the increase in the number of cameras to two will be described.

図18は、車載カメラの様々な設置例を示している。なお、図18には、車両の進行方向をx軸、車幅方向をy軸、車両の高さ方向をz軸とした直交座標系を付加してある。 FIG. 18 shows various installation examples of an in-vehicle camera. 18, an orthogonal coordinate system is added in which the x-axis is the traveling direction of the vehicle, the y-axis is the width direction of the vehicle, and the z-axis is the height direction of the vehicle.

本開示の視界支援画像生成装置1Cにおいては、視差検出範囲を得る為に、カメラを2つ以上配置する。図18の例では、カメラを2つ配置している。複数のカメラの設置位置は自由である。図18(a)に示しているように、車両のドアミラーと車両後部とにそれぞれ1つずつ、カメラを設置してよい。また、車両後部に2つカメラを設置してもよい。車両のドアミラーに2つカメラを設置してもよい。 In the visibility support image generation device 1C of the present disclosure, two or more cameras are arranged in order to obtain a parallax detection range. In the example of FIG. 18, two cameras are arranged. The installation positions of multiple cameras are free. As shown in FIG. 18(a), one camera may be installed in each of the door mirrors and the rear of the vehicle. Also, two cameras may be installed at the rear of the vehicle. You may install two cameras in the door mirror of a vehicle.

また、図18(b)に示すように、車両のドアミラーと、Aピラーのルーフ付近とに1つずつカメラを設置してもよい。 Also, as shown in FIG. 18B, one camera may be installed in each of the door mirrors of the vehicle and the vicinity of the roof of the A pillar.

設置するカメラが2つである場合、一方のカメラを主カメラ12とし、他方のカメラを副カメラ16とする。主カメラ12が撮像する画像をCMS(カメラモニタリングシステム)の表示装置13(モニタ)上に表示し、副カメラ16が撮像する画像は視差検出用に用いる。ただし、副カメラ16の画像をCMS(カメラモニタリングシステム)の表示装置13(モニタ)上に表示してもよい。 When two cameras are installed, one camera is the primary camera 12 and the other is the secondary camera 16 . An image captured by the main camera 12 is displayed on a display device 13 (monitor) of a CMS (camera monitoring system), and an image captured by the sub camera 16 is used for parallax detection. However, the image of the secondary camera 16 may be displayed on the display device 13 (monitor) of the CMS (camera monitoring system).

そして、主カメラ12が撮像した画像における距離推定が可能な画素に対して、副カメラ16の画像を利用して、被写体までの距離の推定を行う。この距離推定は、既存の距離推定技術を用いてよい。 Then, the distance to the subject is estimated using the image of the sub-camera 16 with respect to the pixels in the image captured by the main camera 12 where the distance can be estimated. This distance estimation may use existing distance estimation techniques.

なお、必ずしも主カメラ12の撮像画像における全画素について距離推定を行う必要は無いため、主カメラ12上の画素を間引いて距離推定を行ってもよい。このことにより、画像処理に必要な時間を節約できる。 Since it is not always necessary to estimate the distance for all the pixels in the image captured by the main camera 12, the pixels on the main camera 12 may be thinned out to estimate the distance. This saves the time required for image processing.

次に、再び図17を参照しつつ、検知部18について説明する。検知部18は、典型的には、CMS(カメラモニタリングシステム)の表示装置13または表示装置13付近に設けられた、ドライバー等の眼球監視用カメラである。例えば車両のドライバーは運転時に表示装置13を見るので、その眼球をカメラで監視し、表示装置による表示上のどこを注視しているのか(注視ポイント)を検出することができる。 Next, the detection unit 18 will be described with reference to FIG. 17 again. The detection unit 18 is typically a camera for monitoring the eyeballs of a driver or the like provided near the display device 13 of a CMS (camera monitoring system) or near the display device 13 . For example, since the driver of the vehicle looks at the display device 13 while driving, it is possible to monitor the eyeballs with a camera and detect where the driver is gazing on the display of the display device (gazing point).

この検知部18から注視ポイントに係る情報を得た処理部11は、表示装置13に表示された視界支援画像MPにおける注視座標(注視ポイントに相当する座標)を推定する。 The processing unit 11 that has obtained information related to the gaze point from the detection unit 18 estimates gaze coordinates (coordinates corresponding to the gaze point) in the visibility support image MP displayed on the display device 13 .

そして処理部11は、視界支援画像MPにおける前記注視座標を中心にした、上述の主カメラ12および副カメラ16によって行われた距離推定により算出された距離(遠近)に応じたぼかしフィルタを、視界支援画像MPに対して適用する。白シェーディングの透過重畳を行ってもよい。 Then, the processing unit 11 applies a blurring filter according to the distance (perspective) calculated by the above-described distance estimation performed by the main camera 12 and the sub camera 16, centered on the gaze coordinates in the view support image MP, to the field of view. Apply to the support image MP. Transmission superimposition of white shading may be performed.

より詳しくは、注視座標からの距離が所定の閾値を超える画素(注視座標とは遠近が大きく違う画素)に対して、前記ぼかしフィルタを適用する。また、当該距離が大きいほど強いぼかしフィルタを適用してよい。 More specifically, the blurring filter is applied to pixels whose distance from the gaze coordinates exceeds a predetermined threshold (pixels whose perspective is significantly different from the gaze coordinates). Also, the larger the distance, the stronger the blurring filter may be applied.

上記構成により、視界支援画像の注視ポイントと距離が近い一定領域(距離が閾値以内の領域)はピントが合った状態となり、その周辺領域は、注視ポイントから前記推定距離が離れるにしたがって、ぼけの強い状態となる。したがって、ドライバー等が視界支援画像MPを、表示装置13を用いて見たときに、注視対象とそれ以外との間の距離感を得ることができる。 With the above configuration, a fixed area (area within a threshold distance) that is close to the fixation point of the visibility support image is in focus, and the surrounding area becomes blurred as the estimated distance increases from the fixation point. be in a strong state. Therefore, when the driver or the like views the visibility support image MP using the display device 13, it is possible to obtain a sense of distance between the gaze target and the others.

なお、上記の所定の閾値の値(例えば10メートル)や、ぼかし強度を変える距離の分解能は、複数カメラの視差による距離検出の精度や、仕様に応じて変更することができる。また、ぼかしフィルタは、画素単位ではなく、複数の画素からなるブロック単位で適用されてもよい。 Note that the predetermined threshold value (for example, 10 meters) and the distance resolution for changing the blur intensity can be changed according to the accuracy of distance detection based on the parallax of a plurality of cameras and the specifications. Also, the blurring filter may be applied in units of blocks composed of a plurality of pixels instead of in units of pixels.

変形例として、タッチパネル式の表示装置13を用いて、タッチパネル画面を指でタッチするなどして、注視ポイントを変更/固定しても良い。 As a modification, the touch panel display device 13 may be used to change/fix the fixation point by touching the touch panel screen with a finger or the like.

図19は、図17に示したシステム構成に基づく処理フロー図であり、(a)距離感を仮想的に表現する処理、(b)表示装置13の輝度調光処理を示している。 FIG. 19 is a processing flow diagram based on the system configuration shown in FIG. 17, showing (a) processing for representing a virtual sense of distance, and (b) brightness control processing for the display device 13 .

ステップS201において、処理部11が、主カメラ12と副カメラ16がそれぞれ撮像した画像に基づいて、主カメラ12の距離情報を算出する。 In step S201, the processing unit 11 calculates the distance information of the main camera 12 based on the images captured by the main camera 12 and the sub camera 16 respectively.

ステップS202において、検知部18が、ドライバー等が表示装置13(モニタ)を注視しているか否かを確認する。注視している場合(Yesの場合)はステップS203へ進む。注視していない場合(Noの場合)は処理終了となる。 In step S202, the detection unit 18 checks whether the driver or the like is gazing at the display device 13 (monitor). If the user is watching (Yes), the process proceeds to step S203. If the user is not paying attention (if No), the process ends.

ステップS203において、処理部11が、前述の注視座標を算出する。この算出処理には、主カメラ12が撮像した画像と、検知部18が検出した前述の注視ポイントに係る情報とが用いられる。 In step S203, the processing unit 11 calculates the gaze coordinates described above. An image captured by the main camera 12 and information related to the gaze point detected by the detection unit 18 are used for this calculation processing.

ステップS204において、処理部11が、前記注視座標における距離情報と周辺の距離情報(ステップS201にて算出済み)に応じたぼかしフィルタを、視界支援画像MPに対して適用する。このフィルタ適用後の視界支援画像MPにおいては、距離感が疑似的に表現されている。 In step S204, the processing unit 11 applies a blur filter corresponding to the distance information in the gaze coordinates and the surrounding distance information (calculated in step S201) to the visibility support image MP. In the visibility support image MP after application of this filter, a sense of distance is expressed in a pseudo manner.

次に、図19(b)に示した輝度調光処理について説明する。なお、図17に示した検知部18は上述のように、ドライバー等の眼球をカメラで監視し、表示装置13(モニタ)による表示上のどこを注視しているのかを算出する。そのため、この眼球監視を適切に行いうる程度の輝度が、表示装置13(モニタ)には必要となる。 Next, the luminance dimming process shown in FIG. 19(b) will be described. As described above, the detection unit 18 shown in FIG. 17 monitors the eyeballs of the driver or the like with a camera, and calculates where the driver is gazing on the display of the display device 13 (monitor). Therefore, the display device 13 (monitor) is required to have a brightness that enables appropriate eyeball monitoring.

ステップS301において、検知部18が、ドライバー等が表示装置13(モニタ)を注視しているか否かを確認する。注視している場合(Yesの場合)はステップS302へ進む。注視していない場合(Noの場合)はステップS304へ進む。 In step S301, the detection unit 18 checks whether the driver or the like is gazing at the display device 13 (monitor). If the user is watching (Yes), the process proceeds to step S302. If not gazed (No), the process proceeds to step S304.

ステップS302において、処理部11が、表示装置13(モニタ)は目標輝度に達しているか否かを判断する。目標輝度に達している場合(Yesの場合)、輝度をさらに上げる必要はなく、処理終了となる。目標輝度に達していない場合(Noの場合)、ステップS303へと進み、表示装置13(モニタ)の輝度を徐々に上げる。 In step S302, the processing unit 11 determines whether the display device 13 (monitor) has reached the target luminance. If the target luminance has been reached (Yes), there is no need to further increase the luminance, and the process ends. If the target luminance is not reached (No), the process proceeds to step S303 to gradually increase the luminance of the display device 13 (monitor).

ステップS304は、ドライバー等が表示装置13(モニタ)を注視していない場合(ステップS301参照)に行われる処理である。このとき、検知部18が、一定時間、非注視状態が継続しているか否かを判断する。非注視状態が一定時間継続している場合(Yesの場合)は、ステップS305へと進んで、表示装置13(モニタ)の減光を行う。一方、非注視状態が一定時間継続していない場合(Noの場合)は、上記減光処理をせず、処理終了となる。ドライバーが短時間に何度も表示装置13(モニタ)から目を離した時に、その都度減光を行うと、輝度の上下が短時間に繰り返されて煩わしいためである。 Step S304 is a process performed when the driver or the like is not looking at the display device 13 (monitor) (see step S301). At this time, the detection unit 18 determines whether or not the non-gazing state continues for a certain period of time. If the non-gazing state continues for a certain period of time (Yes), the process proceeds to step S305 to dim the display device 13 (monitor). On the other hand, if the non-gazing state has not continued for a certain period of time (if No), the light reduction process is not performed, and the process ends. This is because when the driver takes his or her eyes off the display device 13 (monitor) many times in a short period of time, if the light is dimmed each time, the brightness will repeatedly fluctuate in a short period of time, which is annoying.

図20は、表示装置13に表示される視界支援画像の比較図であり、(a)表示装置上の注視ポイントを示す図、(b)本開示の視界支援画像生成装置1Cを用いない場合の視界支援画像、(c)本開示の視界支援画像生成装置1Cを用いた場合の視界支援画像MPである。 FIG. 20 is a comparison diagram of the visibility support image displayed on the display device 13, (a) a diagram showing the gaze point on the display device, (b) when the visibility support image generation device 1C of the present disclosure is not used Visibility support image, (c) is a visibility support image MP when the visibility support image generation device 1C of the present disclosure is used.

本例では、ドライバーの注視ポイントが図20(a)に示した白い丸形の部分にある。これを踏まえて図20(b)と図20(c)とを比較すると、図20(b)においては、画像全体にピントが合っているため、距離感を感じづらい。一方、図20(c)においては、視界支援画像における注視ポイントから一定距離以上の部分をぼかすことで、疑似的に距離感を表現している。このことにより、視界支援画像を見るドライバー等に安心感を与えることができる。 In this example, the driver's gaze point is in the white circle portion shown in FIG. 20(a). Based on this, when comparing FIG. 20(b) and FIG. 20(c), in FIG. 20(b), since the entire image is in focus, it is difficult to sense the distance. On the other hand, in FIG. 20(c), a pseudo sense of distance is expressed by blurring a portion at a certain distance or more from the fixation point in the visibility support image. As a result, it is possible to give a sense of security to the driver or the like who sees the view support image.

また、図示は省略するが、視界支援画像に複数の建物(立体物)が映り込むことがある。例えば、遠くにあるビルと、近くにあるビルが映り込む。ここで、前記注視座標と同程度の距離にある建物は、ぼかしフィルタの適用後であっても、ピントが合った状態となる。すなわち、同定度の距離にどの建物があるかをドライバー等が認識することができる。この点もまた、本開示の視界支援画像生成装置1Cが奏する効果の一つと言える。 In addition, although illustration is omitted, a plurality of buildings (three-dimensional objects) may appear in the view support image. For example, a distant building and a nearby building are reflected. Here, a building at a distance similar to the gaze coordinates is in focus even after the blurring filter is applied. In other words, the driver or the like can recognize which building is at the distance of the degree of identification. This point can also be said to be one of the effects of the visibility support image generation device 1C of the present disclosure.

上記構成において、前記画像変換は、前記撮像画像内に含まれる深消失点を中心として、前記撮像画像の横方向から前記撮像画像の縦方向へと偏角が変わるにつれて、圧縮率が線形に変化するものであってよい。線形変化であれば、偏角に応じて圧縮率が徐々に変動するので、生成された視界支援画像も自然なものとなる。 In the above configuration, in the image conversion, the compression rate changes linearly as the declination angle changes from the horizontal direction of the captured image to the vertical direction of the captured image, centering on a deep vanishing point included in the captured image. It may be something to do. In the case of linear change, the compression ratio gradually changes according to the deflection angle, so the generated view support image also becomes natural.

上記構成において、前記画像変換は、前記深消失点からの距離が遠いほどに圧縮率が増加するものであってよい。この構成により、深消失点の周辺部は低圧縮として画像の情報量を保ちつつ、画角を自然に広げることが可能となる。 In the above configuration, the image conversion may increase the compression rate as the distance from the deep vanishing point increases. With this configuration, it is possible to naturally widen the angle of view while maintaining the information amount of the image by low-compression of the peripheral portion of the deep vanishing point.

上記構成において、前記画像変換は縦長楕円レンズモデルを用いた圧縮であってよい。縦長楕円モデルであれば、通常用いられる真円レンズモデルと形状が近く、画像変換後の表示画像における違和感が少ない。また、真円を規定するパラメータは半径rの1つのみであったのに対して、縦長楕円であれば長軸b、短軸cの2つのパラメータにすることができる。この2つのパラメータを適宜調節することで、従来では生じていた表示画像の違和感を少なくしつつ、画像の縦方向および横方向の圧縮率を柔軟に変動させることができる。 In the above configuration, the image conversion may be compression using an elongated elliptical lens model. The vertically elongated elliptical model has a shape similar to that of a perfectly circular lens model that is normally used, and there is little discomfort in the displayed image after image conversion. Also, while the perfect circle is defined by only one parameter, the radius r, a vertical ellipse can be defined by two parameters, the major axis b and the minor axis c. By appropriately adjusting these two parameters, it is possible to flexibly change the vertical and horizontal compression ratios of the image while reducing the discomfort of the displayed image that has conventionally occurred.

上記構成において、視界支援画像生成装置1は、前記視界支援画像を表示する表示部を更に備えてよい。かかる表示部に視界支援画像を表示することにより、ドライバー等が、横方向に視野の広がった自然な視覚支援画像を見ることができる。 In the above configuration, the visibility assistance image generation device 1 may further include a display unit that displays the visibility assistance image. By displaying the visual field support image on such a display unit, a driver or the like can view the natural visual field support image with a wider field of view in the horizontal direction.

また、本開示は、車両の視界支援画像を生成するための画像変換プログラムにも関する。前記画像変換プログラムは、装置が有する処理部に、画像の実像高と、真円レンズモデルの理想像高との対応関係を示すデータに基づいて、前記画像の実像高と、幾何学形状レンズモデルの理想像高との対応関係を算出するステップと、前記画像の実像高と、前記幾何学形状レンズモデルの理想像高との対応関係に基づいて、前記画像に含まれる各画素の圧縮率を算出するステップと、前記各画素の圧縮率に基づいて、前記画像を圧縮するステップとを実行させ、前記幾何学形状は、前記幾何学形状の中心から横方向に向かう長さが、前記幾何学形状の中心から縦方向に向かう長さよりも短いものであってよい。前記構成により、車両のドアミラー等に設けたカメラが撮像した入力画像から、ドライバー等にとって違和感が少なく、また、外界の適切な状況把握ができる視界支援画像を提供することができる。 The present disclosure also relates to an image conversion program for generating a visibility assistance image of a vehicle. The image conversion program instructs the processing unit of the apparatus to convert the real image height of the image and the geometric lens model based on the data indicating the correspondence relationship between the real image height of the image and the ideal image height of the perfect circular lens model. calculating the correspondence relationship between the ideal image height and the compression ratio of each pixel included in the image based on the correspondence relationship between the real image height of the image and the ideal image height of the geometric lens model and compressing the image based on the compression rate of each pixel, wherein the geometric shape has a length laterally from the center of the geometric shape that is equal to the geometric shape It may be shorter than the length in the longitudinal direction from the center of the shape. According to the above configuration, it is possible to provide a visual field support image from an input image captured by a camera provided in a door mirror or the like of a vehicle so that the driver or the like is less uncomfortable and can appropriately grasp the situation of the outside world.

上記構成において、前記幾何学形状は、前記幾何学形状の中心からの距離が、前記幾何学形状の横方向から縦方向へと偏角が変わるにつれて、線形に変化するものであってよい。線形変化であれば、偏角に応じて圧縮率が徐々に変動するので、当該プログラムを用いて生成された画像も、ドライバー等にとって自然なものとなる。 In the above configuration, the geometric shape may vary linearly as the distance from the center of the geometric shape changes as the deflection angle changes from the horizontal direction to the vertical direction of the geometric shape. If it is a linear change, the compression rate will gradually change according to the angle of argument, so the image generated using the program will also look natural to the driver.

上記構成において、前記幾何学形状は縦長楕円であってよい。縦長楕円モデルであれば、通常用いられる真円レンズモデルと形状が近く、画像変換後の視界支援画像における違和感が少ない。また、真円を規定するパラメータは半径rの1つのみであったのに対して、縦長楕円であれば長軸b、短軸cの2つのパラメータにすることができる。この2つのパラメータを適宜調節することで、従来では生じていた表示画像の違和感を少なくしつつ、画像の縦方向および横方向の圧縮率を柔軟に変動させることができる。 In the above configuration, the geometric shape may be an elongated ellipse. The vertically elongated elliptical model has a shape similar to that of a perfectly circular lens model that is normally used, and there is less sense of discomfort in the field-of-view support image after image conversion. Also, while the perfect circle is defined by only one parameter, the radius r, a vertical ellipse can be defined by two parameters, the major axis b and the minor axis c. By appropriately adjusting these two parameters, it is possible to flexibly change the vertical and horizontal compression ratios of the image while reducing the discomfort of the displayed image that has conventionally occurred.

また、車両が視界支援画像生成装置と、表示装置と、近接車両位置算出装置とを備え、前記近接車両位置算出装置は、自車両である前記車両が走行する車線の隣接車線を走行する、最も近い車両である検出車両の位置情報を取得し、前記視界支援画像生成装置は、前記自車両からの画像を撮像するカメラと、処理部とを備え、前記処理部は、前記カメラが撮像した撮像画像を画像変換して視界支援画像を生成し、前記表示装置は、前記視界支援画像を表示し、前記視界支援画像は、検出車両表示部とアスフェリカル部とを有しており、前記アスフェリカル部における圧縮率は、前記検出車両表示部における圧縮率よりも高く、前記検出車両は前記検出車両表示部に表示され、前記検出車両の、前記検出車両表示部における表示位置が、前記検出車両表示部内の所定の箇所を超えた後は、前記視界支援画像における前記検出車両表示部の位置が、前記検出車両の表示位置の移動に追随してよい。 In addition, the vehicle includes a visibility support image generation device, a display device, and an approaching vehicle position calculation device, and the approaching vehicle position calculation device is the closest vehicle traveling in a lane adjacent to the lane in which the vehicle, which is the own vehicle, travels. Acquiring position information of a detected vehicle that is a nearby vehicle, the visibility support image generation device includes a camera that captures an image from the own vehicle, and a processing unit, and the processing unit captures the image captured by the camera. An image is image-converted to generate a visibility assistance image, the display device displays the visibility assistance image, the visibility assistance image has a detected vehicle display portion and an aspherical portion, and the aspherical portion The compression rate is higher than the compression rate in the detected vehicle display section, the detected vehicle is displayed in the detected vehicle display section, and the display position of the detected vehicle in the detected vehicle display section is the same as that in the detected vehicle display section. After exceeding the predetermined position, the position of the detected vehicle display portion in the visibility support image may follow the movement of the display position of the detected vehicle.

同様に、車両の視界支援画像を生成する視界支援画像生成装置が、車両からの画像を撮像するカメラと、処理部とを備え、前記処理部は、近接車両位置算出装置から、自車両である前記車両が走行する車線の隣接車線を走行する、最も近い車両である検出車両の位置情報を取得し、前記処理部は、前記カメラが撮像した撮像画像を画像変換して、表示用の視界支援画像を生成し、前記視界支援画像は、検出車両表示部とアスフェリカル部とを有しており、前記アスフェリカル部における圧縮率は、前記検出車両表示部における圧縮率よりも高く、前記検出車両は前記検出車両表示部に表示され、前記検出車両の、前記検出車両表示部における表示位置が、前記検出車両表示部内の所定の箇所を超えた後は、前記視界支援画像における前記検出車両表示部の位置が、前記検出車両の表示位置の移動に追随してよい。 Similarly, a visibility support image generation device for generating a visibility support image of a vehicle includes a camera that captures an image from the vehicle and a processing unit, and the processing unit is the own vehicle from the nearby vehicle position calculation device. Acquires the position information of the detected vehicle, which is the closest vehicle traveling in a lane adjacent to the lane in which the vehicle travels, and the processing unit converts the captured image captured by the camera into an image to support visual field for display. generating an image, wherein the visibility assistance image has a detected vehicle display portion and an aspherical portion, wherein a compression ratio in the aspherical portion is higher than a compression ratio in the detected vehicle display portion, and the detected vehicle is the After the display position of the detected vehicle in the detected vehicle display portion exceeds a predetermined position in the detected vehicle display portion, the position of the detected vehicle display portion in the view support image is displayed on the detected vehicle display portion. may follow the movement of the display position of the detected vehicle.

上記構成により、ドライバー等にとって違和感の無い視界支援画像を提供することができる。さらに、視界支援画像には依然としてアスフェリカル部に相当する箇所があるため、高画角の表示が可能である。 With the above configuration, it is possible to provide a visual field support image that does not cause discomfort to the driver or the like. Furthermore, since the visibility support image still has a portion corresponding to the aspherical portion, it is possible to display with a wide angle of view.

上記構成において、前記視界支援画像がアスフェリカル部を2つ有しており、前記2つのアスフェリカル部が、前記視界支援画像における前記検出車両表示部の左右にそれぞれ配置されてよい。また、前記視界支援画像における前記検出車両表示部の位置が、前記検出車両の表示位置の移動に追随するのに応じて、前記2つのアスフェリカル部における画角または画素数が変化し、前記2つのアスフェリカル部における画角または画素数の変化は、前記視界支援画像における画角または画素数が所定の値に維持されるように行われてよい。前記構成により、前記検出車両表示部の位置が前記検出車両の表示位置の移動に追随しても、2つ目のアスフェリカル部が前記視界支援画像の画角を補うことができる。 In the above configuration, the visibility assistance image may have two aspherical portions, and the two aspherical portions may be arranged on the left and right sides of the detected vehicle display portion in the visibility assistance image. Further, as the position of the detected vehicle display portion in the view support image follows the movement of the display position of the detected vehicle, the angle of view or the number of pixels in the two aspherical portions changes, and the two The angle of view or the number of pixels in the aspherical portion may be changed so that the angle of view or the number of pixels in the visibility support image is maintained at a predetermined value. With the above configuration, even if the position of the detected vehicle display portion follows the movement of the display position of the detected vehicle, the second aspherical portion can compensate for the angle of view of the visibility support image.

上記構成において、前記視界支援画像における、前記検出車両の表示位置が、前記視界支援画像に表示可能な最大画角範囲における、前記検出車両の移動の仕方に追従するように割り当てられてよい。前記構成により、視界支援画像における検出車両の移動を違和感なく表示することができる。 In the above configuration, the display position of the detected vehicle in the visibility support image may be assigned so as to follow the movement of the detected vehicle in the maximum view angle range displayable in the visibility support image. With the above configuration, it is possible to display the movement of the detected vehicle in the visibility support image without causing a sense of incongruity.

上記構成において、前記視界支援画像における前記検出車両の表示位置が、前記カメラと前記検出車両との間の相対位置と極座標上で一致するように割り当てられてよい。前記構成により、視界支援画像における検出車両の角度的位置が、車両の乗員が肉眼で見るのと同様の位置に表示されるので、違和感が少ない。 In the above configuration, the display position of the detected vehicle in the visibility support image may be assigned so as to match the relative position between the camera and the detected vehicle on polar coordinates. With the above configuration, the angular position of the detected vehicle in the visual field support image is displayed at the same position as seen by the occupant of the vehicle with the naked eye, so there is little sense of discomfort.

また、視界支援画像生成装置を備えた車両において、前記視界支援画像生成装置は、処理部と、第1カメラと、第2カメラと、第1カメラが撮像した画像に基づいて生成された視界支援画像を表示する表示装置と、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出する検知部と、を備え、前記処理部が、第1カメラが撮像した画像における、第1カメラから被写体までの距離を、前記第1カメラと前記第2カメラの間に生じる視差を用いて算出し、前記検知部が、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出し、前記処理部が、前記注視ポイントに基づいて、前記視界支援画像における、前記乗員の注視座標を推定し、前記処理部が、前記視界支援画像における前記注視座標を中心にした、前記距離に応じたぼかしフィルタを、前記視界支援画像に対して適用してよい。 Further, in a vehicle equipped with a visibility support image generation device, the visibility support image generation device includes a processing unit, a first camera, a second camera, and a visibility support image generated based on an image captured by the first camera. a display device that displays an image; and a detection unit that detects a gaze point of an occupant on the vehicle in the display device, and the processing unit detects the subject from the first camera in the image captured by the first camera. The distance to is calculated using the parallax generated between the first camera and the second camera, and the detection unit detects the gaze point on the display device of the occupant riding in the vehicle, and the processing unit estimates the occupant's gaze coordinates in the visibility support image based on the gaze point, and the processing unit applies a blur filter based on the distance centered on the gaze coordinates in the visibility assistance image , may be applied to the visibility assistance image.

同様に、車両の視界支援画像を生成する視界支援画像生成装置が、処理部と、第1カメラと、第2カメラと、第1カメラが撮像した画像に基づいて生成された視界支援画像を表示する表示装置と、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出する検知部と、を備え、前記処理部が、第1カメラが撮像した画像における、第1カメラから被写体までの距離を、前記第1カメラと前記第2カメラの間に生じる視差を用いて算出し、前記検知部が、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出し、前記処理部が、前記注視ポイントに基づいて、前記視界支援画像における、前記乗員の注視座標を推定し、前記処理部が、前記視界支援画像における前記注視座標を中心にした、前記距離に応じたぼかしフィルタを、前記視界支援画像に対して適用してよい。 Similarly, a visibility support image generation device that generates a visibility support image of the vehicle displays the visibility support image generated based on the images captured by the processing unit, the first camera, the second camera, and the first camera. and a detection unit that detects a gaze point of an occupant in the vehicle on the display device, and the processing unit detects the distance from the first camera to the subject in the image captured by the first camera. is calculated using the parallax generated between the first camera and the second camera, the detection unit detects a gaze point on the display device of an occupant riding in the vehicle, and the processing unit calculates the Based on the gaze point, the occupant's gaze coordinates in the visibility support image are estimated, and the processing unit applies a blur filter according to the distance centered on the gaze coordinates in the visibility support image to the field of view. May be applied to support images.

上記構成により、車両に搭乗するドライバー等は、視界支援画像上で距離感を得ることができる。 With the above configuration, a driver or the like in a vehicle can obtain a sense of distance on the visibility support image.

上記構成において、前記ぼかしフィルタは、前記注視座標を基準にした、所定の距離以上の画素または画素ブロックに対してぼかしが適用されるものであってよい。また、前記ぼかしフィルタは、前記注視座標からの距離が大きくなるほどに強いぼかしが適用されるものであってよい。前記構成により、注視座標と距離の近い箇所がピントの合った状態となり、注視座標と距離の遠い箇所はぼけた状態となるので、車両に搭乗するドライバー等は、視界支援画像上で距離感をより明確に得ることができる。また、前記注視座標からの距離が大きくなるほどに強いぼかしがかけられることにより、ドライバー等の注意力は注視座標付近へと集中し、ドライバー等は、さらに明確な距離感を得ることができる。 In the above configuration, the blurring filter may apply blurring to pixels or pixel blocks at a predetermined distance or more with respect to the gaze coordinates. Further, the blurring filter may apply stronger blurring as the distance from the gaze coordinate increases. With the above-described configuration, a point close to the gaze coordinates is in focus, and a point distant from the gaze coordinates is out of focus. can be obtained more clearly. Further, by applying stronger blurring as the distance from the gaze coordinate increases, the driver's attention is focused on the vicinity of the gaze coordinate, and the driver can obtain a clearer sense of distance.

上記構成において、前記ぼかしフィルタの、前記距離についての分解能が、前記第1カメラおよび前記第2カメラの視差検出精度に応じて設定されてよい。前記構成により、複数のカメラの視差検出精度が良い場合には、視界支援画像上で、より細やかな距離感を表現することができる。 In the above configuration, the resolution of the distance of the blurring filter may be set according to the parallax detection accuracy of the first camera and the second camera. With the above configuration, when the parallax detection accuracy of a plurality of cameras is high, it is possible to express a more detailed sense of distance on the view support image.

上記構成において、前記検知部が、前記乗員の注視ポイントが前記表示装置上に無いことを検知した時に、前記表示装置の輝度を低下させてよい。また、前記検知部が、前記乗員の注視ポイントが前記表示装置上にあることを検知した時に、前記処理部が前記表示装置の輝度を徐々に上昇させてよい。前記構成により、車両の乗員が表示装置を見ているか否かによって、表示装置の輝度を適切に制御しつつ、注視ポイントを適切に検出することができる。 In the above configuration, the luminance of the display device may be reduced when the detection unit detects that the occupant's gaze point is not on the display device. Further, when the detection unit detects that the occupant's gaze point is on the display device, the processing unit may gradually increase the brightness of the display device. With the above configuration, it is possible to appropriately detect the gaze point while appropriately controlling the brightness of the display device depending on whether or not the vehicle occupant is looking at the display device.

以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施形態における各構成要素を任意に組み合わせてもよい。 Various embodiments have been described above with reference to the drawings, but it goes without saying that the present invention is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications or modifications within the scope described in the claims, and these also belong to the technical scope of the present invention. Understood. Moreover, each component in the above embodiments may be combined arbitrarily without departing from the spirit of the invention.

1 視界支援画像生成装置
1B 視界支援画像生成装置
1C 視界支援画像生成装置
11 処理部
12 カメラ
13 表示装置
14 不揮発性メモリ
15 近接車両位置算出装置
16 カメラ
18 検知部
50 レンズ
51 評価面
52 実像高
53 理想像高
100 自車両
A アスフェリカル部
A1 アスフェリカル部
A2 アスフェリカル部
D 検出車両表示部
E 縦長楕円レンズモデル
in 入力画像
out 出力画像
M ドアミラー
M1 ミラー部
M2 アスフェリカル部
MP 視界支援画像
OBJ1~OBJ4 物体
PCL 間隔線
1 visibility assistance image generation device 1B visibility assistance image generation device 1C visibility assistance image generation device 11 processing unit 12 camera 13 display device 14 nonvolatile memory 15 proximity vehicle position calculation device 16 camera 18 detection unit 50 lens 51 evaluation surface 52 real image height 53 Ideal image height 100 Own vehicle A Aspherical part A1 Aspherical part A2 Aspherical part D Detected vehicle display part E Vertical elliptical lens model I In input image I out output image M Door mirror M1 Mirror part M2 Aspherical part MP Visibility support images OBJ1 to OBJ4 Object PCL interval line

Claims (12)

視界支援画像生成装置を備えた車両であって、
前記視界支援画像生成装置は、
処理部と、
第1カメラと、第2カメラと、
第1カメラが撮像した画像に基づいて生成された視界支援画像を表示する表示装置と、
車両に搭乗する乗員の、前記表示装置における注視ポイントを検出する検知部と、
を備え、
前記処理部が、第1カメラが撮像した画像における、第1カメラから被写体までの距離を、前記第1カメラと前記第2カメラの間に生じる視差を用いて算出し、
前記検知部が、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出し、
前記処理部が、前記注視ポイントに基づいて、前記視界支援画像における、前記乗員の注視座標を推定し、
前記処理部が、前記視界支援画像における前記注視座標を中心にした、前記距離に応じたぼかしフィルタを、前記視界支援画像に対して適用する、
車両。
A vehicle equipped with a vision support image generation device,
The visibility support image generation device,
a processing unit;
a first camera, a second camera,
a display device that displays a visibility support image generated based on an image captured by the first camera;
a detection unit that detects a gaze point on the display device of an occupant riding in the vehicle;
with
The processing unit calculates the distance from the first camera to the subject in the image captured by the first camera using the parallax generated between the first camera and the second camera,
The detection unit detects a gaze point on the display device of an occupant riding in the vehicle,
The processing unit estimates gaze coordinates of the occupant in the visibility support image based on the gaze point,
The processing unit applies a blurring filter according to the distance centered on the gaze coordinate in the view support image to the view support image.
vehicle.
請求項1に記載の車両であって、
前記ぼかしフィルタは、前記注視座標を基準にした、前記距離が所定の閾値以上の画素または画素ブロックに対してぼかしが適用されるものである、
車両。
A vehicle according to claim 1,
The blurring filter applies blurring to pixels or pixel blocks whose distance is equal to or greater than a predetermined threshold with respect to the gaze coordinates.
vehicle.
請求項1または請求項2に記載の車両であって、
前記ぼかしフィルタは、前記注視座標を基準にした前記距離が大きくなるほどに強いぼかしが適用されるものである、
車両。
A vehicle according to claim 1 or claim 2,
The blurring filter applies stronger blurring as the distance based on the gaze coordinates increases.
vehicle.
請求項1から請求項3のいずれか1項に記載の車両であって、
前記ぼかしフィルタの、前記距離についての分解能が、前記第1カメラおよび前記第2カメラの視差検出精度に応じて設定される、
車両。
A vehicle according to any one of claims 1 to 3,
The resolution of the distance of the blurring filter is set according to the parallax detection accuracy of the first camera and the second camera.
vehicle.
請求項1から請求項4のいずれか1項に記載の車両であって、
前記検知部が、前記乗員の注視ポイントが前記表示装置上に無いことを検知した時に、前記表示装置の輝度を低下させる、
車両。
A vehicle according to any one of claims 1 to 4,
When the detection unit detects that the occupant's gaze point is not on the display device, the brightness of the display device is reduced.
vehicle.
請求項1から請求項5のいずれか1項に記載の車両であって、
前記検知部が、前記乗員の注視ポイントが前記表示装置上にあることを検知した時に、前記処理部が前記表示装置の輝度を徐々に上昇させる、
車両。
A vehicle according to any one of claims 1 to 5,
When the detection unit detects that the gaze point of the occupant is on the display device, the processing unit gradually increases the brightness of the display device.
vehicle.
車両の視界支援画像を生成する視界支援画像生成装置であって、
処理部と、
第1カメラと、第2カメラと、
第1カメラが撮像した画像に基づいて生成された視界支援画像を表示する表示装置と、
車両に搭乗する乗員の、前記表示装置における注視ポイントを検出する検知部と、
を備え、
前記処理部が、第1カメラが撮像した画像における、第1カメラから被写体までの距離を、前記第1カメラと前記第2カメラの間に生じる視差を用いて算出し、
前記検知部が、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出し、
前記処理部が、前記注視ポイントに基づいて、前記視界支援画像における、前記乗員の注視座標を推定し、
前記処理部が、前記視界支援画像における前記注視座標を中心にした、前記距離に応じたぼかしフィルタを、前記視界支援画像に対して適用する、
視界支援画像生成装置。
A visibility support image generation device for generating a visibility support image of a vehicle,
a processing unit;
a first camera, a second camera,
a display device that displays a visibility support image generated based on an image captured by the first camera;
a detection unit that detects a gaze point on the display device of an occupant riding in the vehicle;
with
The processing unit calculates the distance from the first camera to the subject in the image captured by the first camera using the parallax generated between the first camera and the second camera,
The detection unit detects a gaze point on the display device of an occupant riding in the vehicle,
The processing unit estimates gaze coordinates of the occupant in the visibility support image based on the gaze point,
The processing unit applies a blurring filter according to the distance centered on the gaze coordinate in the view support image to the view support image.
Vision support image generation device.
請求項7に記載の視界支援画像生成装置であって、
前記ぼかしフィルタは、前記注視座標を基準にした、前記距離が所定の閾値以上の画素または画素ブロックに対してぼかしが適用されるものである、
視界支援画像生成装置。
The visibility support image generation device according to claim 7,
The blurring filter applies blurring to pixels or pixel blocks whose distance is equal to or greater than a predetermined threshold with respect to the gaze coordinates.
Vision support image generation device.
請求項7または請求項8に記載の視界支援画像生成装置であって、
前記ぼかしフィルタは、前記注視座標を基準にした、前記距離が大きくなるほどに強いぼかしが適用されるものである、
視界支援画像生成装置。
The visibility support image generation device according to claim 7 or claim 8,
The blurring filter applies stronger blurring as the distance increases based on the gaze coordinates.
Vision support image generation device.
請求項7から請求項9のいずれか1項に記載の視界支援画像生成装置であって、
前記ぼかしフィルタの、前記距離についての分解能が、前記第1カメラおよび前記第2カメラの視差検出精度に応じて設定される、
視界支援画像生成装置。
The visibility support image generation device according to any one of claims 7 to 9,
The resolution of the distance of the blurring filter is set according to the parallax detection accuracy of the first camera and the second camera.
Vision support image generation device.
請求項7から請求項10のいずれか1項に記載の視界支援画像生成装置であって、
前記検知部が、前記乗員の注視ポイントが前記表示装置上に無いことを検知した時に、前記表示装置の輝度を低下させる、
視界支援画像生成装置。
The visibility support image generation device according to any one of claims 7 to 10,
When the detection unit detects that the occupant's gaze point is not on the display device, the brightness of the display device is reduced.
Vision support image generation device.
請求項7から請求項11のいずれか1項に記載の視界支援画像生成装置であって、
前記検知部が、前記乗員の注視ポイントが前記表示装置上にあることを検知した時に、前記処理部が前記表示装置の輝度を徐々に上昇させる、
視界支援画像生成装置。
The visibility support image generation device according to any one of claims 7 to 11,
When the detection unit detects that the gaze point of the occupant is on the display device, the processing unit gradually increases the brightness of the display device.
Vision support image generation device.
JP2019069444A 2019-03-29 2019-03-29 Visibility support image generation device and image conversion program Active JP7291900B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019069444A JP7291900B2 (en) 2019-03-29 2019-03-29 Visibility support image generation device and image conversion program
DE102020107949.4A DE102020107949A1 (en) 2019-03-29 2020-03-23 Field of view assist image generation apparatus and image conversion method
US16/828,493 US10988083B2 (en) 2019-03-29 2020-03-24 Visual field support image generation device and image conversion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019069444A JP7291900B2 (en) 2019-03-29 2019-03-29 Visibility support image generation device and image conversion program

Publications (2)

Publication Number Publication Date
JP2020167649A JP2020167649A (en) 2020-10-08
JP7291900B2 true JP7291900B2 (en) 2023-06-16

Family

ID=72714458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019069444A Active JP7291900B2 (en) 2019-03-29 2019-03-29 Visibility support image generation device and image conversion program

Country Status (1)

Country Link
JP (1) JP7291900B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009279146A (en) 2008-05-21 2009-12-03 Toyota Central R&D Labs Inc Apparatus and program for image processing
JP2019004348A (en) 2017-06-16 2019-01-10 ディーピーティー株式会社 Moving object image display device and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009279146A (en) 2008-05-21 2009-12-03 Toyota Central R&D Labs Inc Apparatus and program for image processing
JP2019004348A (en) 2017-06-16 2019-01-10 ディーピーティー株式会社 Moving object image display device and method thereof

Also Published As

Publication number Publication date
JP2020167649A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
JP5619873B2 (en) Device for supporting driving of a vehicle
JP6379779B2 (en) Vehicle display device
JP6264037B2 (en) Vehicle information display device and vehicle information display method
EP2894620B1 (en) Vehicle information display device and vehicle information display method
US9232195B2 (en) Monitoring of the close proximity around a commercial vehicle
KR102057021B1 (en) Panel transformation
US11273763B2 (en) Image processing apparatus, image processing method, and image processing program
CN111727399B (en) Display system, mobile object, and design method
CN114489332A (en) Display method and system of AR-HUD output information
KR101209796B1 (en) Display device for vehicle with foreground penetration function and display method of the same
CN111556281A (en) Vehicle safety system and operation method thereof
US10988083B2 (en) Visual field support image generation device and image conversion method
JP7291900B2 (en) Visibility support image generation device and image conversion program
JP7291901B2 (en) Visibility support image generation device and image conversion program
JP5305750B2 (en) Vehicle periphery display device and display method thereof
JP6573218B2 (en) VEHICLE IMAGE DISPLAY DEVICE AND SETTING METHOD
JP6439233B2 (en) Image display apparatus for vehicle and image processing method
JP7480756B2 (en) Vehicle display control device, vehicle display device, vehicle display control method, and vehicle display control program
JP2010195271A (en) Parking support device and display method of parking support image
JP2019083385A (en) Head-up display unit
JP6415968B2 (en) COMMUNICATION DEVICE, WARNING DEVICE, DISPLAY DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP7223283B2 (en) IMAGE PROCESSING UNIT AND HEAD-UP DISPLAY DEVICE INCLUDING THE SAME
KR101453335B1 (en) Rear-view camera system for a vehicle
JP6943079B2 (en) Image processing unit and head-up display device equipped with it
WO2019163564A1 (en) Vehicle visual confirmation device and angle-of-view setting method for imaging unit in vehicle visual confirmation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230525

R150 Certificate of patent or registration of utility model

Ref document number: 7291900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03