JP7291900B2 - Visibility support image generation device and image conversion program - Google Patents
Visibility support image generation device and image conversion program Download PDFInfo
- Publication number
- JP7291900B2 JP7291900B2 JP2019069444A JP2019069444A JP7291900B2 JP 7291900 B2 JP7291900 B2 JP 7291900B2 JP 2019069444 A JP2019069444 A JP 2019069444A JP 2019069444 A JP2019069444 A JP 2019069444A JP 7291900 B2 JP7291900 B2 JP 7291900B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- support image
- camera
- visibility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 85
- 238000001514 detection method Methods 0.000 claims description 33
- 238000007906 compression Methods 0.000 description 64
- 230000006835 compression Effects 0.000 description 63
- 238000010586 diagram Methods 0.000 description 38
- 238000006243 chemical reaction Methods 0.000 description 33
- 238000000034 method Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 19
- 230000003287 optical effect Effects 0.000 description 17
- 230000000007 visual effect Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 14
- 238000012544 monitoring process Methods 0.000 description 10
- 238000007796 conventional method Methods 0.000 description 9
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、車両の乗員に対して表示する視界支援画像を生成する装置、および画像変換プログラムに関する。 TECHNICAL FIELD The present invention relates to an apparatus for generating a visibility support image to be displayed to an occupant of a vehicle, and an image conversion program.
車両のドアミラーにつき、横方向(車両のドライバーから見た左右方向の、自車両から離れる方向)の死角を減らす為に、光学ミラーであるアスフェリカルミラーを用いるものがある。図1は、既存技術である光学アスフェリカルミラーの模式図であり、ドアミラーMが通常のミラー部M1とアスフェリカル部M2を備える。アスフェリカル部M2は、曲率を変化させ、前記横方向についてより広範囲の像が映るようにしている。 2. Description of the Related Art Some vehicle door mirrors use aspherical mirrors, which are optical mirrors, in order to reduce blind spots in the lateral direction (left and right directions as seen by the driver of the vehicle, away from the own vehicle). FIG. 1 is a schematic diagram of an existing optical aspherical mirror, in which a door mirror M has a normal mirror portion M1 and an aspherical portion M2. The aspherical portion M2 changes its curvature so that a wider range of images can be seen in the lateral direction.
ドアミラーMに撮像用のカメラをさらに備えたCMS(カメラモニタリングシステム)においても、上記の光学ミラーであるアスフェリカルミラーを模した原理により、前記横方向に画角を広げている。すなわち、カメラが撮像した画像における、上記ドアミラーMのアスフェリカル部M2に相当する領域に、前記横方向に圧縮をかけ、当該圧縮後の画像を表示器に表示している。 Also in a CMS (camera monitoring system) in which the door mirror M is further provided with a camera for imaging, the angle of view is widened in the lateral direction by the principle imitating the aspherical mirror, which is the optical mirror. That is, the area corresponding to the aspherical portion M2 of the door mirror M in the image captured by the camera is compressed in the horizontal direction, and the image after the compression is displayed on the display.
特許文献1には、車両の後側方の撮像画像を、横方向に変化する倍率で拡大又は圧縮してなる画像を表示器に表示させる場合に、自車両の前後方向に延在するはずの白線等の走行領域区分線が表示器に表示される画像中で曲がって表示されるのを防止するために、設定された横方向拡縮倍率で撮像画像の各部を横方向にスケール修正する横スケール修正処理と、横スケールが修正された画像中で曲がって表示される走行領域区分線の画像が直線状に延在するように設定された縦方向拡縮倍率でさらに部分的に縦方向にスケール修正する縦スケール修正処理を実行することが開示されている。
In
ところで、車両の乗員、特にドライバー(以下、ドライバー等と表記する)の視点で考えると、当該ドライバー等は、車載モニタ等に表示された表示画像を見ることになる。この表示画像の元となる画像は、ドアミラー等に備えられたカメラによって撮像されたものである。この表示画像は違和感の少ない状態で表示されるのが好ましい。 By the way, from the point of view of an occupant of a vehicle, especially a driver (hereinafter referred to as a driver, etc.), the driver, etc., sees a display image displayed on an in-vehicle monitor or the like. The original image of this display image is captured by a camera provided in a door mirror or the like. It is preferable that this display image is displayed in a state in which there is little sense of incongruity.
また、ドアミラーは車両の外(以下、外界と表記する)の状況を把握するためのものであるから、外界の適切な状況把握ができる表示画像であることも望まれる。 In addition, since the door mirror is for grasping the situation outside the vehicle (hereinafter referred to as "outside world"), it is also desired that the display image is capable of appropriately grasping the situation in the outside world.
本開示は上記の観点から、違和感が少なく、また、外界の適切な状況把握ができる表示画像を提供することを目的とする。 From the above viewpoint, an object of the present disclosure is to provide a display image that gives less sense of incongruity and allows an appropriate grasp of the situation in the outside world.
車両の視界支援画像を生成する視界支援画像生成装置が、車両からの画像を撮像するカメラと、処理部を備え、前記カメラが撮像した撮像画像を、前記処理部が画像変換することで、前記視界支援画像を生成し、前記画像変換は、前記撮像画像内に含まれる深消失点を中心として、前記撮像画像の横方向における圧縮率が、前記撮像画像の縦方向における圧縮率よりも高くなるように、前記撮像画像を圧縮するものである。前記構成により、生成した視界支援画像が、違和感が少なく、かつ、外界の適切な状況把握ができるものになる。 A visibility support image generation device for generating a visibility support image of a vehicle includes a camera that captures an image from the vehicle and a processing unit, and the processing unit converts the captured image captured by the camera, so that the A field of vision support image is generated, and the image conversion is such that a compression rate in the horizontal direction of the captured image is higher than a compression rate in the vertical direction of the captured image, centering on a deep vanishing point included in the captured image. As described above, the captured image is compressed. With the above configuration, the generated visual field support image has less sense of incongruity and allows appropriate grasping of the situation of the outside world.
違和感が少なく、外界の適切な状況把握ができる表示画像を提供することができる。 It is possible to provide a display image that gives less sense of incongruity and enables an appropriate grasp of the situation in the outside world.
以下、車両は右ハンドルの自動車であり、ドライバーの死角になりやすい右側のドアミラーに設けたカメラによって撮像した撮像画像を用いて、車内に設けた表示装置に表示画像を表示する、という前提で、適宜図面を参照しながら詳細に説明する。ただし、特許請求の範囲に記載の主題をこの前提のみに限定することは意図されていない。例えば、車両以外の移動体や、車両が有するハンドルの位置(左ハンドル、右ハンドル、ハンドルがそもそも存在しない自動運転)や、カメラを取り付ける位置(左ドアミラー、右ドアミラー、その他)等の、種々の変形があり得る。 Below, it is assumed that the vehicle is a right-hand drive vehicle, and that a display image is displayed on a display device provided in the vehicle using a captured image captured by a camera provided on the right door mirror, which is likely to be a blind spot for the driver. A detailed description will be given with appropriate reference to the drawings. However, it is not intended to limit the claimed subject matter to only this premise. For example, a moving body other than a vehicle, the position of the steering wheel of the vehicle (left steering wheel, right steering wheel, automatic driving without a steering wheel in the first place), and the camera mounting position (left door mirror, right door mirror, etc.). Deformation is possible.
添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure and are not intended to limit the claimed subject matter thereby.
図2は、本開示の視界支援画像生成装置1(図3に基づき後述)による画像生成の原理を示す模式図であり、(a)レンズモデルの一例を示す図、(b)撮像画像(入力画像)を示す図、(c)表示画像(出力画像)を示す図である。 FIG. 2 is a schematic diagram showing the principle of image generation by the visibility support image generation device 1 (described later based on FIG. 3) of the present disclosure, (a) a diagram showing an example of a lens model, (b) a captured image (input image), and (c) a diagram showing a display image (output image).
本開示の視界支援画像生成装置1においては、撮像画像内に含まれる深消失点を中心として、撮像画像の横方向における圧縮率が、撮像画像の縦方向における圧縮率よりも高くなるように、前記撮像画像を圧縮できるような幾何学形状レンズモデルを用いる。幾何学形状レンズモデルとして、本実施形態においては、図2(a)に示した縦長楕円レンズモデルEを用いる。
In the visibility support
この縦長楕円レンズモデルEにおける長軸(縦軸)の長さをb、短軸(横軸)の長さをcとすると、b>cである。そして、後述するが、この縦長楕円レンズモデルEを用いると、画像の圧縮率は横方向から縦方向に線形に変化することになる。これを言い換えると、横方向を偏角0度、縦方向を偏角90度とした場合、偏角が0度から90度へと増加するにつれて、圧縮率は線形に減少する。また、これも後述するが、楕円の中心からの距離が遠いほどに、圧縮率が増加するものとなる。 Let b be the length of the major axis (vertical axis) and c be the length of the minor axis (horizontal axis) of the oblong elliptical lens model E, then b>c. As will be described later, if this vertically elongated elliptical lens model E is used, the compression rate of the image will linearly change from the horizontal direction to the vertical direction. In other words, assuming that the angle of deflection is 0 degrees in the horizontal direction and the angle of deflection is 90 degrees in the vertical direction, the compression rate decreases linearly as the angle of deflection increases from 0 degrees to 90 degrees. Also, as will be described later, the greater the distance from the center of the ellipse, the greater the compression rate.
図2(b)は、入力画像Iinを示す図であり、本実施形態においては、自車両100の右ドアミラーに取り付けられたカメラが撮像した撮像画像に相当する。
FIG. 2(b) is a diagram showing the input image Iin , which corresponds to a captured image captured by a camera attached to the right door mirror of the
入力画像Iinの中には、その左側に、自車両100の車体が映り込んでいる。また、説明の為の一例にすぎないが、入力画像Iinの中には、物体OBJ1~OBJ4が映りこんでいる。この例においては、物体OBJ1~OBJ4はそれぞれ、自車両100の隣のレーンを走行中の、自車両100とは異なる車両である。
The body of the
図2(c)は、出力画像Ioutを示す図であり、本実施形態においては、自車両100の内部に取り付けられたモニタによって、右ハンドルを握るドライバーへ向けて表示される表示画像に相当する。
FIG. 2(c) is a diagram showing the output image Iout , which in this embodiment corresponds to a display image displayed toward the driver holding the right steering wheel by a monitor mounted inside the
図2(c)から分かるように、出力画像Ioutにも、自車両100の車体と、物体OBJ1~OBJ4とが映り込んでいる。ここで、入力画像Iin(図2(b))と出力画像Iout(図2(c))とを比較すると、出力画像Ioutに映りこんでいる物体OBJ1~OBJ4は、横方向の圧縮率の方が、縦方向の圧縮率よりも高くなっている。すなわち、横方向に画角が広がる。なお、このような出力画像Ioutが、違和感が少なく、また、外界の適切な状況把握ができる表示画像である事については、後述する。
As can be seen from FIG. 2(c), the output image I out also includes the body of the
図3は、本開示の視界支援画像生成装置1の実施例を示す構成図である。本開示の視界支援画像生成装置1は、処理部11とカメラ12とを備える。なお、これら以外の構成要素を備えていてもよい。図示しているように、視界支援画像生成装置1が不揮発性メモリ14等を更に備えるようにすることもできる。
FIG. 3 is a configuration diagram showing an embodiment of the visibility support
処理部11は、視界支援画像生成装置1における情報処理を行う構成要素である。処理部11は画像処理を行い、装置内の他の構成要素や装置外部から入力された指令や信号の処理を行い、逆に、装置内の他の構成要素や装置外部へと指令や信号を送信してよい。
The
カメラ12は、車両からの画像を撮像して上述の入力画像Iinを取得するための手段である。本実施形態においては、カメラ12は車両の後側方を撮像するための、ドアミラーに取り付けられたカメラであるが、これには限定されない。例えば、車両の前方や後方を撮像するカメラ等であってもよい。
The
表示装置13は、視界支援画像生成装置1によって生成された表示画像を表示することができる装置である。典型的には、表示装置13は自車両100内に設けられたモニタ等であるが、これには限定されない。ドライバー等は、この表示装置13に表示された表示画像を見ることとなる。図3においては、表示装置13は視界支援画像生成装置1とは別体となっている。しかし、表示装置13を視界支援画像生成装置1の中に含めてもよい。
The
不揮発性メモリ14は、処理部11が行う画像処理に用いるプログラムや、各種パラメータ情報、真円レンズモデル(後述)に基づく変換テーブル等を記憶していてよい。
The
なお、視界支援画像生成装置1に含まれる構成要素は、さらに一体化されていてもよく、逆に複数のサブコンポーネントへとさらに分割されていてもよい。
Note that the components included in the visibility support
図4は、処理部11が行う画像処理の一例を示すフロー図である。
FIG. 4 is a flowchart showing an example of image processing performed by the
図4は、入力画像Iinに基づいて出力画像Iout生成する画像変換処理に用いられる、変換テーブルを作成する為の処理の一例を示している。前提条件として、本例においては、図2(a)に示した縦長楕円レンズモデルEを用いる。また、図5に基づき後述するように、本例においては、レンズ歪みの除去も併せて行うこととする。 FIG. 4 shows an example of processing for creating a conversion table used in image conversion processing for generating an output image Iout based on an input image Iin . As a prerequisite, in this example, the oblong elliptical lens model E shown in FIG. 2(a) is used. Moreover, as will be described later with reference to FIG. 5, in this example, lens distortion is also removed.
ステップS01において、処理部11が、入力画像Iinを取り込む。取り込まれた画像は、図示を省略するメモリ等に保持されてよい。
In step S01, the
ステップS02では、処理部11が、処理すべき次の画素が残っているか否かを判断している。次の画素がある場合(図中のyes)は、ステップS03へと進む。次の画素が残っていない場合(図中のno)は、入力画像Iinの全てについて処理が終了した状況を示しており、変換テーブル作成処理は終了となる。
In step S02, the
ステップS03において、処理部11が、処理対象となる次の画素を選択する。選択された画素の座標を、便宜的に座標Pとする。
In step S03, the
ステップS04において、処理部11が、中央座標Oと座標Pとの間の距離Doを算出する。ここで、中央座標Oは、入力画像Iin内に含まれる深消失点を意味している。例えば図2(b)を用いて例示すると、自動車が走行している路面には白線Wが複数引かれている。これら複数の白線Wの延長線上に、それらの延長線が1点に交わる点がある。この交点が、深消失点である。図2(b)においては、画像内部、左上側に深消失点(中央座標О)がある。
In step S04, the
ステップS05において、処理部11が、距離Doを真円レンズモデルの変換テーブルで変換し、変換後の距離Do’を決定する。このステップS05については、図5も併せて参照しつつ、下記でさらに詳述する。
In step S05, the
図5に、真円レンズモデルの説明図を示している。図5に示されるレンズ50は、ピンホールカメラ等で用いられる一般的な真円状のレンズである。なお、図5は、真円レンズを正面ではなく横から見た状態を示している。
FIG. 5 shows an explanatory diagram of the perfect circle lens model. A
光学系の評価面51上での像位置を、光軸からの距離で表した値を像高と呼ぶが、像高には理想像高53と実像高52の2種類がある。理想像高53は理想的な像高である。しかし、通常の光学系の像高は、レンズ歪み等の影響を受けるため、理想像高53とはならない。一方、実像高52は、評価面で実際に結像している位置を指す像高である。なお、前記ステップS04で算出した中央座標Oと座標Pとの間の距離Doは、実像高52に相当する。
The image position on the
そして、各座標における実像高52と、各座標における理想像高53とを組み合わせて、1つの変換テーブルとする。図5に示した例において、レンズ50は真円レンズである。したがって、図5に示してある実像高52と、真円レンズの理想像高53とを組み合わせた変換テーブルは、真円レンズモデルの変換テーブルとなる。真円レンズモデルの変換テーブルを用いれば、レンズ歪みの影響を受けた実像高52を、レンズ歪みの除去された(真円レンズモデルの)理想像高53へと変換することができる。
Then, the
上述のような真円レンズモデルの変換テーブルは、例えば不揮発性メモリ14等に保存されていてよい。そして処理部11が、上記ステップS05において、この真円レンズモデルの変換テーブルを用いて、実像高52である距離Doから、真円レンズモデルの理想像高53に相当する変換後の距離Do’を決定する。
The conversion table for the perfect circle lens model as described above may be stored in, for example, the
ステップS06において、処理部11が、真円レンズモデルによる、像高変化割合aを算出する。なお、a=(Do’/Do)-1である。
In step S06, the
像高変化割合aは、真円レンズモデルの理想像高53である距離Do’を、実像高52である距離Doで除算し、そこから1を引いた値である。例えば、理想像高53である距離Do’=120、実像高52である距離Do=100である場合、像高変化割合a=(120/100)-1=0.2となる。これは、実像高52に対して(真円レンズモデルの)理想像高53が20%変化(この場合は増加)していることを意味する。
The image height change rate a is a value obtained by dividing the distance Do', which is the
ここで、本開示における視界支援画像生成装置1は、既に述べたように、縦長楕円レンズモデルE(図2(a))を用いる。そのため、ステップS06で計算した像高変化割合aに、縦長楕円の要素を混入させる必要がある。そこで、後続のステップS07以降において、以下のような処理を行う。
Here, the visibility support
ステップS07において、処理部11が、座標Oから座標Pへと延びる直線と、長軸bおよび短軸cで定義される縦長楕円関数Eとの交点P1の座標を計算する。次のステップS08において、処理部11が、座標Oと座標P1との間の距離D1を算出する。
In step S07, the
なお、長軸bおよび短軸cの長さは、適宜決定することができる。本例においては縦長楕円レンズモデルEを用いているので、長軸bが縦方向(Y軸方向)に延び、短軸cが横方向(X軸方向)に延びる。c<bである。 The lengths of the long axis b and the short axis c can be determined as appropriate. In this example, the vertically long elliptical lens model E is used, so the long axis b extends in the vertical direction (Y-axis direction) and the short axis c extends in the horizontal direction (X-axis direction). c<b.
ここで、理解をより容易とするために、具体例を2つ示す。 Here, two specific examples are shown for easier understanding.
まず、第1の具体例を示す。座標Pが、座標Оを原点とした場合のX軸上に存在していたとする。つまり、座標P=(m,0)であったとする。mは任意の正の実数である。この時、座標Oから座標Pへと延びる直線と、上記縦長楕円関数Eとの交点P1の座標は(c/2,0)であるので、D1=c/2である。 First, a first specific example will be shown. Assume that the coordinate P exists on the X-axis with the coordinate O as the origin. That is, assume that the coordinates P=(m, 0). m is any positive real number. At this time, the coordinates of the intersection point P1 between the straight line extending from the coordinate O to the coordinate P and the vertical elliptic function E are (c/2, 0), so D1=c/2.
第2の具体例を示す。座標Pが、座標Оを原点とした場合のY軸上に存在していたとする。つまり、座標P=(0,n)であったとする。nは任意の正の実数である。この時、座標Oから座標Pへと延びる直線と、上記縦長楕円関数Eとの交点P1の座標は(0,b/2)であるので、D1=b/2である。 A second specific example is shown. Assume that the coordinate P exists on the Y-axis with the coordinate O as the origin. That is, assume that the coordinates P=(0, n). n is any positive real number. At this time, the coordinates of the intersection point P1 between the straight line extending from the coordinate O to the coordinate P and the vertical elliptic function E are (0, b/2), so D1=b/2.
ここで、上述の2つの具体例同士を比較すると、c<bであるから、c/2<b/2となる。すなわち、第1の具体例よりも、第2の具体例の方が、距離D1の値が大きい。 Here, when the above two specific examples are compared, since c<b, c/2<b/2. That is, the value of the distance D1 is larger in the second specific example than in the first specific example.
続くステップS09において、処理部11が、座標Pについての圧縮係数Ap=(a/D1)+1を算出する。上述のように、aは像高変化割合、D1は座標Oから座標P1までの距離である。ここでD1が逆数として用いられているので、上記2つの具体例の間で、値の大小関係は逆転する。すなわち、第2の具体例におけるAp=(2a/b)+1よりも、第1の具体例におけるAp=(2a/c)+1の方が、圧縮係数Apの値が大きい。この圧縮係数Apは、圧縮率に相当する。
In subsequent step S09, the
つまり、横方向にある座標P=(m,0)である第1の具体例の方が、縦方向にある座標P=(0,n)である第2の具体例よりも、圧縮係数Apの値が大きい。これは、座標O(深消失点)を中心として、横方向の圧縮率が、縦方向の圧縮率よりも高いことを示している。 That is, the first specific example with coordinates P=(m, 0) in the horizontal direction has a higher compression factor A than the second example with coordinates P=(0, n) in the vertical direction. The value of p is large. This indicates that the compression rate in the horizontal direction is higher than the compression rate in the vertical direction centering on the coordinate O (deep vanishing point).
続くステップS10において、処理部11は、座標Pについての圧縮係数Apを、縦長楕円レンズモデルの理想像高53として、縦長楕円レンズモデルEの変換テーブルに書き入れる。つまり、実像高52と、縦長楕円レンズモデルEの理想像高53とを組み合わせて記録する。ここまでの説明から分かるように、縦長楕円レンズモデルEの変換テーブルは、上述の真円レンズモデルの変換テーブルを変形したものとなる。
In subsequent step S10, the
そして、処理はステップS02へと戻る。つまり、上述のステップS01で処理部11が取り込んだ入力画像Iinに含まれる、すべての画素(座標P)に対して、実像高52と、縦長楕円レンズモデルEの理想像高53との組み合わせを記録して、これを縦長楕円レンズモデルEの変換テーブルとする。
Then, the process returns to step S02. That is, the combination of the
以上のようにして、真円レンズモデルの変換テーブルを変形して、縦長楕円レンズモデルEの変換テーブルを作成することができる。 As described above, the conversion table for the elongated elliptical lens model E can be created by transforming the conversion table for the perfect circular lens model.
そして、入力画像Iinに対して、縦長楕円レンズモデルEの変換テーブルを適用することにより、出力画像Ioutを生成することができる。より詳しくは、入力画像Iinにおける座標Oから座標Pまでの線分を、Ap倍圧縮する(距離Doを、距離Do/Apへと変える)。この圧縮は、座標O(深消失点)を中心とした横方向の圧縮率が、縦方向の圧縮率よりも高いものである。 By applying the conversion table of the oblong elliptical lens model E to the input image Iin , the output image Iout can be generated. More specifically, the line segment from the coordinate O to the coordinate P in the input image I in is compressed by A p times (the distance Do is changed to the distance Do/A p ). In this compression, the compression rate in the horizontal direction around the coordinate O (deep vanishing point) is higher than the compression rate in the vertical direction.
なお、縦長楕円レンズモデルEの長軸bおよび短軸cの長さは、適宜変更が可能である。つまり、本開示の視界支援画像生成装置1は、座標O(深消失点)を中心とした横方向の圧縮率と、縦方向の圧縮率とを、別個独立に調整することができる。
The lengths of the major axis b and the minor axis c of the oblong elliptical lens model E can be changed as appropriate. In other words, the visibility support
図6は、入力画像Iinから出力画像Ioutを生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1による場合との比較図である。図6(a)は入力画像Iinである。この入力画像Iinに対し従来技術を用いて生成した出力画像Ioutが図6(b)である。同じ入力画像Iinに対し、本開示の視界支援画像生成装置1を用いて生成した出力画像Ioutが図6(c)である。
FIG. 6 is a comparison diagram between the case of generating the output image Iout from the input image Iin according to the prior art and the case of the visibility support
図6(a)に示す入力画像Iinの中には、その左側に、自車両100の車体が映り込んでいる。また、説明の為の一例ではあるが、入力画像Iinの中には、物体OBJ1~OBJ4が映り込んでいる。この例においては、物体OBJ1~OBJ4は、自車両の隣のレーンを走行中の、自車両100とは異なる車両である。
In the input image Iin shown in FIG. 6(a), the vehicle body of the
図6(b)に示す、従来技術により生成された出力画像Ioutは、入力画像Iinに映り込んだレーン上の白線Wを直線化するために、横方向の拡縮を行った後に、縦方向の拡縮をさらに行って生成されている。つまり、横方向と縦方向の、2段階の拡縮を行っている。これは、後述の図7(b)および図8(b)についても同様である。 The output image Iout generated by the conventional technique shown in FIG. It is generated with further directional scaling. In other words, two steps of enlargement/reduction are performed in the horizontal direction and the vertical direction. This also applies to FIGS. 7(b) and 8(b), which will be described later.
図6(b)に示した出力画像Ioutをみると、車両であるOBJ1、OBJ2の形状が、入力画像Iinとは大きく異なっている。これらは横方向に大きく潰れ、原形を認識し難いものとなっている。また、横方向の距離感も大きく変動しており、OBJ1からOBJ2までの車間距離が、極端に短縮化している。これをドライバー等の視点で見た場合、そこに何かしらの物体が存在していること自体は知覚できるものの、その物体がはたして何であるかが判別困難になることがある。また、OBJ1とOBJ2との間の車間距離は、本来は充分にあけられている(図6(a))。しかし、図6(b)では互いに衝突しそうであるように見える。 Looking at the output image Iout shown in FIG. 6B, the shapes of the vehicles OBJ1 and OBJ2 are significantly different from the input image Iin . These are greatly crushed in the lateral direction, making it difficult to recognize the original shape. In addition, the sense of distance in the lateral direction also fluctuates greatly, and the inter-vehicle distance from OBJ1 to OBJ2 is extremely shortened. When viewed from the viewpoint of a driver or the like, although the presence of an object itself can be perceived, it may be difficult to determine what the object really is. Also, the inter-vehicle distance between OBJ1 and OBJ2 is originally sufficiently large (FIG. 6(a)). However, in FIG. 6(b) it appears that they are likely to collide with each other.
一方、図6(c)に示す、本開示の視界支援画像生成装置1によって生成された出力画像Ioutの場合は、立体の形状変化が緩和される。また、横方向の距離感の変化も緩やかである。よって、ドライバー等の視点では、隣のレーンを移動する物体OBJ1~OBJ4の形を認識しやすい。また、距離感の急激な変動によって混乱することもない。
On the other hand, in the case of the output image I out generated by the visibility support
図7は、入力画像Iinから出力画像Ioutを生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1による場合との第2の比較図である。図7(a)は入力画像Iinである。この入力画像Iinに対し従来技術を用いて生成した出力画像Ioutが図7(b)である。同じ入力画像Iinに対し、本開示の視界支援画像生成装置1を用いて生成した出力画像Ioutが図7(c)である。
FIG. 7 is a second comparison diagram between the prior art and the visibility support
図7においては、自車両100の進行方向に対して直交する直線L1、L2を、補助線として付加した。直線L1が、自車両100の近傍における線、直線L2が、自車両100の遠方における線である。
In FIG. 7, straight lines L1 and L2 orthogonal to the traveling direction of the
図7(a)に示す入力画像Iinにおいては、2つの直線L1とL2は平行になっている。 In the input image Iin shown in FIG. 7A, the two straight lines L1 and L2 are parallel.
図7(b)に示す、従来技術により生成された出力画像Ioutを見ると、2つの直線L1とL2は、その傾きが大きく異なっている。この傾きの相違は、ドライバー等の視点では、画像の歪みや違和感として認識される。また、画像内に映り込んだ複数台の車両は、2つの直線L1、L2と直交する方向に進行している。つまり、出力画像Ioutが動画であった場合、この動画内に映り込んだ車両は、実際には直進しているはずであるが、画像の右側へと進むにつれ、カーブしながら進行しているように映る。これもまた、ドライバー等に違和感を覚えさせる。 Looking at the output image Iout generated by the conventional technique shown in FIG. 7B, the two straight lines L1 and L2 have greatly different slopes. This difference in inclination is recognized as image distortion or discomfort from the viewpoint of the driver or the like. In addition, the multiple vehicles reflected in the image are traveling in a direction orthogonal to the two straight lines L1 and L2. In other words, when the output image I out is a moving image, the vehicle reflected in this moving image should actually be traveling straight, but as it moves to the right side of the image, it is traveling while curving. It looks like This also makes the driver or the like feel uncomfortable.
一方、図7(c)に示す、本開示の視界支援画像生成装置1によって生成された出力画像Ioutであれば、2つの直線L1とL2との間の傾きの違いが、従来よりも緩やかになる。よって、ドライバー等にとっての違和感が少ない。また、出力画像Ioutが動画であった場合、当該動画に映り込んでいる車両の進行がより自然に見えるので、やはり違和感が少ない。
On the other hand, in the case of the output image I out generated by the visibility support
図8は、入力画像Iinから出力画像Ioutを生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1による場合との第3の比較図である。図8(a)は入力画像Iinである。この入力画像Iinに対し従来技術を用いて生成した出力画像Ioutが図8(b)である。同じ入力画像Iinに対し、本開示の視界支援画像生成装置1を用いて生成した出力画像Ioutが図8(c)である。
FIG. 8 is a third comparison diagram between the prior art and the visibility support
図8においては、車両であるOBJ2のフロントバンパー付近に説明用の矢印L3を入れている。この矢印L3は、画像に映り込む物体が備えている、自車両100の進行方向に直交する直線を示している。
In FIG. 8, an arrow L3 for explanation is put in the vicinity of the front bumper of OBJ2 which is a vehicle. This arrow L3 indicates a straight line perpendicular to the traveling direction of the
図8(b)に示す、従来技術により生成された出力画像Ioutを見ると、矢印L3が湾曲していることが見て取れる。つまりドライバー等の視点では、物体OBJ2を構成する、直線状に形成されている部材(フロントバンパー等)が、湾曲して見えることになる。これもまた、ドライバー等に違和感を覚えさせる。 Looking at the output image I out generated by the conventional technique shown in FIG. 8(b), it can be seen that the arrow L3 is curved. In other words, from the viewpoint of the driver or the like, the linearly formed member (the front bumper or the like) that constitutes the object OBJ2 appears curved. This also makes the driver or the like feel uncomfortable.
一方、図8(c)に示す、本開示の視界支援画像生成装置1によって生成された出力画像Ioutであれば、上述の湾曲も緩和され、直線状に形成されている部材(フロントバンパー等)が、直線に近い形状としてドライバー等の目に映る。すなわち、ドライバー等にとって違和感が少ない。
On the other hand, in the case of the output image I out generated by the visibility support
以上、例示したように、本開示の視界支援画像生成装置1によって生成された出力画像Ioutは、違和感の少ない画像となる。
As described above, the output image I out generated by the visibility support
これに加えて、本開示の視界支援画像生成装置1によって生成される出力画像Ioutは、撮像画像内に含まれる深消失点を中心として、撮像画像の横方向における圧縮率が、撮像画像の縦方向における圧縮率よりも高くなるように、前記撮像画像を圧縮するものである(図1~図5参照)。よって、画角を横方向に拡大するという、光学アスフェリカルミラーが有する利点も、依然として享受することができる。
In addition to this, the output image I out generated by the visibility support
すなわち、本開示の視界支援画像生成装置1は、違和感が少なく、また、外界の適切な状況把握ができる出力画像Ioutを生成することができる。
That is, the visibility support
なお、下記にて、補足事項をいくつか説明する。 In addition, some supplementary items will be explained below.
図4に基づき説明したフロー図は、真円レンズモデルの変換テーブルに基づいて縦長楕円レンズモデルEの変換テーブルを作成し、縦長楕円レンズモデルEの変換テーブルを用いて出力画像Ioutを生成する例であった。この縦長楕円レンズモデルEの変換テーブルを不揮発性メモリ14等に保存しておけば、入力画像Iinが入力される都度、新たに変換テーブルを生成する必要が無くなる。つまり、入力画像Iinに対して、既に保存されている縦長楕円レンズモデルEの変換テーブルを参照して、出力画像Ioutを生成することができるようになる。逆に、入力画像Iinが入力される都度、上記のように圧縮係数Apを動的に計算した上で、出力画像Ioutを生成してもよい。
In the flow chart described with reference to FIG. 4, a conversion table for the oblong elliptical lens model E is created based on the conversion table for the perfect circle lens model, and the conversion table for the oblong elliptical lens model E is used to generate the output image Iout . It was an example. By storing the conversion table of the longitudinal elliptical lens model E in the
また、上記の実施形態においては、ステップS01~S10に係る処理を、処理部11が行っている。この処理に係るプログラムが不揮発性メモリ14等に保存され、処理部11がこのプログラムを読み出して画像処理を行ってよい。一方、上述の処理を、ソフトウェア処理ではなく、ハードウェア処理によって行ってもよい。例えば、専用の回路等によって当該処理を行ってよい。
Further, in the above embodiment, the
次に、圧縮率についての補足説明を行う。図4のステップS09につき、具体例を2つ示した。すなわち、圧縮率(圧縮係数Ap)について、横方向(第1の具体例)と縦方向(第2の具体例)との2方向を比較した。しかし、その中間である斜め方向の圧縮率もある。上述のように、縦長楕円レンズモデルEの変換テーブルは、上述の真円レンズモデルの変換テーブルを変形したものある。真円を縦長楕円に変換しているので、圧縮率(圧縮係数Ap)は横方向から縦方向に、線形に変化することになる(図2(a)参照)。これを言い換えると、横方向を偏角0度、縦方向を偏角90度とした場合、偏角が増加するにつれて、圧縮率(圧縮係数Ap)は線形に減少する。 Next, a supplementary explanation of the compression rate will be given. Two specific examples are shown for step S09 in FIG. That is, the compression rate (compression coefficient A p ) was compared in two directions, the horizontal direction (first specific example) and the vertical direction (second specific example). However, there is also a diagonal compression ratio in between. As described above, the conversion table for the oblong elliptical lens model E is a modified version of the conversion table for the perfectly circular lens model. Since the perfect circle is converted into a vertically oblong ellipse, the compression ratio (compression coefficient A p ) linearly changes from the horizontal direction to the vertical direction (see FIG. 2(a)). In other words, when the deflection angle is 0 degrees in the horizontal direction and the deflection angle is 90 degrees in the vertical direction, the compression rate (compression coefficient A p ) decreases linearly as the deflection angle increases.
また、真円レンズモデルとして、中心からの距離が遠いほどに圧縮率が増加するレンズモデルを用いることができる。そのような真円レンズモデルに基づいて作成した縦長楕円レンズモデルEもまた、中心(深消失点)からの距離が遠いほどに圧縮率が増加するものとなる。 Also, as the perfect circle lens model, a lens model in which the compression ratio increases as the distance from the center increases can be used. The longitudinally elongated elliptical lens model E created based on such a perfect circle lens model also increases in compression ratio as the distance from the center (deep vanishing point) increases.
次に、違和感が少なく、また、外界の適切な状況把握ができる表示画像を提供するという本開示の目的から、アスフェリカル部分を可動にする工夫である、視界支援画像生成装置1Bについて説明する。
Next, for the purpose of the present disclosure, which is to provide a display image that gives less sense of incongruity and allows an appropriate grasp of the situation in the outside world, the visibility support
CMS(カメラモニタリングシステム)が搭載された車両に搭乗するドライバー等は、車両に設けられた表示装置によって、視界支援画像を見ることになる。しかし、従来技術である視界支援画像生成装置を用いて生成した視界支援画像は、光学ミラーであるドアミラーMのアスフェリカル部M2(図1参照)に相当する、視界支援画像の片側端部に行くほど強く圧縮される。すると、当該視界支援画像を見るドライバー等は、違和感を覚えることになる。 A driver or the like in a vehicle equipped with a CMS (camera monitoring system) sees a visual field support image on a display device provided in the vehicle. However, the visibility support image generated by using the conventional visibility support image generation device is so close to one end of the visibility support image that corresponds to the aspherical portion M2 (see FIG. 1) of the door mirror M, which is an optical mirror. strongly compressed. Then, a driver or the like who sees the visibility support image feels uncomfortable.
図9を用いて例示を行う。図9は、従来技術である視界支援画像生成装置を用いて生成した視界支援画像(出力画像)Ioutを示す図である。図9の下部には黒色の矢印が付加されており、圧縮率を表現している。すなわち、視界支援画像(出力画像)Ioutの右側に行くにつれて、圧縮率が上昇している。 An example will be given using FIG. FIG. 9 is a diagram showing a view support image (output image) I out generated using a view support image generation device of the prior art. A black arrow is added at the bottom of FIG. 9 to represent the compression rate. That is, the compression rate increases toward the right side of the view support image (output image) Iout .
視界支援画像(出力画像)Ioutには、車両である物体OBJ2が、自車両100の隣の車線を走行しており、後方から自車両100に近づき、追い越していく状況が映っている。この時、物体OBJ2が、前記アスフェリカル部M2に相当する視界支援画像(出力画像)Ioutの右側へと移動するにつれて、物体OBJ2の形状は画像圧縮によって大きくつぶれることになる。図9に示された、左右に大きくつぶれた物体OBJ1と、同じく図9の、物体OBJ1ほどは左右につぶれていない物体OBJ2とを対比することで、つぶれの問題を直感的に理解できる。
The visibility support image (output image) I out shows a situation in which an object OBJ2, which is a vehicle, is traveling in a lane adjacent to own
また、物体OBJ2の視界支援画像(出力画像)Iout上の移動速度は、自車両100に距離が近づくにつれて、徐々に速く見えるようになる。しかし一方、アスフェリカル部M2に相当する画像右側においては、画像が圧縮されるため、物体OBJ2が急速に減速するように見える。すると、自車両100のドライバー等の目には、車両である物体OBJ2が徐々に加速しながら自車両に100近づいた後、突如減速しながら、自車両100を追い抜いていくかのように映る。このような画像表示は、違和感が大きいものである。
Also, the moving speed of the object OBJ2 on the view support image (output image) I out appears to gradually increase as the distance to the
そこで本開示の視界支援画像生成装置1Bにおいては、CMS(カメラモニタリングシステム)による、光学アスフェリカルミラー状の画像表示において、上述のような違和感が生じることを抑制する。これを実現するために、光学アスフェリカルミラーのアスフェリカル部に相当する表示部分における圧縮の仕方を、車両表示位置に応じて変動させる。
Therefore, in the visibility support
より詳しくは、視界支援画像内の高圧縮部分を、視界支援画像内に表示される検出車両DC(後述)以外の箇所に設定する。そして、検出車両DCが表示される位置における圧縮強度が急激に変わらないようにする。 More specifically, the highly compressed portion in the visibility support image is set to a location other than the detected vehicle DC (described later) displayed in the visibility support image. Then, the compression strength at the position where the detected vehicle DC is displayed is prevented from changing abruptly.
上述のような本開示の視界支援画像生成装置1Bにより、ドライバー等にとって違和感の無い視界支援画像を提供することができる。さらに、視界支援画像には依然としてアスフェリカル部に相当する箇所があるため、高画角の表示が可能である。以下、このような本開示の視界支援画像生成装置1Bについて詳述する。
The visibility assistance
図10は、本開示の視界支援画像生成装置1Bの実施例を示す構成図である。図10に示した各装置が、自車両100に搭載されている。図10に示すハードウェア構成は、図3に基づき説明した視界支援画像生成装置1と基本的に同様である。図10に示した実施例が、図3に示した実施例と異なるのは、視界支援画像生成装置1Bが、近接車両位置算出装置15と接続されている点である。
FIG. 10 is a configuration diagram showing an embodiment of the visibility support
近接車両位置算出装置15は、例えば、車両のリアバンパー内側等に設置されたミリ波レーダーであってよく、隣接車線を走行する車両を検出し、当該車両の位置を算出することが出来る。ただし、例えばTOFセンサ等の他の測距装置を用いて、隣接車線を走行する車両を検出してもよい。
The approaching vehicle
また、近接車両位置算出装置15は、例えばカメラ12であってもよい。すなわち、カメラ12によって自車両100から見た外界(特に、隣接車線)を撮像し、この撮像画像から、隣接車線を走行する車両の位置をソフトウェア処理で求めればよい。
Also, the approaching vehicle
上記いずれの場合においても共通するのは、近接車両位置算出装置15によって、自車両100の隣接車線を走行する最も近い車両(以下、検出車両DCと表記する)の位置を算出する、ということである。このような車両が、自車両100との衝突の危険性が最も高い。視界支援画像生成装置1Bは、検出車両DCの位置情報を、近接車両位置算出装置15から取得することで、後述の画像処理を行うことができる。
What is common to all of the above cases is that the position of the closest vehicle (hereinafter referred to as the detected vehicle DC) traveling in the adjacent lane of the
図11は、本開示の視界支援画像生成装置1Bが備えるカメラ12によって撮像されるセンサ画像と、表示装置13に表示される視界支援画像MPとを示す図である。なお、視界支援画像MPは上述の出力画像Ioutに相当する画像であり、表示装置13に表示される。自車両100に搭乗するドライバー等が、表示装置13に表示された視界支援画像MPを見る。自車両100の外界の様子が視界支援画像MPに含まれているので、視界支援画像MPは、ドライバー等の視界を支援するものである。
FIG. 11 is a diagram showing a sensor image captured by the
図11(b)に示すように、視界支援画像MPは、検出車両表示部Dとアスフェリカル部Aとを有している。検出車両表示部Dは、前記近接車両位置算出装置15によって位置が取得された検出車両DCが映り込む、画像上の領域である。一方で、アスフェリカル部Aは、上述の光学アスフェリカルミラーにおけるアスフェリカル部M2に相当する画像上の領域である。
As shown in FIG. 11(b), the visibility support image MP has a detected vehicle display portion D and an aspherical portion A. As shown in FIG. The detected vehicle display portion D is an area on the image in which the detected vehicle DC whose position is acquired by the approaching vehicle
本来、光学アスフェリカルミラーにおけるアスフェリカル部M2は、ミラーに映る視野角を広げる為に、当該光学ミラーの他の箇所よりも圧縮度が高くなっている。これと同様に、視界支援画像MPが有するアスフェリカル部Aは、検出車両表示部Dよりも圧縮率が高くなっている。ただし、CMS(カメラモニタリングシステム)上では、検出車両表示部Dを必ずしも等倍表示にしなくてもよい。検出車両表示部Dを一定の圧縮率で圧縮し、アスフェリカル部Aをさらに大きな圧縮率にすることもできる。いずれにせよ、本開示の視界支援画像生成装置1Bにおいては、圧縮する合計画素数と検出車両DC周辺の圧縮率とを、予め決めておく。
Originally, the aspherical portion M2 in the optical aspherical mirror has a higher degree of compression than other portions of the optical mirror in order to widen the viewing angle reflected on the mirror. Similarly, the aspherical portion A of the visibility support image MP has a higher compression rate than the detected vehicle display portion D. However, on a CMS (camera monitoring system), the detected vehicle display section D does not necessarily have to be displayed at the same size. It is also possible to compress the detected vehicle display portion D at a constant compression rate and set the aspherical portion A at an even greater compression rate. In any case, in the visibility support
(表示量の規定)
以下、検出車両表示部Dの圧縮率を1倍(等倍)とした例を説明する。まず、ドライバー等が表示装置13で視認できる、視界支援画像MPの最終表示画角を規定する。なお、図11(a)に示すように、センサ画像上の画素数を規定してもよい。
(Regulations on labeling amount)
An example in which the compression ratio of the detected vehicle display portion D is set to 1 (same size) will be described below. First, the final display angle of view of the visibility support image MP that can be visually recognized by the driver or the like on the
本例では、センサ画像上の画素数に基づいて例示を行こととする。図11(a)に示したセンサ画像上の、横方向の画素数を1300ピクセルと予め決定する。センサ画像上での、検出車両表示部Dの横方向の画素数を500ピクセルと設定する。センサ画像上での、アスフェリカル部Aの横方向の画素数を800ピクセルと規定する。 In this example, the example is based on the number of pixels on the sensor image. The number of pixels in the horizontal direction on the sensor image shown in FIG. 11(a) is determined in advance to be 1300 pixels. The number of pixels in the horizontal direction of the detected vehicle display portion D on the sensor image is set to 500 pixels. The number of pixels in the horizontal direction of the aspherical portion A on the sensor image is defined as 800 pixels.
この時、センサ画像上の、図11(a)に示した横方向500ピクセル+800ピクセルの領域が、一部圧縮されて、視界支援画像MPへと変換されることとなる。視界支援画像MPの横方向の画素数を800ピクセルとする。 At this time, the area of 500+800 pixels in the horizontal direction shown in FIG. 11A on the sensor image is partially compressed and converted into the visibility support image MP. Assume that the number of pixels in the horizontal direction of the visibility support image MP is 800 pixels.
なお、上記の画素数はあくまで例示であり、他の設定値にしてもよい。 Note that the number of pixels described above is merely an example, and other set values may be used.
図11(a)に示したセンサ画像中の横方向1300ピクセルおいて、アスフェリカル部Aを800ピクセルから300ピクセルへと圧縮する。一方、検出車両表示部Dの500ピクセルは、この例においては圧縮しない。予め、検出車両表示部Dの表示倍率を等倍に決めていたからである。すると、図11(b)に示したように、アスフェリカル部Aが横方向に縮んだ状態で、視界支援画像MPが生成される。なお、圧縮前の1300ピクセル分の画角は、視界支援画像MPにおいても維持されている。 At 1300 pixels in the horizontal direction in the sensor image shown in FIG. 11A, the aspherical portion A is compressed from 800 pixels to 300 pixels. On the other hand, the 500 pixels of the detected vehicle display D are not compressed in this example. This is because the display magnification of the detected vehicle display portion D is determined to be 1:1 in advance. Then, as shown in FIG. 11(b), the view support image MP is generated with the aspherical portion A contracted in the horizontal direction. Note that the angle of view of 1300 pixels before compression is also maintained in the visibility support image MP.
そして、図11(b)に示したような、表示上の按分比率(検出車両表示部D:アスフェリカル部A=500:300)を固定する。この、図11(b)に示した態様を、表示の初期状態とする。次に、この初期状態からの、検出車両表示部Dの追随移動について説明する。 Then, the proportional division ratio on the display (detected vehicle display portion D: aspherical portion A=500:300) as shown in FIG. 11(b) is fixed. The mode shown in FIG. 11B is assumed to be the initial display state. Next, the follow-up movement of the detected vehicle display portion D from this initial state will be described.
図12は、検出車両表示部Dの、視界支援画像MP内での追随を示す図であり、(a)初期状態、(b)追随状態、(c)追随終了状態をそれぞれ示している。 12A and 12B are diagrams showing the following in the view support image MP of the detected vehicle display section D, showing (a) initial state, (b) following state, and (c) following end state, respectively.
図12の右側、視界支援画像MP上に示された破線は、可変閾値である所定の箇所を示している。本例では、検出車両表示部Dの横方向(水平方向)の中心に、可変閾値を、図のように仮想的に設置する。なお、可変閾値は検出車両表示部Dのさらに右側、あるいは左側へとずれていてもよい。 A dashed line shown on the right side of FIG. 12 on the view support image MP indicates a predetermined point that is a variable threshold. In this example, a variable threshold is virtually set at the center of the detected vehicle display section D in the lateral direction (horizontal direction) as shown in the figure. Note that the variable threshold may be shifted further to the right or left of the detected vehicle display section D.
近接車両位置算出装置15によって検出した検出車両DCは、道路上で自車両100を後ろから追い抜く、追い抜き車両である。この検出車両DCは、図12に示した検出車両表示部D上を、左側から右側へと移動するように表示される。
The detected vehicle DC detected by the approaching vehicle
この検出車両DC(の所定の箇所。例えば車両の前面(フロントバンパー等))が前述の可変閾値を超えた後は、視界支援画像MPにおける、検出車両表示部Dが右側に移動する。検出車両表示部Dの移動は、前記検出車両DC(の中の所定の箇所)が、検出車両表示部Dの前記左右方向における中央に位置するように行われる。すなわち、視界支援画像MPにおける検出車両表示部Dの位置が、検出車両DC(の中の所定の箇所)に追随して、初期状態から右方向へと移動する(図12中段の追随状態)。 After the detected vehicle DC (predetermined location, for example, the front surface of the vehicle (front bumper, etc.)) exceeds the above-described variable threshold, the detected vehicle display portion D moves to the right side in the visibility support image MP. The detected vehicle display portion D is moved so that the detected vehicle DC (predetermined portion thereof) is positioned at the center of the detected vehicle display portion D in the horizontal direction. That is, the position of the detected vehicle display portion D in the visibility support image MP moves rightward from the initial state (following state in the middle of FIG. 12) following (predetermined portion in) the detected vehicle DC.
検出車両表示部Dの前記追随移動に伴い、アスフェリカル部Aが、アスフェリカル部A1およびA2の2つに分割される。ただし、表示上の按分比率(検出車両表示部D:アスフェリカル部A=500:300)は、依然として固定されたままである。例えば、検出車両表示部Dの右側に存在する、本来のアスフェリカル部Aであるアスフェリカル部A1は、図12に示した追随状態においては、横方向に150ピクセル分の領域を占める。検出車両表示部Dの左側領域を補うように出現した、追加のアスフェリカル部A2は、図12に示した追随状態においては、横方向に150ピクセル分の領域を占める。アスフェリカル部A1とA2を併せると、横方向に300ピクセルとなる。このように、検出車両表示部Dの前記追随移動に伴い、検出車両表示部Dの左右に配置されたアスフェリカル部A1、A2の画素数(画角)も変化する。アスフェリカル部A1、A2の画素数(画角)の変化幅は、いずれも、0画素(0度)から所定の設計値までである。 Along with the following movement of the detected vehicle display portion D, the aspherical portion A is divided into two aspherical portions A1 and A2. However, the proportional division ratio on the display (detected vehicle display portion D: aspherical portion A=500:300) remains fixed. For example, the aspherical portion A1, which is the original aspherical portion A, present on the right side of the detected vehicle display portion D occupies an area of 150 pixels in the horizontal direction in the follow-up state shown in FIG. The additional aspherical portion A2 that appears to supplement the left side area of the detected vehicle display portion D occupies an area of 150 pixels in the horizontal direction in the following state shown in FIG. Together, the aspherical portions A1 and A2 are 300 pixels in the horizontal direction. In this manner, as the detected vehicle display portion D follows the movement, the number of pixels (angle of view) of the aspherical portions A1 and A2 arranged on the left and right sides of the detected vehicle display portion D also changes. The width of change in the number of pixels (angle of view) of the aspherical portions A1 and A2 is from 0 pixel (0 degree) to a predetermined design value.
以上のような、視界支援画像MPにおける検出車両表示部Dの追随移動は、図12の下段に示した追随終了状態になるまで行われる。追随終了状態においては、視界支援画像MPにおける左側の300ピクセルがアスフェリカル部A2であり、右側の500ピクセルが検出車両表示部Dである。アスフェリカル部A1の幅は0ピクセルである。 The follow-up movement of the detected vehicle display portion D in the view support image MP as described above is performed until the follow-up end state shown in the lower part of FIG. 12 is reached. In the tracking end state, 300 pixels on the left side of the view support image MP are the aspherical portion A2, and 500 pixels on the right side are the detected vehicle display portion D. The width of the aspherical portion A1 is 0 pixels.
検出車両DCは、自車両100を追い抜いて、視界支援画像MPの右側方向へ抜ける。つまり、検出車両DCは、視界支援画像MPに表示されなくなる。検出車両DCが視界支援画像MPに表示されなくなった段階で、視界支援画像MPの表示形態は、図12の上段に示した初期状態に戻る。
The detected vehicle DC overtakes the
図13は、入力画像Iinから視界支援画像を生成した際の、従来技術による場合と、本開示の視界支援画像生成装置1Bによる場合との比較図である。図6(a)は入力画像Iinである。この入力画像Iinに対し従来技術を用いて生成した出力画像Ioutが図13(b)である。同じ入力画像Iinに対し、本開示の視界支援画像生成装置1Bを用いて生成した視界支援画像MP(出力画像Iout)が図13(c)である。
FIG. 13 is a comparison diagram between the conventional technology and the visibility support
なお、図13(a)および図13(b)は、図8(a)および図8(b)にそれぞれ相当する。 13(a) and 13(b) correspond to FIGS. 8(a) and 8(b), respectively.
図13(b)については、出力画像Ioutのアスフェリカル部に相当する右側部分が圧縮されている為、車両である物体OBJ1だけでなく、車両である物体OBJ2も形状が歪んでいる。また、物体OBJ2は、図9に基づいて説明したように、画像の右側へと進むにつれて、急速に減速するように見える。 In FIG. 13B, since the right side portion corresponding to the aspherical portion of the output image I out is compressed, not only the vehicle object OBJ1 but also the vehicle object OBJ2 are distorted in shape. Also, object OBJ2 appears to decelerate rapidly as it moves to the right side of the image, as described with reference to FIG.
一方、図13(c)に示した、本開示の視界支援画像生成装置1Bを用いて生成した視界支援画像MP(出力画像Iout)の場合は、検出車両DC(物体OBJ2)の形状が歪んでいない。なぜなら検出車両DCは、検出車両表示部Dに表示されるからである。上述のように、本例において検出車両表示部Dは等倍表示されている。その一方で、左右に設けられたアスフェリカル部A1およびA2は横方向に圧縮されている。
On the other hand, in the case of the visibility support image MP (output image I out ) generated using the visibility support
したがって、視界支援画像生成装置1Bによって生成した視界支援画像MPにおいては、衝突の可能性が一番高く、もっとも注意を払うべき検出車両DCが、正しい形状、正しい位置に表示される。かつ、この検出車両DCが、自車両100の後方から接近し自車両100を追い抜くまでの状況を、視界支援画像MPによって、直感的に広画角で表示し、乗員に情報提示を行うことができる。
Therefore, in the visibility assistance image MP generated by the visibility assistance
次に、検出車両DCの、視界支援画像MPへの割り付けについて説明する。 Next, allocation of the detected vehicle DC to the visibility support image MP will be described.
上述のように、視界支援画像MPは検出車両表示部Dとアスフェリカル部A1(およびA2)を有しており、検出車両表示部Dは所定の一定倍率(本例においては等倍)としつつ、アスフェリカル部A1(およびA2)を適宜圧縮して、横方向の広画角を実現している。 As described above, the view support image MP has the detected vehicle display portion D and the aspherical portion A1 (and A2). The aspherical portion A1 (and A2) is appropriately compressed to achieve a wide angle of view in the horizontal direction.
ここで、検出車両DCの視界支援画像MP上への割り付けには自由度がある。図14は割付の1態様を示す図であり、(a)センサ画像、(b)視界支援画像MPを示す。 Here, there is a degree of freedom in laying out the detected vehicle DC on the view support image MP. FIG. 14 is a diagram showing one mode of allocation, showing (a) a sensor image and (b) a visibility support image MP.
図14(a)に示したセンサ画像において、既に説明した横方向1300ピクセルの全体が、車両(検出車両DC、およびそれ以外の車両)が表示される範囲となる。 In the sensor image shown in FIG. 14( a ), the entire 1300 pixels in the horizontal direction described above is the range in which the vehicles (detected vehicle DC and other vehicles) are displayed.
ここで、図14(a)に2つの丸印がプロットされている。一方は検出車両DC(物体OBJ2)の位置を示しており、他方は、検出車両DCの前を走る車両(物体OBJ1)の位置を示している。図14(a)にセンサ画像上においては、アスフェリカル部A1、A2はまだ圧縮前の状態である。 Here, two circles are plotted in FIG. 14(a). One indicates the position of the detected vehicle DC (object OBJ2), and the other indicates the position of the vehicle (object OBJ1) running in front of the detected vehicle DC. On the sensor image shown in FIG. 14(a), the aspherical portions A1 and A2 are still in a pre-compression state.
図14(a)に示した状況において、センサ画像の左端から検出車両DCまで(間隔1)、検出車両DCから物体OBJ1まで(間隔2)、物体OBJ1からセンサ画像の右端まで(間隔3)が、それぞれ等間隔にであったとする。 In the situation shown in FIG. 14A, from the left end of the sensor image to the detected vehicle DC (distance 1), from the detected vehicle DC to the object OBJ1 (distance 2), and from the object OBJ1 to the right end of the sensor image (distance 3). , are equally spaced.
このようなセンサ画像に基づいて、視界支援画像生成装置1Bは、これらの間隔1、間隔2、間隔3が等間隔のままになるように、検出車両DCの表示位置を視界支援画像MP上に割り当てることができる。この割り当ては、左右に配置されたアスフェリカル部A1及びA2のそれぞれの幅を適宜調整し、また、アスフェリカル部A1及びA2のそれぞれの箇所の圧縮率を適宜調整することにより、実現可能である。
Based on such a sensor image, the visibility support
検出車両DCの表示位置を上述のように割り当てることにより、視界支援画像MPにおける検出車両DCの表示位置が、視界支援画像MPに表示可能な最大画角範囲(1300ピクセル)における、検出車両DCの移動の仕方に追従する。 By assigning the display position of the detected vehicle DC as described above, the display position of the detected vehicle DC in the visibility support image MP is the maximum angle of view range (1300 pixels) that can be displayed in the visibility support image MP. Follow the way you move.
次に、極座標に基づいた均等割り割り当てについて説明する。 Next, even allocation based on polar coordinates will be described.
図15は、極座標に基づいた割り当てを示す図である。図の右側に示すように、自車両100と検出車両DCとが並走している。検出車両DCは自車両100の隣接車線を走行中であり、自車両100を追い抜こうとしている。
FIG. 15 is a diagram illustrating allocation based on polar coordinates. As shown on the right side of the figure,
図15の右側には、自車両100が備えるカメラ12の視野範囲(例えば画角90度)が、扇形状に示されている。また、この視野範囲を、極座標系において等間隔に分割する間隔線PCLが複数本、描かれている。
On the right side of FIG. 15, the field of view range (for example, the angle of view of 90 degrees) of the
一方、図15の左側には、表示装置13に表示する視界支援画像MP(この例においては、横方向の画角90度)に上述の間隔線PCLが描かれている。
On the other hand, on the left side of FIG. 15, the interval line PCL is drawn in the visibility support image MP (in this example, the horizontal angle of view is 90 degrees) displayed on the
そして、視界支援画像MP(図15左側)における検出車両DCの表示位置が、カメラ12と検出車両DCとの間の相対位置(図15右側)と極座標上で一致するように割り当てられてよい。この割り当てもまた、左右に配置されたアスフェリカル部A1及びA2のそれぞれの幅を適宜調整し、また、アスフェリカル部A1及びA2のそれぞれの箇所の圧縮率を適宜調整することにより、実現可能である。
Then, the display position of the detected vehicle DC in the visibility support image MP (left side of FIG. 15) may be assigned so as to match the relative position (right side of FIG. 15) between the
図16は、図10に示したシステム構成に基づく処理フロー図である。 FIG. 16 is a processing flow diagram based on the system configuration shown in FIG.
ステップS101において、近接車両位置算出装置15が、隣接車線の車両情報を確認する。
In step S101, the adjacent vehicle
ステップS102において、処理部11が、隣接車線に車両が存在したか否かを判断する。存在した場合(Yesの場合)はステップS103に進む。存在しなかった場合(Noの場合)は、検出車両表示部Dの追随等を行わない、上述の初期状態(図12上段を参照)での視界支援画像MPの表示を行う。この表示は、処理部11による制御の下、表示装置13により行われる。
At step S102, the
ステップS103において、処理部11が、近接車両位置算出装置15が確認した最も近い車両(前記検出車両DC)の位置情報に基づいて、この車両の視界支援画像MP上の表示位置を計算する。
In step S103, the
ステップS104において、処理部11が、検出車両DCの視界支援画像MP上の表示位置が、視界支援画像MP上の可変閾値である所定の箇所を超えたか否かを判断する。超えた場合(Yesの場合)はステップS105へ進む。超えない場合(Noの場合)は、検出車両表示部Dの追随等を行わない、上述の初期状態(図12上段を参照)での視界支援画像MPの表示を行う。この表示は、処理部11による制御の下、表示装置13により行われる。
In step S104, the
ステップS105において、処理部11が、検出車両DCの視界支援画像MP上の表示位置に応じて、表示データ(視界支援画像MP)の形成を行う。すなわち前述のような検出車両表示部Dの追随等の処理が行われる。
In step S105, the
上記の構成とすることによって、表示装置13に表示する視界支援画像MPを、自車両100のドライバー等に違和感を与えない、また、アスフェリカル部により画角も広く確保した画像にすることができる。
With the above configuration, the visibility support image MP displayed on the
次に、違和感が少なく、また、外界の適切な状況把握ができる表示画像を提供するという本開示の目的から、表示画像上で距離感を表現する工夫である、視界支援画像生成装置1Cについて説明する。
Next, for the purpose of the present disclosure, which is to provide a display image that gives less sense of incongruity and allows an appropriate grasp of the situation in the outside world, the visibility support
車両の中には、光学ミラーや、前述の光学アスフェリカルミラーを車載カメラに置き換えるものがある。車載カメラで撮像した画像を適宜画像処理し、視界支援画像として車内の表示装置等に表示する。車両に搭乗したドライバー等はこの視界支援画像を見て、車外の様子を確認することができる。 Some vehicles have optical mirrors or replace the aforementioned optical aspherical mirrors with onboard cameras. The image captured by the in-vehicle camera is appropriately image-processed and displayed on the in-vehicle display device or the like as a visual field support image. A driver or the like in the vehicle can see the visual field support image to check the situation outside the vehicle.
ここで、上記の置き換え前の光学ミラーの場合、肉眼の視差から発生する眼球の動き、対象物に対するピント合わせの反応により、ドライバー等は距離感を得ることができる。 Here, in the case of the optical mirror before replacement, the driver or the like can get a sense of distance from the movement of the eyeball caused by the parallax of the naked eye and the reaction of focusing on the object.
一方、車載カメラは、一般的にピント調整の機構を持たない。その為、例えば無限遠に固定ピントで撮像すると、得られる映像のピントは一様となる。したがって、表示装置に表示された視界支援画像から、ドライバー等が十分な遠近感を得ることはできないものであった。 On the other hand, in-vehicle cameras generally do not have a mechanism for adjusting focus. Therefore, for example, when an image is captured at infinity with a fixed focus, the obtained image has a uniform focus. Therefore, the driver or the like cannot obtain a sufficient sense of perspective from the visual field support image displayed on the display device.
特に、CMS(カメラモニタリングシステム)などでドアミラーが車載カメラに置き換わった場合に、ドライバー等が表示装置上の画像を見ながら車両を後退させるシーンなどで、遠近感の無さが問題となる。 In particular, when the door mirror is replaced with an in-vehicle camera in a CMS (camera monitoring system), etc., the lack of perspective becomes a problem in scenes such as when the vehicle is backed up while looking at the image on the display device.
例えば、ドライバーが車両を後退させて駐車する場合を考える。車両の後方に柵などによって駐車枠が仕切られていることがある。この時、ドライバーの視点では、表示装置上の画像からドライバー等が十分な遠近感を得ることはできないため、車体に柵が刺さっているかの如く見える。このような状態では、ドライバーが後退駐車時の停止位置をうまく判断することができない。 For example, consider the case where the driver reverses the vehicle to park. A parking frame may be partitioned off behind the vehicle by a fence or the like. At this time, from the driver's point of view, the image on the display device does not allow the driver or the like to obtain a sufficient sense of perspective, so it looks as if a fence is stuck in the vehicle body. In such a state, the driver cannot properly determine the stop position for reverse parking.
そこで、本開示の視界支援画像生成装置1Cにおいては、表示装置への人間の注視ポイントを把握し、当該注視ポイントにピントを合わせ、そのポイントとは距離(遠近)の異なる箇所にぼかし処理を行うことにより、視界支援画像上で距離感を仮想的に表現することができる。
Therefore, in the visibility support
以下、視界支援画像上で距離感を仮想的に表現するための構成について詳述するが、本開示の視界支援画像生成装置1Cにより、ドライバー等は、視界支援画像上で距離感を得ることができる。
The configuration for virtually expressing the sense of distance on the visibility support image will be described below. With the visibility support
図17は、本開示の視界支援画像生成装置1Cの実施例を示す構成図である。図17に示した各装置が、自車両100に搭載されている。図17に示すハードウェア構成は、図3に基づき説明した視界支援画像生成装置1と基本的に同様である。図17に示した実施例が、図3に示した実施例と違うのは、視界支援画像生成装置1Cが、カメラが2つに増えていることと、検知部18を更に備えていることである。検知部18については後述することとし、まずはカメラが2つに増えていることについて説明する。
FIG. 17 is a configuration diagram showing an example of a visibility support
図18は、車載カメラの様々な設置例を示している。なお、図18には、車両の進行方向をx軸、車幅方向をy軸、車両の高さ方向をz軸とした直交座標系を付加してある。 FIG. 18 shows various installation examples of an in-vehicle camera. 18, an orthogonal coordinate system is added in which the x-axis is the traveling direction of the vehicle, the y-axis is the width direction of the vehicle, and the z-axis is the height direction of the vehicle.
本開示の視界支援画像生成装置1Cにおいては、視差検出範囲を得る為に、カメラを2つ以上配置する。図18の例では、カメラを2つ配置している。複数のカメラの設置位置は自由である。図18(a)に示しているように、車両のドアミラーと車両後部とにそれぞれ1つずつ、カメラを設置してよい。また、車両後部に2つカメラを設置してもよい。車両のドアミラーに2つカメラを設置してもよい。
In the visibility support
また、図18(b)に示すように、車両のドアミラーと、Aピラーのルーフ付近とに1つずつカメラを設置してもよい。 Also, as shown in FIG. 18B, one camera may be installed in each of the door mirrors of the vehicle and the vicinity of the roof of the A pillar.
設置するカメラが2つである場合、一方のカメラを主カメラ12とし、他方のカメラを副カメラ16とする。主カメラ12が撮像する画像をCMS(カメラモニタリングシステム)の表示装置13(モニタ)上に表示し、副カメラ16が撮像する画像は視差検出用に用いる。ただし、副カメラ16の画像をCMS(カメラモニタリングシステム)の表示装置13(モニタ)上に表示してもよい。
When two cameras are installed, one camera is the
そして、主カメラ12が撮像した画像における距離推定が可能な画素に対して、副カメラ16の画像を利用して、被写体までの距離の推定を行う。この距離推定は、既存の距離推定技術を用いてよい。
Then, the distance to the subject is estimated using the image of the sub-camera 16 with respect to the pixels in the image captured by the
なお、必ずしも主カメラ12の撮像画像における全画素について距離推定を行う必要は無いため、主カメラ12上の画素を間引いて距離推定を行ってもよい。このことにより、画像処理に必要な時間を節約できる。
Since it is not always necessary to estimate the distance for all the pixels in the image captured by the
次に、再び図17を参照しつつ、検知部18について説明する。検知部18は、典型的には、CMS(カメラモニタリングシステム)の表示装置13または表示装置13付近に設けられた、ドライバー等の眼球監視用カメラである。例えば車両のドライバーは運転時に表示装置13を見るので、その眼球をカメラで監視し、表示装置による表示上のどこを注視しているのか(注視ポイント)を検出することができる。
Next, the
この検知部18から注視ポイントに係る情報を得た処理部11は、表示装置13に表示された視界支援画像MPにおける注視座標(注視ポイントに相当する座標)を推定する。
The
そして処理部11は、視界支援画像MPにおける前記注視座標を中心にした、上述の主カメラ12および副カメラ16によって行われた距離推定により算出された距離(遠近)に応じたぼかしフィルタを、視界支援画像MPに対して適用する。白シェーディングの透過重畳を行ってもよい。
Then, the
より詳しくは、注視座標からの距離が所定の閾値を超える画素(注視座標とは遠近が大きく違う画素)に対して、前記ぼかしフィルタを適用する。また、当該距離が大きいほど強いぼかしフィルタを適用してよい。 More specifically, the blurring filter is applied to pixels whose distance from the gaze coordinates exceeds a predetermined threshold (pixels whose perspective is significantly different from the gaze coordinates). Also, the larger the distance, the stronger the blurring filter may be applied.
上記構成により、視界支援画像の注視ポイントと距離が近い一定領域(距離が閾値以内の領域)はピントが合った状態となり、その周辺領域は、注視ポイントから前記推定距離が離れるにしたがって、ぼけの強い状態となる。したがって、ドライバー等が視界支援画像MPを、表示装置13を用いて見たときに、注視対象とそれ以外との間の距離感を得ることができる。
With the above configuration, a fixed area (area within a threshold distance) that is close to the fixation point of the visibility support image is in focus, and the surrounding area becomes blurred as the estimated distance increases from the fixation point. be in a strong state. Therefore, when the driver or the like views the visibility support image MP using the
なお、上記の所定の閾値の値(例えば10メートル)や、ぼかし強度を変える距離の分解能は、複数カメラの視差による距離検出の精度や、仕様に応じて変更することができる。また、ぼかしフィルタは、画素単位ではなく、複数の画素からなるブロック単位で適用されてもよい。 Note that the predetermined threshold value (for example, 10 meters) and the distance resolution for changing the blur intensity can be changed according to the accuracy of distance detection based on the parallax of a plurality of cameras and the specifications. Also, the blurring filter may be applied in units of blocks composed of a plurality of pixels instead of in units of pixels.
変形例として、タッチパネル式の表示装置13を用いて、タッチパネル画面を指でタッチするなどして、注視ポイントを変更/固定しても良い。
As a modification, the touch
図19は、図17に示したシステム構成に基づく処理フロー図であり、(a)距離感を仮想的に表現する処理、(b)表示装置13の輝度調光処理を示している。
FIG. 19 is a processing flow diagram based on the system configuration shown in FIG. 17, showing (a) processing for representing a virtual sense of distance, and (b) brightness control processing for the
ステップS201において、処理部11が、主カメラ12と副カメラ16がそれぞれ撮像した画像に基づいて、主カメラ12の距離情報を算出する。
In step S201, the
ステップS202において、検知部18が、ドライバー等が表示装置13(モニタ)を注視しているか否かを確認する。注視している場合(Yesの場合)はステップS203へ進む。注視していない場合(Noの場合)は処理終了となる。
In step S202, the
ステップS203において、処理部11が、前述の注視座標を算出する。この算出処理には、主カメラ12が撮像した画像と、検知部18が検出した前述の注視ポイントに係る情報とが用いられる。
In step S203, the
ステップS204において、処理部11が、前記注視座標における距離情報と周辺の距離情報(ステップS201にて算出済み)に応じたぼかしフィルタを、視界支援画像MPに対して適用する。このフィルタ適用後の視界支援画像MPにおいては、距離感が疑似的に表現されている。
In step S204, the
次に、図19(b)に示した輝度調光処理について説明する。なお、図17に示した検知部18は上述のように、ドライバー等の眼球をカメラで監視し、表示装置13(モニタ)による表示上のどこを注視しているのかを算出する。そのため、この眼球監視を適切に行いうる程度の輝度が、表示装置13(モニタ)には必要となる。
Next, the luminance dimming process shown in FIG. 19(b) will be described. As described above, the
ステップS301において、検知部18が、ドライバー等が表示装置13(モニタ)を注視しているか否かを確認する。注視している場合(Yesの場合)はステップS302へ進む。注視していない場合(Noの場合)はステップS304へ進む。
In step S301, the
ステップS302において、処理部11が、表示装置13(モニタ)は目標輝度に達しているか否かを判断する。目標輝度に達している場合(Yesの場合)、輝度をさらに上げる必要はなく、処理終了となる。目標輝度に達していない場合(Noの場合)、ステップS303へと進み、表示装置13(モニタ)の輝度を徐々に上げる。
In step S302, the
ステップS304は、ドライバー等が表示装置13(モニタ)を注視していない場合(ステップS301参照)に行われる処理である。このとき、検知部18が、一定時間、非注視状態が継続しているか否かを判断する。非注視状態が一定時間継続している場合(Yesの場合)は、ステップS305へと進んで、表示装置13(モニタ)の減光を行う。一方、非注視状態が一定時間継続していない場合(Noの場合)は、上記減光処理をせず、処理終了となる。ドライバーが短時間に何度も表示装置13(モニタ)から目を離した時に、その都度減光を行うと、輝度の上下が短時間に繰り返されて煩わしいためである。
Step S304 is a process performed when the driver or the like is not looking at the display device 13 (monitor) (see step S301). At this time, the
図20は、表示装置13に表示される視界支援画像の比較図であり、(a)表示装置上の注視ポイントを示す図、(b)本開示の視界支援画像生成装置1Cを用いない場合の視界支援画像、(c)本開示の視界支援画像生成装置1Cを用いた場合の視界支援画像MPである。
FIG. 20 is a comparison diagram of the visibility support image displayed on the
本例では、ドライバーの注視ポイントが図20(a)に示した白い丸形の部分にある。これを踏まえて図20(b)と図20(c)とを比較すると、図20(b)においては、画像全体にピントが合っているため、距離感を感じづらい。一方、図20(c)においては、視界支援画像における注視ポイントから一定距離以上の部分をぼかすことで、疑似的に距離感を表現している。このことにより、視界支援画像を見るドライバー等に安心感を与えることができる。 In this example, the driver's gaze point is in the white circle portion shown in FIG. 20(a). Based on this, when comparing FIG. 20(b) and FIG. 20(c), in FIG. 20(b), since the entire image is in focus, it is difficult to sense the distance. On the other hand, in FIG. 20(c), a pseudo sense of distance is expressed by blurring a portion at a certain distance or more from the fixation point in the visibility support image. As a result, it is possible to give a sense of security to the driver or the like who sees the view support image.
また、図示は省略するが、視界支援画像に複数の建物(立体物)が映り込むことがある。例えば、遠くにあるビルと、近くにあるビルが映り込む。ここで、前記注視座標と同程度の距離にある建物は、ぼかしフィルタの適用後であっても、ピントが合った状態となる。すなわち、同定度の距離にどの建物があるかをドライバー等が認識することができる。この点もまた、本開示の視界支援画像生成装置1Cが奏する効果の一つと言える。
In addition, although illustration is omitted, a plurality of buildings (three-dimensional objects) may appear in the view support image. For example, a distant building and a nearby building are reflected. Here, a building at a distance similar to the gaze coordinates is in focus even after the blurring filter is applied. In other words, the driver or the like can recognize which building is at the distance of the degree of identification. This point can also be said to be one of the effects of the visibility support
上記構成において、前記画像変換は、前記撮像画像内に含まれる深消失点を中心として、前記撮像画像の横方向から前記撮像画像の縦方向へと偏角が変わるにつれて、圧縮率が線形に変化するものであってよい。線形変化であれば、偏角に応じて圧縮率が徐々に変動するので、生成された視界支援画像も自然なものとなる。 In the above configuration, in the image conversion, the compression rate changes linearly as the declination angle changes from the horizontal direction of the captured image to the vertical direction of the captured image, centering on a deep vanishing point included in the captured image. It may be something to do. In the case of linear change, the compression ratio gradually changes according to the deflection angle, so the generated view support image also becomes natural.
上記構成において、前記画像変換は、前記深消失点からの距離が遠いほどに圧縮率が増加するものであってよい。この構成により、深消失点の周辺部は低圧縮として画像の情報量を保ちつつ、画角を自然に広げることが可能となる。 In the above configuration, the image conversion may increase the compression rate as the distance from the deep vanishing point increases. With this configuration, it is possible to naturally widen the angle of view while maintaining the information amount of the image by low-compression of the peripheral portion of the deep vanishing point.
上記構成において、前記画像変換は縦長楕円レンズモデルを用いた圧縮であってよい。縦長楕円モデルであれば、通常用いられる真円レンズモデルと形状が近く、画像変換後の表示画像における違和感が少ない。また、真円を規定するパラメータは半径rの1つのみであったのに対して、縦長楕円であれば長軸b、短軸cの2つのパラメータにすることができる。この2つのパラメータを適宜調節することで、従来では生じていた表示画像の違和感を少なくしつつ、画像の縦方向および横方向の圧縮率を柔軟に変動させることができる。 In the above configuration, the image conversion may be compression using an elongated elliptical lens model. The vertically elongated elliptical model has a shape similar to that of a perfectly circular lens model that is normally used, and there is little discomfort in the displayed image after image conversion. Also, while the perfect circle is defined by only one parameter, the radius r, a vertical ellipse can be defined by two parameters, the major axis b and the minor axis c. By appropriately adjusting these two parameters, it is possible to flexibly change the vertical and horizontal compression ratios of the image while reducing the discomfort of the displayed image that has conventionally occurred.
上記構成において、視界支援画像生成装置1は、前記視界支援画像を表示する表示部を更に備えてよい。かかる表示部に視界支援画像を表示することにより、ドライバー等が、横方向に視野の広がった自然な視覚支援画像を見ることができる。
In the above configuration, the visibility assistance
また、本開示は、車両の視界支援画像を生成するための画像変換プログラムにも関する。前記画像変換プログラムは、装置が有する処理部に、画像の実像高と、真円レンズモデルの理想像高との対応関係を示すデータに基づいて、前記画像の実像高と、幾何学形状レンズモデルの理想像高との対応関係を算出するステップと、前記画像の実像高と、前記幾何学形状レンズモデルの理想像高との対応関係に基づいて、前記画像に含まれる各画素の圧縮率を算出するステップと、前記各画素の圧縮率に基づいて、前記画像を圧縮するステップとを実行させ、前記幾何学形状は、前記幾何学形状の中心から横方向に向かう長さが、前記幾何学形状の中心から縦方向に向かう長さよりも短いものであってよい。前記構成により、車両のドアミラー等に設けたカメラが撮像した入力画像から、ドライバー等にとって違和感が少なく、また、外界の適切な状況把握ができる視界支援画像を提供することができる。 The present disclosure also relates to an image conversion program for generating a visibility assistance image of a vehicle. The image conversion program instructs the processing unit of the apparatus to convert the real image height of the image and the geometric lens model based on the data indicating the correspondence relationship between the real image height of the image and the ideal image height of the perfect circular lens model. calculating the correspondence relationship between the ideal image height and the compression ratio of each pixel included in the image based on the correspondence relationship between the real image height of the image and the ideal image height of the geometric lens model and compressing the image based on the compression rate of each pixel, wherein the geometric shape has a length laterally from the center of the geometric shape that is equal to the geometric shape It may be shorter than the length in the longitudinal direction from the center of the shape. According to the above configuration, it is possible to provide a visual field support image from an input image captured by a camera provided in a door mirror or the like of a vehicle so that the driver or the like is less uncomfortable and can appropriately grasp the situation of the outside world.
上記構成において、前記幾何学形状は、前記幾何学形状の中心からの距離が、前記幾何学形状の横方向から縦方向へと偏角が変わるにつれて、線形に変化するものであってよい。線形変化であれば、偏角に応じて圧縮率が徐々に変動するので、当該プログラムを用いて生成された画像も、ドライバー等にとって自然なものとなる。 In the above configuration, the geometric shape may vary linearly as the distance from the center of the geometric shape changes as the deflection angle changes from the horizontal direction to the vertical direction of the geometric shape. If it is a linear change, the compression rate will gradually change according to the angle of argument, so the image generated using the program will also look natural to the driver.
上記構成において、前記幾何学形状は縦長楕円であってよい。縦長楕円モデルであれば、通常用いられる真円レンズモデルと形状が近く、画像変換後の視界支援画像における違和感が少ない。また、真円を規定するパラメータは半径rの1つのみであったのに対して、縦長楕円であれば長軸b、短軸cの2つのパラメータにすることができる。この2つのパラメータを適宜調節することで、従来では生じていた表示画像の違和感を少なくしつつ、画像の縦方向および横方向の圧縮率を柔軟に変動させることができる。 In the above configuration, the geometric shape may be an elongated ellipse. The vertically elongated elliptical model has a shape similar to that of a perfectly circular lens model that is normally used, and there is less sense of discomfort in the field-of-view support image after image conversion. Also, while the perfect circle is defined by only one parameter, the radius r, a vertical ellipse can be defined by two parameters, the major axis b and the minor axis c. By appropriately adjusting these two parameters, it is possible to flexibly change the vertical and horizontal compression ratios of the image while reducing the discomfort of the displayed image that has conventionally occurred.
また、車両が視界支援画像生成装置と、表示装置と、近接車両位置算出装置とを備え、前記近接車両位置算出装置は、自車両である前記車両が走行する車線の隣接車線を走行する、最も近い車両である検出車両の位置情報を取得し、前記視界支援画像生成装置は、前記自車両からの画像を撮像するカメラと、処理部とを備え、前記処理部は、前記カメラが撮像した撮像画像を画像変換して視界支援画像を生成し、前記表示装置は、前記視界支援画像を表示し、前記視界支援画像は、検出車両表示部とアスフェリカル部とを有しており、前記アスフェリカル部における圧縮率は、前記検出車両表示部における圧縮率よりも高く、前記検出車両は前記検出車両表示部に表示され、前記検出車両の、前記検出車両表示部における表示位置が、前記検出車両表示部内の所定の箇所を超えた後は、前記視界支援画像における前記検出車両表示部の位置が、前記検出車両の表示位置の移動に追随してよい。 In addition, the vehicle includes a visibility support image generation device, a display device, and an approaching vehicle position calculation device, and the approaching vehicle position calculation device is the closest vehicle traveling in a lane adjacent to the lane in which the vehicle, which is the own vehicle, travels. Acquiring position information of a detected vehicle that is a nearby vehicle, the visibility support image generation device includes a camera that captures an image from the own vehicle, and a processing unit, and the processing unit captures the image captured by the camera. An image is image-converted to generate a visibility assistance image, the display device displays the visibility assistance image, the visibility assistance image has a detected vehicle display portion and an aspherical portion, and the aspherical portion The compression rate is higher than the compression rate in the detected vehicle display section, the detected vehicle is displayed in the detected vehicle display section, and the display position of the detected vehicle in the detected vehicle display section is the same as that in the detected vehicle display section. After exceeding the predetermined position, the position of the detected vehicle display portion in the visibility support image may follow the movement of the display position of the detected vehicle.
同様に、車両の視界支援画像を生成する視界支援画像生成装置が、車両からの画像を撮像するカメラと、処理部とを備え、前記処理部は、近接車両位置算出装置から、自車両である前記車両が走行する車線の隣接車線を走行する、最も近い車両である検出車両の位置情報を取得し、前記処理部は、前記カメラが撮像した撮像画像を画像変換して、表示用の視界支援画像を生成し、前記視界支援画像は、検出車両表示部とアスフェリカル部とを有しており、前記アスフェリカル部における圧縮率は、前記検出車両表示部における圧縮率よりも高く、前記検出車両は前記検出車両表示部に表示され、前記検出車両の、前記検出車両表示部における表示位置が、前記検出車両表示部内の所定の箇所を超えた後は、前記視界支援画像における前記検出車両表示部の位置が、前記検出車両の表示位置の移動に追随してよい。 Similarly, a visibility support image generation device for generating a visibility support image of a vehicle includes a camera that captures an image from the vehicle and a processing unit, and the processing unit is the own vehicle from the nearby vehicle position calculation device. Acquires the position information of the detected vehicle, which is the closest vehicle traveling in a lane adjacent to the lane in which the vehicle travels, and the processing unit converts the captured image captured by the camera into an image to support visual field for display. generating an image, wherein the visibility assistance image has a detected vehicle display portion and an aspherical portion, wherein a compression ratio in the aspherical portion is higher than a compression ratio in the detected vehicle display portion, and the detected vehicle is the After the display position of the detected vehicle in the detected vehicle display portion exceeds a predetermined position in the detected vehicle display portion, the position of the detected vehicle display portion in the view support image is displayed on the detected vehicle display portion. may follow the movement of the display position of the detected vehicle.
上記構成により、ドライバー等にとって違和感の無い視界支援画像を提供することができる。さらに、視界支援画像には依然としてアスフェリカル部に相当する箇所があるため、高画角の表示が可能である。 With the above configuration, it is possible to provide a visual field support image that does not cause discomfort to the driver or the like. Furthermore, since the visibility support image still has a portion corresponding to the aspherical portion, it is possible to display with a wide angle of view.
上記構成において、前記視界支援画像がアスフェリカル部を2つ有しており、前記2つのアスフェリカル部が、前記視界支援画像における前記検出車両表示部の左右にそれぞれ配置されてよい。また、前記視界支援画像における前記検出車両表示部の位置が、前記検出車両の表示位置の移動に追随するのに応じて、前記2つのアスフェリカル部における画角または画素数が変化し、前記2つのアスフェリカル部における画角または画素数の変化は、前記視界支援画像における画角または画素数が所定の値に維持されるように行われてよい。前記構成により、前記検出車両表示部の位置が前記検出車両の表示位置の移動に追随しても、2つ目のアスフェリカル部が前記視界支援画像の画角を補うことができる。 In the above configuration, the visibility assistance image may have two aspherical portions, and the two aspherical portions may be arranged on the left and right sides of the detected vehicle display portion in the visibility assistance image. Further, as the position of the detected vehicle display portion in the view support image follows the movement of the display position of the detected vehicle, the angle of view or the number of pixels in the two aspherical portions changes, and the two The angle of view or the number of pixels in the aspherical portion may be changed so that the angle of view or the number of pixels in the visibility support image is maintained at a predetermined value. With the above configuration, even if the position of the detected vehicle display portion follows the movement of the display position of the detected vehicle, the second aspherical portion can compensate for the angle of view of the visibility support image.
上記構成において、前記視界支援画像における、前記検出車両の表示位置が、前記視界支援画像に表示可能な最大画角範囲における、前記検出車両の移動の仕方に追従するように割り当てられてよい。前記構成により、視界支援画像における検出車両の移動を違和感なく表示することができる。 In the above configuration, the display position of the detected vehicle in the visibility support image may be assigned so as to follow the movement of the detected vehicle in the maximum view angle range displayable in the visibility support image. With the above configuration, it is possible to display the movement of the detected vehicle in the visibility support image without causing a sense of incongruity.
上記構成において、前記視界支援画像における前記検出車両の表示位置が、前記カメラと前記検出車両との間の相対位置と極座標上で一致するように割り当てられてよい。前記構成により、視界支援画像における検出車両の角度的位置が、車両の乗員が肉眼で見るのと同様の位置に表示されるので、違和感が少ない。 In the above configuration, the display position of the detected vehicle in the visibility support image may be assigned so as to match the relative position between the camera and the detected vehicle on polar coordinates. With the above configuration, the angular position of the detected vehicle in the visual field support image is displayed at the same position as seen by the occupant of the vehicle with the naked eye, so there is little sense of discomfort.
また、視界支援画像生成装置を備えた車両において、前記視界支援画像生成装置は、処理部と、第1カメラと、第2カメラと、第1カメラが撮像した画像に基づいて生成された視界支援画像を表示する表示装置と、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出する検知部と、を備え、前記処理部が、第1カメラが撮像した画像における、第1カメラから被写体までの距離を、前記第1カメラと前記第2カメラの間に生じる視差を用いて算出し、前記検知部が、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出し、前記処理部が、前記注視ポイントに基づいて、前記視界支援画像における、前記乗員の注視座標を推定し、前記処理部が、前記視界支援画像における前記注視座標を中心にした、前記距離に応じたぼかしフィルタを、前記視界支援画像に対して適用してよい。 Further, in a vehicle equipped with a visibility support image generation device, the visibility support image generation device includes a processing unit, a first camera, a second camera, and a visibility support image generated based on an image captured by the first camera. a display device that displays an image; and a detection unit that detects a gaze point of an occupant on the vehicle in the display device, and the processing unit detects the subject from the first camera in the image captured by the first camera. The distance to is calculated using the parallax generated between the first camera and the second camera, and the detection unit detects the gaze point on the display device of the occupant riding in the vehicle, and the processing unit estimates the occupant's gaze coordinates in the visibility support image based on the gaze point, and the processing unit applies a blur filter based on the distance centered on the gaze coordinates in the visibility assistance image , may be applied to the visibility assistance image.
同様に、車両の視界支援画像を生成する視界支援画像生成装置が、処理部と、第1カメラと、第2カメラと、第1カメラが撮像した画像に基づいて生成された視界支援画像を表示する表示装置と、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出する検知部と、を備え、前記処理部が、第1カメラが撮像した画像における、第1カメラから被写体までの距離を、前記第1カメラと前記第2カメラの間に生じる視差を用いて算出し、前記検知部が、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出し、前記処理部が、前記注視ポイントに基づいて、前記視界支援画像における、前記乗員の注視座標を推定し、前記処理部が、前記視界支援画像における前記注視座標を中心にした、前記距離に応じたぼかしフィルタを、前記視界支援画像に対して適用してよい。 Similarly, a visibility support image generation device that generates a visibility support image of the vehicle displays the visibility support image generated based on the images captured by the processing unit, the first camera, the second camera, and the first camera. and a detection unit that detects a gaze point of an occupant in the vehicle on the display device, and the processing unit detects the distance from the first camera to the subject in the image captured by the first camera. is calculated using the parallax generated between the first camera and the second camera, the detection unit detects a gaze point on the display device of an occupant riding in the vehicle, and the processing unit calculates the Based on the gaze point, the occupant's gaze coordinates in the visibility support image are estimated, and the processing unit applies a blur filter according to the distance centered on the gaze coordinates in the visibility support image to the field of view. May be applied to support images.
上記構成により、車両に搭乗するドライバー等は、視界支援画像上で距離感を得ることができる。 With the above configuration, a driver or the like in a vehicle can obtain a sense of distance on the visibility support image.
上記構成において、前記ぼかしフィルタは、前記注視座標を基準にした、所定の距離以上の画素または画素ブロックに対してぼかしが適用されるものであってよい。また、前記ぼかしフィルタは、前記注視座標からの距離が大きくなるほどに強いぼかしが適用されるものであってよい。前記構成により、注視座標と距離の近い箇所がピントの合った状態となり、注視座標と距離の遠い箇所はぼけた状態となるので、車両に搭乗するドライバー等は、視界支援画像上で距離感をより明確に得ることができる。また、前記注視座標からの距離が大きくなるほどに強いぼかしがかけられることにより、ドライバー等の注意力は注視座標付近へと集中し、ドライバー等は、さらに明確な距離感を得ることができる。 In the above configuration, the blurring filter may apply blurring to pixels or pixel blocks at a predetermined distance or more with respect to the gaze coordinates. Further, the blurring filter may apply stronger blurring as the distance from the gaze coordinate increases. With the above-described configuration, a point close to the gaze coordinates is in focus, and a point distant from the gaze coordinates is out of focus. can be obtained more clearly. Further, by applying stronger blurring as the distance from the gaze coordinate increases, the driver's attention is focused on the vicinity of the gaze coordinate, and the driver can obtain a clearer sense of distance.
上記構成において、前記ぼかしフィルタの、前記距離についての分解能が、前記第1カメラおよび前記第2カメラの視差検出精度に応じて設定されてよい。前記構成により、複数のカメラの視差検出精度が良い場合には、視界支援画像上で、より細やかな距離感を表現することができる。 In the above configuration, the resolution of the distance of the blurring filter may be set according to the parallax detection accuracy of the first camera and the second camera. With the above configuration, when the parallax detection accuracy of a plurality of cameras is high, it is possible to express a more detailed sense of distance on the view support image.
上記構成において、前記検知部が、前記乗員の注視ポイントが前記表示装置上に無いことを検知した時に、前記表示装置の輝度を低下させてよい。また、前記検知部が、前記乗員の注視ポイントが前記表示装置上にあることを検知した時に、前記処理部が前記表示装置の輝度を徐々に上昇させてよい。前記構成により、車両の乗員が表示装置を見ているか否かによって、表示装置の輝度を適切に制御しつつ、注視ポイントを適切に検出することができる。 In the above configuration, the luminance of the display device may be reduced when the detection unit detects that the occupant's gaze point is not on the display device. Further, when the detection unit detects that the occupant's gaze point is on the display device, the processing unit may gradually increase the brightness of the display device. With the above configuration, it is possible to appropriately detect the gaze point while appropriately controlling the brightness of the display device depending on whether or not the vehicle occupant is looking at the display device.
以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施形態における各構成要素を任意に組み合わせてもよい。 Various embodiments have been described above with reference to the drawings, but it goes without saying that the present invention is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications or modifications within the scope described in the claims, and these also belong to the technical scope of the present invention. Understood. Moreover, each component in the above embodiments may be combined arbitrarily without departing from the spirit of the invention.
1 視界支援画像生成装置
1B 視界支援画像生成装置
1C 視界支援画像生成装置
11 処理部
12 カメラ
13 表示装置
14 不揮発性メモリ
15 近接車両位置算出装置
16 カメラ
18 検知部
50 レンズ
51 評価面
52 実像高
53 理想像高
100 自車両
A アスフェリカル部
A1 アスフェリカル部
A2 アスフェリカル部
D 検出車両表示部
E 縦長楕円レンズモデル
Iin 入力画像
Iout 出力画像
M ドアミラー
M1 ミラー部
M2 アスフェリカル部
MP 視界支援画像
OBJ1~OBJ4 物体
PCL 間隔線
1 visibility assistance
Claims (12)
前記視界支援画像生成装置は、
処理部と、
第1カメラと、第2カメラと、
第1カメラが撮像した画像に基づいて生成された視界支援画像を表示する表示装置と、
車両に搭乗する乗員の、前記表示装置における注視ポイントを検出する検知部と、
を備え、
前記処理部が、第1カメラが撮像した画像における、第1カメラから被写体までの距離を、前記第1カメラと前記第2カメラの間に生じる視差を用いて算出し、
前記検知部が、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出し、
前記処理部が、前記注視ポイントに基づいて、前記視界支援画像における、前記乗員の注視座標を推定し、
前記処理部が、前記視界支援画像における前記注視座標を中心にした、前記距離に応じたぼかしフィルタを、前記視界支援画像に対して適用する、
車両。 A vehicle equipped with a vision support image generation device,
The visibility support image generation device,
a processing unit;
a first camera, a second camera,
a display device that displays a visibility support image generated based on an image captured by the first camera;
a detection unit that detects a gaze point on the display device of an occupant riding in the vehicle;
with
The processing unit calculates the distance from the first camera to the subject in the image captured by the first camera using the parallax generated between the first camera and the second camera,
The detection unit detects a gaze point on the display device of an occupant riding in the vehicle,
The processing unit estimates gaze coordinates of the occupant in the visibility support image based on the gaze point,
The processing unit applies a blurring filter according to the distance centered on the gaze coordinate in the view support image to the view support image.
vehicle.
前記ぼかしフィルタは、前記注視座標を基準にした、前記距離が所定の閾値以上の画素または画素ブロックに対してぼかしが適用されるものである、
車両。 A vehicle according to claim 1,
The blurring filter applies blurring to pixels or pixel blocks whose distance is equal to or greater than a predetermined threshold with respect to the gaze coordinates.
vehicle.
前記ぼかしフィルタは、前記注視座標を基準にした前記距離が大きくなるほどに強いぼかしが適用されるものである、
車両。 A vehicle according to claim 1 or claim 2,
The blurring filter applies stronger blurring as the distance based on the gaze coordinates increases.
vehicle.
前記ぼかしフィルタの、前記距離についての分解能が、前記第1カメラおよび前記第2カメラの視差検出精度に応じて設定される、
車両。 A vehicle according to any one of claims 1 to 3,
The resolution of the distance of the blurring filter is set according to the parallax detection accuracy of the first camera and the second camera.
vehicle.
前記検知部が、前記乗員の注視ポイントが前記表示装置上に無いことを検知した時に、前記表示装置の輝度を低下させる、
車両。 A vehicle according to any one of claims 1 to 4,
When the detection unit detects that the occupant's gaze point is not on the display device, the brightness of the display device is reduced.
vehicle.
前記検知部が、前記乗員の注視ポイントが前記表示装置上にあることを検知した時に、前記処理部が前記表示装置の輝度を徐々に上昇させる、
車両。 A vehicle according to any one of claims 1 to 5,
When the detection unit detects that the gaze point of the occupant is on the display device, the processing unit gradually increases the brightness of the display device.
vehicle.
処理部と、
第1カメラと、第2カメラと、
第1カメラが撮像した画像に基づいて生成された視界支援画像を表示する表示装置と、
車両に搭乗する乗員の、前記表示装置における注視ポイントを検出する検知部と、
を備え、
前記処理部が、第1カメラが撮像した画像における、第1カメラから被写体までの距離を、前記第1カメラと前記第2カメラの間に生じる視差を用いて算出し、
前記検知部が、車両に搭乗する乗員の、前記表示装置における注視ポイントを検出し、
前記処理部が、前記注視ポイントに基づいて、前記視界支援画像における、前記乗員の注視座標を推定し、
前記処理部が、前記視界支援画像における前記注視座標を中心にした、前記距離に応じたぼかしフィルタを、前記視界支援画像に対して適用する、
視界支援画像生成装置。 A visibility support image generation device for generating a visibility support image of a vehicle,
a processing unit;
a first camera, a second camera,
a display device that displays a visibility support image generated based on an image captured by the first camera;
a detection unit that detects a gaze point on the display device of an occupant riding in the vehicle;
with
The processing unit calculates the distance from the first camera to the subject in the image captured by the first camera using the parallax generated between the first camera and the second camera,
The detection unit detects a gaze point on the display device of an occupant riding in the vehicle,
The processing unit estimates gaze coordinates of the occupant in the visibility support image based on the gaze point,
The processing unit applies a blurring filter according to the distance centered on the gaze coordinate in the view support image to the view support image.
Vision support image generation device.
前記ぼかしフィルタは、前記注視座標を基準にした、前記距離が所定の閾値以上の画素または画素ブロックに対してぼかしが適用されるものである、
視界支援画像生成装置。 The visibility support image generation device according to claim 7,
The blurring filter applies blurring to pixels or pixel blocks whose distance is equal to or greater than a predetermined threshold with respect to the gaze coordinates.
Vision support image generation device.
前記ぼかしフィルタは、前記注視座標を基準にした、前記距離が大きくなるほどに強いぼかしが適用されるものである、
視界支援画像生成装置。 The visibility support image generation device according to claim 7 or claim 8,
The blurring filter applies stronger blurring as the distance increases based on the gaze coordinates.
Vision support image generation device.
前記ぼかしフィルタの、前記距離についての分解能が、前記第1カメラおよび前記第2カメラの視差検出精度に応じて設定される、
視界支援画像生成装置。 The visibility support image generation device according to any one of claims 7 to 9,
The resolution of the distance of the blurring filter is set according to the parallax detection accuracy of the first camera and the second camera.
Vision support image generation device.
前記検知部が、前記乗員の注視ポイントが前記表示装置上に無いことを検知した時に、前記表示装置の輝度を低下させる、
視界支援画像生成装置。 The visibility support image generation device according to any one of claims 7 to 10,
When the detection unit detects that the occupant's gaze point is not on the display device, the brightness of the display device is reduced.
Vision support image generation device.
前記検知部が、前記乗員の注視ポイントが前記表示装置上にあることを検知した時に、前記処理部が前記表示装置の輝度を徐々に上昇させる、
視界支援画像生成装置。 The visibility support image generation device according to any one of claims 7 to 11,
When the detection unit detects that the gaze point of the occupant is on the display device, the processing unit gradually increases the brightness of the display device.
Vision support image generation device.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019069444A JP7291900B2 (en) | 2019-03-29 | 2019-03-29 | Visibility support image generation device and image conversion program |
DE102020107949.4A DE102020107949A1 (en) | 2019-03-29 | 2020-03-23 | Field of view assist image generation apparatus and image conversion method |
US16/828,493 US10988083B2 (en) | 2019-03-29 | 2020-03-24 | Visual field support image generation device and image conversion method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019069444A JP7291900B2 (en) | 2019-03-29 | 2019-03-29 | Visibility support image generation device and image conversion program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020167649A JP2020167649A (en) | 2020-10-08 |
JP7291900B2 true JP7291900B2 (en) | 2023-06-16 |
Family
ID=72714458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019069444A Active JP7291900B2 (en) | 2019-03-29 | 2019-03-29 | Visibility support image generation device and image conversion program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7291900B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009279146A (en) | 2008-05-21 | 2009-12-03 | Toyota Central R&D Labs Inc | Apparatus and program for image processing |
JP2019004348A (en) | 2017-06-16 | 2019-01-10 | ディーピーティー株式会社 | Moving object image display device and method thereof |
-
2019
- 2019-03-29 JP JP2019069444A patent/JP7291900B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009279146A (en) | 2008-05-21 | 2009-12-03 | Toyota Central R&D Labs Inc | Apparatus and program for image processing |
JP2019004348A (en) | 2017-06-16 | 2019-01-10 | ディーピーティー株式会社 | Moving object image display device and method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2020167649A (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5619873B2 (en) | Device for supporting driving of a vehicle | |
JP6379779B2 (en) | Vehicle display device | |
JP6264037B2 (en) | Vehicle information display device and vehicle information display method | |
EP2894620B1 (en) | Vehicle information display device and vehicle information display method | |
US9232195B2 (en) | Monitoring of the close proximity around a commercial vehicle | |
KR102057021B1 (en) | Panel transformation | |
US11273763B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN111727399B (en) | Display system, mobile object, and design method | |
CN114489332A (en) | Display method and system of AR-HUD output information | |
KR101209796B1 (en) | Display device for vehicle with foreground penetration function and display method of the same | |
CN111556281A (en) | Vehicle safety system and operation method thereof | |
US10988083B2 (en) | Visual field support image generation device and image conversion method | |
JP7291900B2 (en) | Visibility support image generation device and image conversion program | |
JP7291901B2 (en) | Visibility support image generation device and image conversion program | |
JP5305750B2 (en) | Vehicle periphery display device and display method thereof | |
JP6573218B2 (en) | VEHICLE IMAGE DISPLAY DEVICE AND SETTING METHOD | |
JP6439233B2 (en) | Image display apparatus for vehicle and image processing method | |
JP7480756B2 (en) | Vehicle display control device, vehicle display device, vehicle display control method, and vehicle display control program | |
JP2010195271A (en) | Parking support device and display method of parking support image | |
JP2019083385A (en) | Head-up display unit | |
JP6415968B2 (en) | COMMUNICATION DEVICE, WARNING DEVICE, DISPLAY DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP7223283B2 (en) | IMAGE PROCESSING UNIT AND HEAD-UP DISPLAY DEVICE INCLUDING THE SAME | |
KR101453335B1 (en) | Rear-view camera system for a vehicle | |
JP6943079B2 (en) | Image processing unit and head-up display device equipped with it | |
WO2019163564A1 (en) | Vehicle visual confirmation device and angle-of-view setting method for imaging unit in vehicle visual confirmation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230525 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7291900 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
SZ03 | Written request for cancellation of trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313Z03 |