JP2022048281A - Electronic mirror image synthesizing apparatus and image synthesizing method - Google Patents

Electronic mirror image synthesizing apparatus and image synthesizing method Download PDF

Info

Publication number
JP2022048281A
JP2022048281A JP2022014222A JP2022014222A JP2022048281A JP 2022048281 A JP2022048281 A JP 2022048281A JP 2022014222 A JP2022014222 A JP 2022014222A JP 2022014222 A JP2022014222 A JP 2022014222A JP 2022048281 A JP2022048281 A JP 2022048281A
Authority
JP
Japan
Prior art keywords
image
vehicle
camera
projective
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022014222A
Other languages
Japanese (ja)
Other versions
JP7348323B2 (en
Inventor
秀行 堤竹
Hideyuki Tsutsumitake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2022014222A priority Critical patent/JP7348323B2/en
Publication of JP2022048281A publication Critical patent/JP2022048281A/en
Priority to JP2023143801A priority patent/JP2023164507A/en
Application granted granted Critical
Publication of JP7348323B2 publication Critical patent/JP7348323B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic mirror for performing a process of replacing with an effective image (supplementary image) by making an image of an obstacle semitransparent even if there is an obstacle for blocking a part of a field of view.
SOLUTION: The image synthesizing device is configured to make an image of a blind spot of a side camera of a vehicle semi-transparent and perform projective transformation on upper and lower areas of a rear camera image into images of different virtual planes and synthesize them with the semi-transparent portion.
SELECTED DRAWING: Figure 3
COPYRIGHT: (C)2022,JPO&INPIT

Description

実施形態は、電子ミラーの映像合成装置及び映像合成方法に関する。 The embodiment relates to an electronic mirror image compositing device and an image compositing method.

例えば、車に複数のカメラを搭載し、従来のバックミラー、サイドミラーの像の代わりに、前記カメラからの映像を表示器に表示することができる、いわゆる電子ミラーがある。 For example, there is a so-called electronic mirror in which a plurality of cameras are mounted on a car and an image from the cameras can be displayed on a display instead of a conventional image of a rear-view mirror or a side mirror.

特許第4883977号公報Japanese Patent No. 4883977 特許第5500877号公報Japanese Patent No. 5500877 特開2011-213186号公報Japanese Unexamined Patent Publication No. 2011-21186 特開2014-197818号公報Japanese Unexamined Patent Publication No. 2014-197818

電子ミラーシステムにおいては、複数のカメラはそれぞれ1台の車に対する取り付け位置が異なる。そのために、複数のカメラがそれぞれ車の後方の風景を撮影した場合、一方のカメラの視野によれば撮影可能な有効領域であっても、他方のカメラの視野によれば撮影不可能な死角領域(無効領域)がある。 In the electronic mirror system, the plurality of cameras have different mounting positions with respect to one car. Therefore, when multiple cameras each shoot the scenery behind the car, even if it is an effective area that can be shot according to the field of view of one camera, a blind spot area that cannot be shot according to the field of view of the other camera. There is an (invalid area).

上記したように、電子ミラーにおいては、複数のカメラがそれぞれ車の後方の風景を撮影した場合、カメラによって有効領域の映像、無効領域の映像が生じる。 As described above, in the electronic mirror, when a plurality of cameras each capture a landscape behind a car, the cameras generate an image of an effective area and an image of an invalid area.

そこで、本実施形態では、視野の一部を遮断する遮断物が存在したとしても、遮断物の映像を半透明化して、有効映像(補足映像)に置き換え、自然な合成映像を得ることができる、電子ミラーの映像合成装置及び映像合成方法を提供することを目的とする。 Therefore, in the present embodiment, even if there is a blocking object that blocks a part of the visual field, the image of the blocking object can be made translucent and replaced with an effective image (supplementary image) to obtain a natural composite image. , An object of the present invention is to provide a video compositing apparatus and a video compositing method for an electronic mirror.

一実施形態によれば、車両に搭載されて車両の後方の映像を表示する電子ミラーの映像合成装置において、
第1位置から、第1視野により前記車両の後方となる第1風景の第1映像を取得するリアカメラと、
前記第1位置よりも前記車両の前方となる第2位置から、前記第1風景の方向に向かって自車の側部である風景遮断物を一部に配置させた第2視野により、第2映像を取得するサイドカメラと、
前記第2映像に含まれる前記風景遮断物の映像を半透明化映像にする半透明化処理部と、
前記第2映像において前記半透明化映像の輪郭にラインを付加することができるエッジ処理部と、
前記第1映像の一部であって、前記サイドカメラの視点位置に射影変換されかつ前記第2映像の前記半透明化映像の部分に対応した射影変換映像を得る射影変換部と、
前記射影変換映像を前記第2映像の前記半透明化映像の部分に合成する合成部と、を備え、
前記射影変換映像は、
第1の前記射影変換部により、前記リアカメラの視点の映像が、前記車両の後方の遠方平面位置に基づいて前記サイドカメラの視点の映像に射影変換された第1射影変換映像の一部と、
第2の前記射影変換部により、前記リアカメラの視点の映像が、前記遠方平面位置よりも前記サイドカメラの撮影位置に近づいた地面位置に基づいて前記サイドカメラの視点の映像に射影変換された第2射影変換映像の一部を含み、
前記リアカメラ及び前記サイドカメラの水平ライン方向が左右方向であり、垂直ライン方向が上下方向とする場合、
前記半透明化映像の部分に対応した前記射影変換映像の上側領域が前記第1射影変換映像の前記一部であり、
前記半透明化映像の部分に対応した前記射影変換映像の下側領域が前記第2射影変換映像の前記一部であり、
さらに前記第1射影変換又は前記第2射影変換では、前記遠方平面位置及び前記地面位置が、前記車両の走行速度に応じた設定に応じて調整され、
前記リアカメラ及び前記サイドカメラのレンズの前には、圧縮空気を吹き付ける吹出し口を設けている、電子ミラーの映像合成装置が提供される。
According to one embodiment, in a video synthesizer of an electronic mirror mounted on a vehicle and displaying an image of the rear of the vehicle.
A rear camera that acquires the first image of the first landscape behind the vehicle from the first position by the first field of view.
From the second position, which is in front of the vehicle from the first position, the second field of view is such that a landscape blocker, which is a side portion of the own vehicle, is partially arranged toward the direction of the first landscape. With a side camera that captures images,
A semi-transparent processing unit that converts the image of the landscape blocker included in the second image into a semi-transparent image, and
An edge processing unit capable of adding a line to the contour of the translucent image in the second image, and an edge processing unit.
A projecting conversion unit that is a part of the first image, is projected to the viewpoint position of the side camera, and obtains a projecting converted image corresponding to the semi-transparent image portion of the second image.
The
The projective conversion image is
A part of the first projective conversion image in which the image of the viewpoint of the rear camera is projected and converted into the image of the viewpoint of the side camera based on the far plane position behind the vehicle by the first projective conversion unit. ,
The second projection conversion unit projected and converted the image of the viewpoint of the rear camera into the image of the viewpoint of the side camera based on the ground position closer to the shooting position of the side camera than the far plane position. Including a part of the second projective conversion image
When the horizontal line direction of the rear camera and the side camera is the horizontal direction and the vertical line direction is the vertical direction.
The upper region of the projective transformation image corresponding to the translucent image portion is the part of the first projective conversion image.
The lower region of the projective transformation image corresponding to the translucent image portion is the part of the second projective conversion image.
Further, in the first projective transformation or the second projective transformation, the distant plane position and the ground position are adjusted according to the settings according to the traveling speed of the vehicle.
An electronic mirror image synthesizer provided with an outlet for blowing compressed air in front of the lenses of the rear camera and the side camera is provided.

図1は、車を示す平面図である。FIG. 1 is a plan view showing a car. 図2は、図1の車を示す側面図である。FIG. 2 is a side view showing the vehicle of FIG. 図3は、一実施形態が適用された電子ミラーシステムのブロック構成図である。FIG. 3 is a block configuration diagram of an electronic mirror system to which one embodiment is applied. 図4は、図3の電子ミラーシステムの基本的な一動作例を説明するために示したイメージ図である。FIG. 4 is an image diagram shown for explaining a basic operation example of the electronic mirror system of FIG. 図5は、図3の電子ミラーシステムの射影変換を伴う一動作例を説明するために示したイメージ図である。FIG. 5 is an image diagram shown for explaining an operation example accompanied by a projective transformation of the electronic mirror system of FIG. 図6は、射影変換のための基本的原理を説明するために示した説明図である。FIG. 6 is an explanatory diagram shown to explain the basic principle for projective transformation. 図7は、射影変換のための行列式の例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of a determinant for projective transformation. 図8は、車則面の映像の輝度平均化処理を説明するために示した説明図である。FIG. 8 is an explanatory diagram shown for explaining the luminance averaging process of the image of the vehicle rule surface. 図9は、完全死角領域に合成される画像を生成する他の例を示す説明図である。FIG. 9 is an explanatory diagram showing another example of generating an image synthesized in the complete blind spot region. 図10は、完全死角領域に疑似画像が合成された例を示す説明図である。FIG. 10 is an explanatory diagram showing an example in which a pseudo image is synthesized in a complete blind spot region. 図11は、完全死角領域に疑似画像が合成された他の例を示す説明図である。FIG. 11 is an explanatory diagram showing another example in which a pseudo image is synthesized in the complete blind spot region. 図12は、道路を走行する車が速度に応じて車から基準平面位置(遠方平面位置と、地面位置)までの距離が変化する例を示す説明図である。FIG. 12 is an explanatory diagram showing an example in which a vehicle traveling on a road changes the distance from the vehicle to a reference plane position (distant plane position and ground position) according to the speed. 図13は、車から基準(仮想)平面位置までの距離が延長されて遠方平面位置となった場合の電子ミラーの映像例を示す図である。FIG. 13 is a diagram showing an image example of an electronic mirror when the distance from the vehicle to the reference (virtual) plane position is extended to the distant plane position. 図14は、車から基準(仮想)平面位置までの距離が短縮されて近距離平面位置となった場合の電子ミラーの映像例を示す図である。FIG. 14 is a diagram showing an image example of an electronic mirror when the distance from the vehicle to the reference (virtual) plane position is shortened to the short-distance plane position.

以下、実施の形態について図面を参照して説明する。図1は車100を平面的に示している。図2は図1の車を側面から示している。 Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 shows the car 100 in a plane. FIG. 2 shows the car of FIG. 1 from the side.

車100は、後方のトランクルームの上、或はナンバープレートの近くに第1カメラ101が配置されて、後方の風景を撮影可能である。また車100は、サイドミラーの場所に、それぞれ第2カメラ102R,第3カメラ102Lが配置されて、これらも後方の風景を撮影可能である。 In the car 100, the first camera 101 is arranged on the trunk room at the rear or near the license plate, and can photograph the scenery behind. Further, in the car 100, the second camera 102R and the third camera 102L are arranged at the positions of the side mirrors, respectively, and these can also photograph the scenery behind.

上記したように、複数のカメラ101、102R、102Lはそれぞれ1台の車100に対する取り付け位置が異なる。よって複数のカメラがそれぞれ車の後方の風景を撮影した場合、一方のカメラ101の視野W1によれば撮影可能な有効領域であっても、他方のカメラ102Rや102Lの視野(例えばW2)によれば撮影不可能な死角領域(無効領域=視野W3)がある。 As described above, the plurality of cameras 101, 102R, and 102L have different mounting positions with respect to one vehicle 100. Therefore, when a plurality of cameras each photograph the scenery behind the car, even if the effective area can be photographed according to the field of view W1 of one camera 101, the field of view (for example, W2) of the other cameras 102R or 102L may be used. If so, there is a blind spot area (invalid area = field of view W3) that cannot be photographed.

つまり、本電子ミラーの映像合成装置の一実施形態によると、第1カメラ101は、第1位置(例えばトランクルーム位置)から、第1視野W1により第1風景の第1映像(リア映像)を取得する。第2カメラ102Rは、前記第1位置(トランクルーム位置)とは異なる第2位置(運転席の横方向のサイド位置、サイドドア位置)から、前記第1風景の方向に風景遮断物(自車側面)を一部に配置させた第2視野W2により、第2映像を取得する。このために第2映像の一部には、自車側面の映像が含まれている。 That is, according to one embodiment of the image synthesizer of the present electronic mirror, the first camera 101 acquires the first image (rear image) of the first landscape from the first position (for example, the trunk room position) by the first field of view W1. do. The second camera 102R has a landscape blocker (side surface of the own vehicle) in the direction of the first landscape from the second position (lateral side position of the driver's seat, side door position) different from the first position (trunk room position). ) Is partially arranged in the second visual field W2, and the second image is acquired. For this reason, a part of the second image includes an image of the side surface of the own vehicle.

ここで後述する映像処理装置200は、第2映像の一部に第1映像の一部を補足映像として接続する。この場合、第2映像に含まれる風景遮断物(自車側部)の映像を半透明化映像に処理し、この半透明化映像に補足映像を重ねて表示する。また、半透明化映像の輪郭(つまり車のサイドの輪郭)の部分で第2映像と補足映像の境界を設けて、補足映像を第2映像に接続して第3映像を得る。 The video processing apparatus 200, which will be described later, connects a part of the first video as a supplementary video to a part of the second video. In this case, the image of the landscape barrier (own vehicle side) included in the second image is processed into a semi-transparent image, and the supplementary image is superimposed on the semi-transparent image and displayed. Further, a boundary between the second image and the supplementary image is provided at the outline of the semi-transparent image (that is, the outline of the side of the car), and the supplementary image is connected to the second image to obtain the third image.

上記した半透明化映像の領域に重ね表示される補足映像は、遠方平面位置に基づいて射影変換されたもと、前記遠方平面よりも撮影位置に近づいた地面位置に基づいて射影変換されたものが接続(或いは合成、或は繋ぎ合わせ)された映像である。 The supplementary image superimposed on the translucent image area described above is connected to the one that is projected and converted based on the position of the distant plane and the one that is projected and converted based on the ground position that is closer to the shooting position than the distant plane. It is an image (or synthesized or spliced together).

さらに第1及び第2カメラの水平ライン方向が左右方向であり、垂直ライン方向が上下方向とする場合、補足映像の上側領域が遠方平面位置に基づいて射影変換された映像であり、補足映像の下側領域が前記地面位置に基づいて射影変換された映像である。 Further, when the horizontal line direction of the first and second cameras is the left-right direction and the vertical line direction is the vertical direction, the upper region of the supplementary image is an image projected and converted based on the distant plane position, and the supplementary image The lower region is an image that has been projected and converted based on the ground position.

さらにまた、風景遮断物の映像は、複数フレームの輝度の平均化処理がなされて半透明化される。これにより、車のドア(ミラー効果を有する)に、隣を並走する車や、すれ違う車、ランプの光などが映り、画像化されるのを防止できる。 Furthermore, the image of the landscape block is translucently processed by averaging the brightness of a plurality of frames. As a result, it is possible to prevent a car running side by side, a car passing by, the light of a lamp, etc. from being reflected on the door of the car (having a Miller effect) and being imaged.

また補足映像の下側領域には、周囲映像の色から近似された色の塗り込み映像が存在する。これにより、車の下側の部分(道路)が推定により表示され、画面全体としての安定感が得られる。 Further, in the lower region of the supplementary image, there is a filled image having a color approximated from the color of the surrounding image. As a result, the lower part (road) of the car is displayed by estimation, and a sense of stability as a whole screen can be obtained.

図3は、上記した処理を行うための電気的処理ブロックを示している。図3において、101、102R、102Lは、それぞれ第1カメラ(リアカメラと称してもよい)、第2カメラ102R(右サイドカメラと称してもよい)、第3カメラ10L(左サイドカメラと称してもよい)であり、各カメラ101、102R、102Lの撮影信号は、映像処理装置200に入力される。 FIG. 3 shows an electrical processing block for performing the above processing. In FIG. 3, 101, 102R, and 102L are the first camera (may be referred to as a rear camera), the second camera 102R (may be referred to as a right side camera), and the third camera 10L (referred to as a left side camera), respectively. The shooting signals of the cameras 101, 102R, and 102L may be input to the image processing device 200.

即ち、第1カメラ101の撮影信号は、第1映像処理部221の映像切出し部221aに入力する。第2カメラ102R(右サイドカメラと称してもよい)の撮影信号は、第2映像処理部222の映像切出し部222aに入力し、第3カメラ102L(左サイドカメラと称してもよい)の撮影信号は、第3映像処理部223の映像切出し部223aに入力する。 That is, the shooting signal of the first camera 101 is input to the video cutting unit 221a of the first video processing unit 221. The shooting signal of the second camera 102R (which may be referred to as a right side camera) is input to the video cutting unit 222a of the second video processing unit 222, and the shooting signal of the third camera 102L (which may be referred to as a left side camera) is taken. The signal is input to the video cutting unit 223a of the third video processing unit 223.

上記の第1カメラ101、第2カメラ102R、第3カメラ102Lは、使用する映像領域よりも広い領域を含む広角領域映像を取得している。それぞれの切出し部221a、222a、222bは、それぞれ広角領域映像から、使用する使用映像領域を切出している。この切出し位置及び切出し領域は、車の速度、車の振動、ハンドル操作方向に応じて可変される場合もある。またユーザ操作により、その切出し位置及び又は切出し領域は、その通常設定位置を可変可能である。これは、映像の監視実験やテストを行う場合にも有効である。 The first camera 101, the second camera 102R, and the third camera 102L have acquired a wide-angle region image including an area wider than the image area to be used. Each of the cutout portions 221a, 222a, and 222b cut out the used image area to be used from the wide-angle area image. The cutout position and the cutout area may be changed according to the speed of the vehicle, the vibration of the vehicle, and the steering wheel operation direction. Further, the cutout position and / or the cutout area can be changed to the normal set position by the user operation. This is also effective when conducting video surveillance experiments and tests.

第1映像処理部221において、映像切出し部221aが切出した映像信号は、射影変換部221b、221cにおいて、射影変換された後、合成部230に入力される。射影変換部221b、221cは、それぞれ射影のための基準位置が異なるが、第1カメラ101の視点位置を、第2カメラ102の視点位置に変換する。 The video signal cut out by the video cutting unit 221a in the first video processing unit 221 is projected and converted by the projective conversion units 221b and 221c, and then input to the compositing unit 230. The projection conversion units 221b and 221c convert the viewpoint position of the first camera 101 to the viewpoint position of the second camera 102, although the reference positions for projection are different from each other.

即ち、射影変換部221b、221cは、遠方平面位置に基づいて射影変換された映像と、前記遠方平面よりも撮影位置に近づいた地面位置に基づいて射影変換された映像を得ることができ、この映像を補足映像として合成部230に出力する。 That is, the projective conversion unit 221b and 221c can obtain an image projected and converted based on the position on the far plane and an image converted based on the ground position closer to the shooting position than the far plane. The video is output to the compositing unit 230 as a supplementary video.

一方、第2映像処理部222において、映像切出し部222aが切出した映像信号は、射影変換部222bにおいて射影変換される。なおこの射影変換部222bの処理は、省略されることもある。また第3映像処理部223においても、映像切出し部223aが切出した映像信号は、射影変換部223bにおいて射影変換される。この射影変換部223bの処理も、省略されることもある。射影変換部222b、223bで変換される変換程度は、先の射影変換部221b、221cで変換される変換程度よりも小さいことは明らかである。 On the other hand, in the second video processing unit 222, the video signal cut out by the video cutting unit 222a is projected and converted by the projective conversion unit 222b. The processing of the projection conversion unit 222b may be omitted. Further, also in the third video processing unit 223, the video signal cut out by the video cutting unit 223a is projected and converted by the projective conversion unit 223b. The processing of the projection conversion unit 223b may also be omitted. It is clear that the degree of conversion converted by the projective conversion unit 222b and 223b is smaller than the degree of conversion converted by the previous projective conversion unit 221b and 221c.

射影変換は、平面射影変換技術或いはホモグラフィ変換技術とも称され、ある視点(第1視点)から見た仮想平面の平面図形を、別の視点(第2視点)からみた仮想平面の平面図形に変換する技術である。 Homography is also called planar projective transformation technology or homography transformation technology, and transforms a plane figure of a virtual plane seen from one viewpoint (first viewpoint) into a plane figure of a virtual plane seen from another viewpoint (second viewpoint). It is a technology to convert.

上記した第2映像処理部222が取得した映像信号には、自車側面の映像(右側ドアの側面を後方向に向かって撮影した映像、つまり風景遮断物映像)が含まれる。同様に、第3映像処理部223が取得した映像信号には、自車側面の映像(左側ドアの側面を後方向に向かって撮影した映像、つまり風景遮断物映像)が含まれる。 The video signal acquired by the second video processing unit 222 described above includes a video of the side surface of the own vehicle (a video of the side surface of the right door taken toward the rear, that is, a landscape blockage video). Similarly, the video signal acquired by the third video processing unit 223 includes a video of the side surface of the own vehicle (a video of the side surface of the left door taken toward the rear, that is, a landscape blockage video).

車に対する第2カメラ(サイドカメラ)102Rの取り付け位置は、決まっているので、第2映像内において風景遮断物映像の領域が、画角のどの領域に存在するかは予めわかっている。同様に、車に対する第3カメラ(サイドカメラ)102Lの取り付け位置は、決まっているので、第3映像内において風景遮断物映像の領域が、画角のどの領域に存在するかも予めわかっている。 Since the mounting position of the second camera (side camera) 102R with respect to the car is fixed, it is known in advance in which region of the angle of view the region of the landscape barrier image exists in the second image. Similarly, since the mounting position of the third camera (side camera) 102L with respect to the car is fixed, it is known in advance in which region of the angle of view the region of the landscape barrier image exists in the third image.

そこで、第2映像の一部に含まれる風景遮断物映像(自車右側面の映像)は、輝度平均化処理部222cにおいて、輝度の平均化処理が行われる。この平均化の理由は、車のドア(ミラー効果を有する)に、隣を並走する車や、すれ違う車、ランプの光などが映り、画像化されるのを防止するためである。同様に、第3映像の一部に含まれる風景遮断物映像(自車左側面の映像)は、輝度平均化処理部223cにおいて、輝度の平均化処理が行われる。 Therefore, the luminance averaging processing unit 222c performs the luminance averaging process of the landscape barrier image (the image on the right side of the own vehicle) included in a part of the second image. The reason for this averaging is to prevent cars running side by side, cars passing by, lamp light, etc. from being reflected on the door of the car (having the Miller effect) and being imaged. Similarly, the luminance averaging process is performed by the luminance averaging processing unit 223c for the landscape blockage image (the image on the left side surface of the own vehicle) included in a part of the third image.

次に、輝度平均化された第2映像の一部に含まれる風景遮断物映像(自車右側面の映像)は、半透明化処理部222dにおいて、半透明化処理される。また、輝度平均化された第3映像の一部に含まれる風景遮断物映像(自車左側面の映像)も、半透明化処理部223dにおいて、半透明化処理される。半透明化の程度は、電子コントローラ250からの情報で任意に制御可能であってもよい。 Next, the landscape barrier image (the image on the right side of the own vehicle) included in a part of the second image whose brightness is averaged is translucently processed by the translucency processing unit 222d. Further, the landscape barrier image (the image on the left side of the own vehicle) included in a part of the third image whose brightness is averaged is also translucently processed by the translucency processing unit 223d. The degree of semi-transparency may be arbitrarily controlled by the information from the electronic controller 250.

さらに、半透明化処理部222dから出力された第2映像は、エッジ処理部222eに入力され、風景遮断物映像のエッジ(輪郭)処理を受けることができる。同様に半透明化処理部223eから出力された第3映像も、エッジ処理部223eに入力され、風景遮断物映像のエッジ(輪郭)処理を受けることができる。エッジ処理は、例えば、輪郭にラインを付ける、或は点線を付ける、などの処理(エッジラインの付加処理)である。 Further, the second image output from the semi-transparency processing unit 222d is input to the edge processing unit 222e, and can be subjected to edge (contour) processing of the landscape barrier image. Similarly, the third image output from the translucency processing unit 223e is also input to the edge processing unit 223e and can be subjected to edge (contour) processing of the landscape barrier image. The edge processing is, for example, a processing (addition processing of an edge line) such as adding a line to an outline or adding a dotted line.

なおエッジラインは、車の運転状況及び又は外部環境に応じて、その色、太さ、濃さなどの要素が種々変更される場合があるし、またユーザ操作により、これらの要素が調整される場合がある。 The color, thickness, darkness, and other elements of the edge line may be changed in various ways depending on the driving conditions of the vehicle and / or the external environment, and these elements may be adjusted by user operation. In some cases.

例えば、車が後退運転されているときは、エッジをクリアにし、障害物と車側面或いは車進行方向との間隔を分かり易くすることができる。 For example, when the vehicle is being driven backwards, the edges can be cleared to make it easier to see the distance between the obstacle and the side of the vehicle or the direction of travel of the vehicle.

第1映像処理部221において上記処理を受けた第1映像信号と、第2映像処理部222において上記処理を受けた第2映像信号と、第3映像処理部223において上記処理を受けた第3映像信号とは、合成部230において合成される。 The first video signal that received the above processing in the first video processing unit 221, the second video signal that received the above processing in the second video processing unit 222, and the third that received the above processing in the third video processing unit 223. The video signal is synthesized by the synthesis unit 230.

電子コントローラ250は、車の速度情報J1、各種マニュアル操作情報J2、右折・左折・直進・後退の状態を示す方向情報J3、時間帯情報J4、ライト点灯情報、外気温度情報、室内温度情報、その他を把握している。 The electronic controller 250 includes vehicle speed information J1, various manual operation information J2, direction information J3 indicating the state of right turn / left turn / straight ahead / backward, time zone information J4, light lighting information, outside air temperature information, room temperature information, and the like. I know.

速度情報J1は、例えば射影変換部221b、221c、222b、223bにおいて、例えば、カメラの視点位置を変更するための基準となる基準平面(基準画像)とカメラとの間隔を自動調整するための調整情報として利用することができる。 The speed information J1 is, for example, adjusted in the projective transformation unit 221b, 221c, 222b, 223b to automatically adjust the distance between the reference plane (reference image) which is a reference for changing the viewpoint position of the camera and the camera. It can be used as information.

マニュアル操作情報J2は、例えば、画像の切出しエリアの基準位置を調整するための情報、射影変換を行うための基準平面を初期設定或いは調整するための情報などがある。 The manual operation information J2 includes, for example, information for adjusting the reference position of the cutout area of the image, information for initial setting or adjusting the reference plane for performing the projective transformation, and the like.

また、方向情報J3は、例えば、映像の切出しエリアの拡張処理、拡大処理、切出しエリアの位置修正処理、半透明化処理、エッジの太さ、色、及び濃度などの変更処理、などを行うときの制御情報として利用可能である。例えば、車が前進しているときは、半透明化の透明度が高く(薄く)する。また車が左旋回、或は右旋回しているときはエッジが太く濃くなり、車の横に位置する障害物との距離をドライバーが認識しやすくする。 Further, when the direction information J3 performs, for example, expansion processing of the cutout area of the image, enlargement processing, position correction processing of the cutout area, semi-transparency processing, change processing of edge thickness, color, density, and the like. It can be used as control information for. For example, when the car is moving forward, the transparency of the translucency is high (thin). Also, when the car is turning left or right, the edges become thicker and darker, making it easier for the driver to recognize the distance to obstacles located next to the car.

また時間帯情報J4は、カメラの感度調整を行う場合に利用可能である。周囲が暗いときはカメラの撮影信号の検出感度を高くし、周囲が明るいときは、該検出感度を抑えるなどすることができる。 Further, the time zone information J4 can be used when adjusting the sensitivity of the camera. When the surroundings are dark, the detection sensitivity of the shooting signal of the camera can be increased, and when the surroundings are bright, the detection sensitivity can be suppressed.

さらにまたセンサ情報としては、各種の情報がある。外の湿度情報、外気温度情報などもある。これらのセンサ情報を利用することにより、よりカメラから適切な映像を得ることができる。例えば、外が雨であれば、カメラの横に設けた圧縮空気クリーナでレンズ周りの水やほこりを除去してもよい。このために、カメラのレンズ前に圧縮空気を吹き付ける吹出し口があってもよい。さらには、雪などがカメラの前方に付着すると氷結することがあるので、カメラのレンズ前にヒータをさらに設けてもよい。 Furthermore, there are various types of sensor information. There is also outside humidity information and outside air temperature information. By using these sensor information, a more appropriate image can be obtained from the camera. For example, if it is raining outside, a compressed air cleaner provided next to the camera may be used to remove water and dust around the lens. For this purpose, there may be an outlet for blowing compressed air in front of the lens of the camera. Furthermore, if snow or the like adheres to the front of the camera, it may freeze, so a heater may be further provided in front of the lens of the camera.

本システムでは、表示器226は、車の室内であって、ドライバーが見やすい位置に配置される。なお後部座席の前や助手席の前にドライバー以外の人が見れるように表示器が増設されていてもよい。 In this system, the display 226 is arranged in a position that is easy for the driver to see in the interior of the car. An indicator may be added in front of the rear seat or the passenger seat so that people other than the driver can see it.

また図3の映像処理装置200の内部或いはその一部は、ソフトウエアにより実現されることが可能である。また前記内部或いはその一部は、記憶媒体に記録されたソフトウエアにより動作する処理装置であってもよい。さらには、当該ソフトウエアは、外部から通信手段により伝送されるものであり、前記内部或いはその一部は、該ソフトウエアを受信して実行する装置であってもよい。また上記映像処理装置200には、記録再生装置が接続されていてもよく、例えば特別に設定された走行スピード、振動、音などに応答して映像信号が記録再生装置に記録されてもよい。 Further, the inside or a part of the image processing device 200 of FIG. 3 can be realized by software. Further, the inside or a part thereof may be a processing device operated by software recorded on a storage medium. Further, the software is transmitted from the outside by a communication means, and the inside or a part thereof may be a device that receives and executes the software. Further, a recording / playback device may be connected to the video processing device 200, and a video signal may be recorded in the recording / playback device in response to, for example, a specially set running speed, vibration, sound, or the like.

図4は、映像合成の基本的処理を説明するための説明図である。リア映像410は、リアカメラ101が撮像した映像から切出されたリア映像である。サイド映像420は、右サイドカメラ102Rが撮像した映像から切り出されたサイド映像である。 FIG. 4 is an explanatory diagram for explaining the basic processing of video composition. The rear image 410 is a rear image cut out from the image captured by the rear camera 101. The side image 420 is a side image cut out from the image captured by the right side camera 102R.

図4は、リア映像410と右サイドカメラ102Rからのサイド映像420を示しているが、実際の装置は、左側の左サイドカメラ102Lからのサイド映像も使用される。ここでは、説明を簡単化するために、リア映像410とサイド映像420との関係で、実施形態を説明する。 FIG. 4 shows the rear image 410 and the side image 420 from the right side camera 102R, but in the actual device, the side image from the left side camera 102L on the left side is also used. Here, in order to simplify the explanation, an embodiment will be described in relation to the rear image 410 and the side image 420.

上記のサイド映像420の一部(左側)には、車の側面の映像A0(自車側面映像或いは風景遮断物の映像と称してもよい)が映り込んでいる。この移り込み領域(映像A0の領域)は、右サイドカメラ102Rにとっては、車の後方風景に対する死角領域である。 An image A0 of the side surface of the vehicle (which may be referred to as a side image of the own vehicle or an image of a landscape blocker) is reflected in a part (left side) of the above side image 420. This transfer region (region of the image A0) is a blind spot region for the rear view of the vehicle for the right side camera 102R.

そこで、この映像A0の領域を透かし処理(半透明化処理部222dによる半透明化処理)して、リア映像410の一部の映像(映像A0に対応する領域の映像)を重ね、合成部230にて合成する。 Therefore, the area of the image A0 is watermarked (semi-transparent processing by the semi-transparency processing unit 222d), and a part of the image of the rear image 410 (the image of the area corresponding to the image A0) is superimposed, and the composition unit 230. Synthesize at.

すると合成映像430に示すように、半透明化された風景遮断物映像に対して、リア映像の一部が重ねて表示される。合成映像430において、エッジライン435は、半透明化された映像A0と、右サイドカメラ102Rが撮影した映像との境界(繋ぎ位置、接続位置、輪郭などと称してもよい)を表している。このエッジライン435は、エッジ処理部222eにおいて、付加される。 Then, as shown in the composite image 430, a part of the rear image is superimposed on the translucent landscape blockage image. In the composite video 430, the edge line 435 represents a boundary (may be referred to as a connection position, a connection position, an outline, etc.) between the translucent video A0 and the video captured by the right side camera 102R. This edge line 435 is added in the edge processing unit 222e.

このエッジライン435は、前進運転或いは後退運転するときに、自車の車幅をドライバーが認識するときに有用である。このエッジライン435は、例えば屋外が暗いとき、明るいときなど周囲状況に応じて、そのライン幅、ライン色、輝度(濃さ)などが可変されてもよい。これにより、ドライバーの注意を促すことも可能となる。 This edge line 435 is useful when the driver recognizes the width of the own vehicle when driving forward or backward. The line width, line color, brightness (darkness) and the like of the edge line 435 may be changed according to the surrounding conditions such as when the outdoors are dark or bright. This also makes it possible to call the driver's attention.

さらに合成映像430において、半透明化された映像A0の上部領域A1と下部領域A2との間に非表示ライン432が示されている。このライン432は、映像として表示されるものではなく、説明の都合で示している。 Further, in the composite video 430, a non-display line 432 is shown between the upper region A1 and the lower region A2 of the translucent video A0. This line 432 is not displayed as an image, but is shown for convenience of explanation.

尚、図4或いは後で説明する図面においてもそうであるが、多数のひし形の図形が示されているが、この図形は実際の映像には表示されない。このひし形の図形は、視点変換が行われた結果、四角形が、ひし形に変形したことを理解させるために示したものである。実際の映像には、この多数のひし形は、表示されない。 As is the case with FIG. 4 or the drawings described later, a large number of diamond-shaped figures are shown, but these figures are not displayed in the actual image. This rhombus figure is shown to make it clear that the quadrangle has been transformed into a rhombus as a result of the viewpoint transformation. Many diamonds are not displayed in the actual image.

先の上部領域A1と下部領域A2の各映像は、リアカメラ101の視点によるリア映像410が、右サイドカメラ102Rの視点の映像に視点変換された映像である。この場合、上部領域A1の変換基準位置は、遠方平面位置412であり、下部領域A2の変換基準位置は、遠方平面位置412よりも、カメラ位置に近づいた地面位置413である。この遠方平面位置412と地面位置413は、右サイドカメラ102Rのサイド映像420では、図示の422、423に対応する。 The images in the upper region A1 and the lower region A2 are images obtained by converting the rear image 410 from the viewpoint of the rear camera 101 into the image from the viewpoint of the right side camera 102R. In this case, the conversion reference position of the upper region A1 is the distant plane position 412, and the conversion reference position of the lower region A2 is the ground position 413 closer to the camera position than the distant plane position 412. The distant plane position 412 and the ground position 413 correspond to 422 and 423 shown in the side image 420 of the right side camera 102R.

図5は、リアカメラ101の視点によるリア映像410が、先の遠方平面位置に基づいて右サイドカメラ102Rの視点の映像に射影変換された第1射影変換映像410Hを示している(図4の射影変換部221bにおいて変換処理される)。またリアカメラ101の視点によるリア映像410が、先の遠方平面位置に基づいて右サイドカメラ102Rの視点の映像に射影変換された第2射影変換映像420Hを示している(図3の射影変換部221cにおいて変換処理される)。 FIG. 5 shows a first projective transformation image 410H in which the rear image 410 from the viewpoint of the rear camera 101 is projected and converted into the image from the viewpoint of the right side camera 102R based on the far plane position (FIG. 4). The conversion process is performed by the projective conversion unit 221b). Further, the rear image 410 from the viewpoint of the rear camera 101 shows the second projective conversion image 420H that has been projected and converted into the image from the viewpoint of the right side camera 102R based on the far-plane position (projection conversion unit in FIG. 3). Conversion processing is performed in 221c).

なお上記の遠方平面位置、遠方平面位置は、運転者が、運転する前にマニュアルにより、位置調整してもよい。また後述するように、予め設定された位置に車の速度に応じて自動的に変化する方式が採用されてもよい。 The above-mentioned distant plane position and distant plane position may be manually adjusted by the driver before driving. Further, as will be described later, a method may be adopted in which the vehicle automatically changes to a preset position according to the speed of the vehicle.

上記第1射影変換映像410Hの一部(P1を含む周辺)及び第2射影変換映像420Hの一部(P2を含む周辺)が切り取られて、それぞれ半透明化された映像A0の上部領域A1と下部領域A2とに合成される。この場合、射影変換映像410Hと射影変換映像420Hから上部領域A1と下部領域A2が切り取られる場合、各領域の映像及び、これらの映像と第2カメラのサイド映像に映像が自然に繋がるように上部領域A1と下部領域A2が切り取られる。 A part of the first projective conversion image 410H (periphery including P1) and a part of the second projective conversion image 420H (periphery including P2) are cut off to form a semi-transparent upper region A1 of the image A0, respectively. It is combined with the lower region A2. In this case, when the upper region A1 and the lower region A2 are cut out from the projected conversion image 410H and the projected conversion image 420H, the upper part is such that the images of each area and these images and the side image of the second camera are naturally connected. Region A1 and lower region A2 are cut out.

さらに右サイドカメラ102Rのサイド映像420において風景遮断物の映像の領域には、リアカメラ101の死角領域も存在する。つまり両カメラの死角領域が存在する。 Further, in the side image 420 of the right side camera 102R, the blind spot area of the rear camera 101 also exists in the area of the image of the landscape blocker. That is, there is a blind spot area for both cameras.

この死角領域は、完全死角領域433である。この領域は、車の後部の下の領域(通常は道路面)に相当する。図5では、合成映像420の左下に示されている。この完全死角領域433は、映像が無いために、何らかの処理を行わない場合、真っ暗、或は真っ白の映像となる可能性がある。 This blind spot area is a complete blind spot area 433. This area corresponds to the area below the rear of the vehicle (usually the road surface). In FIG. 5, it is shown in the lower left of the composite image 420. Since there is no image in this complete blind spot area 433, there is a possibility that the image will be pitch black or pitch white if no processing is performed.

そこで、本システムでは、この領域に対しては、例えば、完全死角領域433の周囲の映像の色或いは類似する色の映像データを充填して補間している。 Therefore, in this system, for example, the color of the image around the complete blind spot area 433 or the image data of a similar color is filled and interpolated in this area.

つまり本システムは、リアカメラ101、右サイドカメラ102R、左サイドカメラ102Lが撮像した映像をできるだけ有効に活用している。 That is, this system makes effective use of the images captured by the rear camera 101, the right side camera 102R, and the left side camera 102L.

図6は、視点を変換するときの考え方を示している。例えば、視点C1が第1カメラの視点であり、視点C2が第2カメラの視点であるとする。まず、視点C1の基準平面P1の画素A1―D1を、仮想平面Pの画素A-Dに一旦置き換える。次に、仮想平面Pの画素A-Dを、視点C2の第2カメラの仮想平面P2の画素A2-D2に変換する。 FIG. 6 shows the way of thinking when changing the viewpoint. For example, it is assumed that the viewpoint C1 is the viewpoint of the first camera and the viewpoint C2 is the viewpoint of the second camera. First, the pixels A1-D1 of the reference plane P1 of the viewpoint C1 are temporarily replaced with the pixels AD of the virtual plane P. Next, the pixels AD of the virtual plane P are converted into the pixels A2-D2 of the virtual plane P2 of the second camera of the viewpoint C2.

ここで、仮想平面P1,P2が同じ位置(先の地面位置)であれば、第1カメラで撮影した地面の映像を、第2カメラで撮像した映像の如く変換することができる。 Here, if the virtual planes P1 and P2 are at the same position (the previous ground position), the image of the ground captured by the first camera can be converted as the image captured by the second camera.

例えば、平面P上に、ある4つの点A-Dがあるとき、これらの各点は、視点C1から撮影した映像では仮想平面P1上のA1-D1に、視点C2から撮影した映像では仮想平面C2上のA2ーD2にそれぞれ対応する。 For example, when there are four points A to D on the plane P, each of these points is in A1-D1 on the virtual plane P1 in the image taken from the viewpoint C1 and in the virtual plane in the image taken from the viewpoint C2. Corresponds to A2-D2 on C2 respectively.

ここで、A1-D1とA2-D2の対応関係が決定されれば、第1カメラで撮影した映像を第2カメラで撮影した映像の如く変換することができる。この対応関係は射影変換(またはホモグラフィ変換)と呼ばれ、行列で表現することができる。 Here, once the correspondence between A1-D1 and A2-D2 is determined, the image captured by the first camera can be converted into the image captured by the second camera. This correspondence is called a projective transformation (or homography transformation) and can be expressed as a matrix.

図7はその変換行列Hを示したものである。いま、仮想平面P1上でのA1-D1の座標を(xi, yi, 1)としたとき、この変換行列Hにより仮想平面P2での座標(ui, vi, 1)に変換されることを示している。ここで、iは0, 1, 2, 3を意味し、座標は2次元平面に1成分を加えた3次元の同次座標系で表現している。 FIG. 7 shows the transformation matrix H. Now, when the coordinates of A1-D1 on the virtual plane P1 are (xi, yi, 1), it is shown that the coordinates (ui, vi, 1) on the virtual plane P2 are converted by this transformation matrix H. ing. Here, i means 0, 1, 2, 3, and the coordinates are expressed in a three-dimensional homogeneous coordinate system in which one component is added to the two-dimensional plane.

すなわち、A1-D1とA2-D2の各座標はそれぞれ以下のように対応する。 That is, the coordinates of A1-D1 and A2-D2 correspond as follows.

A1: (x0, y0, 1)、B1: (x1, y1, 1)、C1: (x2, y2, 1)、D1: (x3, y3, 1)A2: (u0, v0, 1)、B2: (u1, v1, 1)、C2: (u2, v2, 1)D2: (u3, v3, 1),
図7において、(xi, yi, 1)と(ui, vi, 1)が既知であれば、行列成分h0-h7を求めることができる。
A1: (x0, y0, 1), B1: (x1, y1, 1), C1: (x2, y2, 1), D1: (x3, y3, 1) A2: (u0, v0, 1), B2 : (u1, v1, 1), C2: (u2, v2, 1) D2: (u3, v3, 1),
In FIG. 7, if (xi, yi, 1) and (ui, vi, 1) are known, the matrix component h0-h7 can be obtained.

変換行列Hの成分は8であるので、4つの点の対応関係がわかればh0-h7が求まることになる。i=0,1,2,3に対して式を展開し、h0-h7を括りだしたものを図7(図7の下の方の行列式)に示す。この式によりh0-h7を求めることができる。 Since the component of the transformation matrix H is 8, h0-h7 can be obtained if the correspondence between the four points is known. The equation is expanded for i = 0,1,2,3, and h0-h7 is grouped out, which is shown in FIG. 7 (the determinant at the bottom of FIG. 7). From this formula, h0-h7 can be obtained.

この変換行列Hにより、視点c1からみた仮想平面P1の任意の点を視点c2から見た仮想平面P2上の点に変換することが可能となる。 With this transformation matrix H, it is possible to convert an arbitrary point on the virtual plane P1 seen from the viewpoint c1 into a point on the virtual plane P2 seen from the viewpoint c2.

図8は、図3で示した輝度平均化部222c、223cによりの輝度平均化された映像の例を示している。例えば映像510に示すように、車の右側をバスが通過するものとする。この場合、自車側面がミラーのように機能しバスが映る。この状態が、そのまま右サイドカメラ102Rにより、撮像されると、右サイドカメラ102Rが撮影した映像にもバスの映像B1が存在する(映像510、511参照)。 FIG. 8 shows an example of an image whose brightness has been averaged by the brightness averaging units 222c and 223c shown in FIG. For example, as shown in image 510, it is assumed that the bus passes on the right side of the car. In this case, the side of the vehicle functions like a mirror and the bus is reflected. When this state is captured by the right side camera 102R as it is, the image B1 of the bus also exists in the image taken by the right side camera 102R (see images 510 and 511).

車は、走行しているので映り込む映像は種々(バス、風景、家屋等)である。そこで、本システムでは、車の側面の映像B1の輝度を平均化した映像B12とする(映像512を参照)。輝度を平均化した映像B12を半透明化処理した場合は、映像513に示すように、映り込んだ映像は、半透明化映像に対して大きな影響がなくなる。映像511の場合は、輝度平均化処理を行わない場合の映像であり、半透明化映像の部分に邪魔となる映像が映り込む。しかし本システムによると、半透明化部分の映像を見やすくすることができる。 Since the car is running, the images reflected are various (buses, landscapes, houses, etc.). Therefore, in this system, the image B12 is obtained by averaging the brightness of the image B1 on the side surface of the car (see the image 512). When the image B12 whose brightness is averaged is semi-transparently processed, the reflected image has no great influence on the semi-transparent image as shown in the image 513. In the case of the image 511, the image is an image when the luminance averaging process is not performed, and an obstructive image is reflected in the semi-transparent image portion. However, according to this system, it is possible to make the image of the translucent part easier to see.

図9は、完全死角領域433を埋める(或いは塗りつぶす)場合の、他の実施形態を示す説明図である。車に前方を撮影する第4カメラが存在した場合、その撮影した映像の一部映像466を合成映像430の一部に埋め込むことができる。この場合、前方カメラが撮影した映像を切出す切出し部と、切出した映像の前後方向を変換する変換部と、時間調整部とが用いられる。そして時間調整された一部映像466が疑似映像として、合成部230に送られ、完全死角領域433の映像として用いられる。 FIG. 9 is an explanatory diagram showing another embodiment when the complete blind spot region 433 is filled (or filled). If the car has a fourth camera that shoots the front, a part of the shot image 466 can be embedded in a part of the composite image 430. In this case, a cutting unit for cutting out the image captured by the front camera, a conversion unit for converting the front-back direction of the cut-out image, and a time adjusting unit are used. Then, the time-adjusted partial image 466 is sent to the synthesis unit 230 as a pseudo image and used as an image of the complete blind spot region 433.

図10は、標準のカメラを用いた電子ミラーにおいて、合成映像430が表示部226に表示された例である。図10では、右半分側の映像を示しているが、表示部226には、左半分側の映像も表示される。左半分側の映像においても半透明化映像に補足映像が重ねて表示され、半透明化映像の輪郭の部分でリアカメラからの映像と補足映像との境界を示すラインが表示される。 FIG. 10 is an example in which the composite image 430 is displayed on the display unit 226 in an electronic mirror using a standard camera. Although the image on the right half side is shown in FIG. 10, the image on the left half side is also displayed on the display unit 226. In the image on the left half side, the supplementary image is superimposed on the semi-transparent image, and a line indicating the boundary between the image from the rear camera and the supplementary image is displayed at the outline of the semi-transparent image.

図11は、視野角が標準よりも広いパノラマ撮影が可能な第1、第2、第3カメラを用いた場合に得られる合成映像430Aの例を示している。この合成映像430Aにおいても完全死角領域431Aが生じるので、この部分が周囲の色或いは模様と同様な色、或いは模様により埋められる。 FIG. 11 shows an example of a composite image 430A obtained when the first, second, and third cameras capable of panoramic photography having a wider viewing angle than the standard are used. Since the complete blind spot region 431A is also generated in this composite image 430A, this portion is filled with a color or pattern similar to the surrounding color or pattern.

図12は、道路を走行する車502、502を平面的に示している。車502は、速度に応じて、車から基準平面位置(例えば、図4で示した遠方平面位置と、地面位置)までの距離が自動調整される場合がある。速度が遅いときは(例えば0Km/H-35Km/H)、比較的近い後続車(例えば車503)に注意し、速度が中速のときは(例えば35Km/H―65Km/H上)のときはさらに遠い後続車に注意し、それ以上の高速のときは(例えば65Km/H以上)のときはさらに遠い後続車に注意したい場合がある。 FIG. 12 shows the vehicles 502 and 502 traveling on the road in a plane. The vehicle 502 may automatically adjust the distance from the vehicle to the reference plane position (for example, the distant plane position shown in FIG. 4 and the ground position) according to the speed. When the speed is slow (for example, 0 Km / H-35 Km / H), pay attention to the following vehicle (for example, car 503) which is relatively close, and when the speed is medium speed (for example, 35 Km / H-65 Km / H). May want to pay attention to a vehicle that is farther away, and at higher speeds (for example, 65 km / H or more), to pay attention to a vehicle that is farther away.

このような場合、ユーザの設定により、車から基準平面位置(例えば、図4で示した遠方平面位置と、地面位置)までの距離が自動調整されてもよい。 In such a case, the distance from the vehicle to the reference plane position (for example, the distant plane position shown in FIG. 4 and the ground position) may be automatically adjusted by the user's setting.

図13は、基準平面位置(仮想平面位置)が遠い場合の合成映像430の一例であり、図14は、基準平面位置が近い場合の合成映像430の一例である。図13の例では、基準平面位置が遠い場合、遠方後方のビルディングの縦方向のラインは、第1映像と第2映像とで一致している。しかし、近くの車の映像に関しては、第1映像と第2映像との接続部で、段差が生じる。 FIG. 13 is an example of the composite video 430 when the reference plane position (virtual plane position) is far, and FIG. 14 is an example of the composite video 430 when the reference plane position is close. In the example of FIG. 13, when the reference plane position is far, the vertical line of the building far behind coincides with the first image and the second image. However, with respect to the image of a nearby car, a step is generated at the connection portion between the first image and the second image.

これに対して、図14に示すように、基準平面位置(仮想平面位置)が近い場合、遠方後方のビルディングの縦方向のラインは、第1映像と第2映像とでずれ(段差)が生じる。しかし、近くの車の映像に関しては、第1映像と第2映像との接続部ではスムーズな接続となる。 On the other hand, as shown in FIG. 14, when the reference plane position (virtual plane position) is close, the vertical line of the building far behind causes a deviation (step) between the first image and the second image. .. However, with respect to the image of a nearby car, the connection between the first image and the second image is smooth.

したがって、車の速度に応じて、仮想平面位置を調整することにより、運転者が注目したい距離の後方物体を明確にすることができる。 Therefore, by adjusting the virtual plane position according to the speed of the vehicle, it is possible to clarify the rear object at the distance that the driver wants to pay attention to.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また特許請求の範囲に記載された各要素を分離、或は結合することも本発明に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof. It is also included in the present invention to separate or combine the elements described in the claims.

100・・・車、101・・・第1カメラ、102・・・第2カメラ・・・102R、第3カメラ・・・102L、200・・・映像処理装置、221a,222a,223a・・・映像切出し部、221b、221c,222b,223b・・・射影変換部、222c,223c・・・輝度平均化部、222d,223d・・・半透明化処理部、222e,223e・・・エッジ処理部、230・・・合成部、226・・・表示部、250・・・電子コントローラ。 100 ... Car, 101 ... 1st camera, 102 ... 2nd camera ... 102R, 3rd camera ... 102L, 200 ... Video processing device 221a, 222a, 223a ... Image cutting unit, 221b, 221c, 222b, 223b ... Projection conversion unit, 222c, 223c ... Brightness averaging unit, 222d, 223d ... Semi-transparency processing unit, 222e, 223e ... Edge processing unit , 230 ... synthesis unit, 226 ... display unit, 250 ... electronic controller.

Claims (4)

車両に搭載されて車両の後方の映像を表示する電子ミラーの映像合成装置において、
第1位置から、第1視野により前記車両の後方となる第1風景の第1映像を取得するリアカメラと、
前記第1位置よりも前記車両の前方となる第2位置から、前記第1風景の方向に向かって自車の側部である風景遮断物を一部に配置させた第2視野により、第2映像を取得するサイドカメラと、
前記第2映像に含まれる前記風景遮断物の映像を半透明化映像にする半透明化処理部と、
前記第2映像において前記半透明化映像の輪郭にラインを付加することができるエッジ処理部と、
前記第1映像の一部であって、前記サイドカメラの視点位置に射影変換されかつ前記第2映像の前記半透明化映像の部分に対応した射影変換映像を得る射影変換部と、
前記射影変換映像を前記第2映像の前記半透明化映像の部分に合成する合成部と、を備え、
前記射影変換映像は、
第1の前記射影変換部により、前記リアカメラの視点の映像が、前記車両の後方の遠方平面位置に基づいて前記サイドカメラの視点の映像に射影変換された第1射影変換映像の一部と、
第2の前記射影変換部により、前記リアカメラの視点の映像が、前記遠方平面位置よりも前記サイドカメラの撮影位置に近づいた地面位置に基づいて前記サイドカメラの視点の映像に射影変換された第2射影変換映像の一部を含み、
前記リアカメラ及び前記サイドカメラの水平ライン方向が左右方向であり、垂直ライン方向が上下方向とする場合、
前記半透明化映像の部分に対応した前記射影変換映像の上側領域が前記第1射影変換映像の前記一部であり、
前記半透明化映像の部分に対応した前記射影変換映像の下側領域が前記第2射影変換映像の前記一部であり、
さらに前記第1射影変換又は前記第2射影変換では、前記遠方平面位置及び前記地面位置が、前記車両の走行速度に応じた設定に応じて調整され、
前記リアカメラ及び前記サイドカメラのレンズの前には、圧縮空気を吹き付ける吹出し口を設けている、
電子ミラーの映像合成装置。
In an electronic mirror image synthesizer that is mounted on a vehicle and displays an image behind the vehicle.
A rear camera that acquires the first image of the first landscape behind the vehicle from the first position by the first field of view.
From the second position, which is in front of the vehicle from the first position, the second field of view is such that a landscape blocker, which is a side portion of the own vehicle, is partially arranged toward the direction of the first landscape. With a side camera that captures images,
A semi-transparent processing unit that converts the image of the landscape blocker included in the second image into a semi-transparent image, and
An edge processing unit capable of adding a line to the contour of the translucent image in the second image, and an edge processing unit.
A projecting conversion unit that is a part of the first image, is projected to the viewpoint position of the side camera, and obtains a projecting converted image corresponding to the semi-transparent image portion of the second image.
The
The projective conversion image is
A part of the first projective conversion image in which the image of the viewpoint of the rear camera is projected and converted into the image of the viewpoint of the side camera based on the far plane position behind the vehicle by the first projective conversion unit. ,
The second projection conversion unit projected and converted the image of the viewpoint of the rear camera into the image of the viewpoint of the side camera based on the ground position closer to the shooting position of the side camera than the far plane position. Including a part of the second projective conversion image
When the horizontal line direction of the rear camera and the side camera is the horizontal direction and the vertical line direction is the vertical direction.
The upper region of the projective transformation image corresponding to the translucent image portion is the part of the first projective conversion image.
The lower region of the projective transformation image corresponding to the translucent image portion is the part of the second projective conversion image.
Further, in the first projective transformation or the second projective transformation, the distant plane position and the ground position are adjusted according to the settings according to the traveling speed of the vehicle.
In front of the lenses of the rear camera and the side camera, an outlet for blowing compressed air is provided.
Video synthesizer for electronic mirrors.
さらに前記レンズ前にヒータをさらに設けており、また前記ラインの太さ、色、濃度の何れかを変更する手段を備える、請求項1記載の電子ミラーの映像合成装置。 The image synthesizer for an electronic mirror according to claim 1, further comprising a heater further provided in front of the lens and means for changing any of the thickness, color, and density of the line. 車両に搭載されて車両の後方の映像を表示する電子ミラーにおいて、第1位置から、第1視野により前記車両の後方となる第1風景の第1映像を取得するリアカメラと、前記第1位置よりも前記車両の前方となる第2位置から、前記第1風景の方向に向かって自車の側部である風景遮断物を一部に配置させた第2視野により、第2映像を取得するサイドカメラと、前記リアカメラ及び前記サイドカメラからの前記第1映像及び前記第2映像を処理する映像処理装置を用いる電子ミラーの映像合成方法において、
前記第2映像に含まれる前記風景遮断物の映像を半透明化映像にし、
前記第2映像において前記半透明化映像の輪郭にラインを付加し、
前記第1映像の一部を、前記サイドカメラの視点位置に射影変換して、射影変換映像を生成し、この射影変換映像を前記第2映像の前記半透明化映像の部分に合成する方法であり、
前記射影変換映像としては、
第1射影変換部により、前記リアカメラの視点の映像を前記車両の後方の遠方平面位置に基づいて前記サイドカメラの視点の映像に射影変換した第1射影変換映像の一部を有し、
また第2射影変換部により、前記リアカメラの視点の映像を前記遠方平面位置よりも前記サイドカメラの撮影位置に近づいた地面位置に基づいて前記サイドカメラの視点の映像に射影変換した第2射影変換映像の一部を有し、
前記リアカメラ及び前記サイドカメラの水平ライン方向が左右方向であり、垂直ライン方向が上下方向とする場合、
前記半透明化映像の部分に対応した前記射影変換映像の上側領域が前記第1射影変換映像の前記一部であり、
前記半透明化映像の部分に対応した前記射影変換映像の下側領域が前記第2射影変換映像の前記一部であり、
さらに前記第1射影変換又は前記第2射影変換では、前記遠方平面位置及び前記地面位置が、前記車両の走行速度に応じた設定に応じて調整し、
前記リアカメラ及び前記サイドカメラのレンズの前には、圧縮空気を吹き付けられるようにした、
電子ミラーの映像合成方法。
In an electronic mirror mounted on a vehicle and displaying an image of the rear of the vehicle, a rear camera that acquires a first image of a first landscape behind the vehicle from a first position from a first position, and the first position. The second image is acquired from the second position, which is in front of the vehicle, from the second field of view in which the landscape barrier, which is a side portion of the own vehicle, is partially arranged toward the direction of the first landscape. In a method of video composition of an electronic mirror using a side camera and a video processing device that processes the first video and the second video from the rear camera and the side camera.
The image of the landscape blocker included in the second image is made into a semi-transparent image.
In the second image, a line is added to the outline of the semi-transparent image.
A method of projecting a part of the first image to the viewpoint position of the side camera to generate a projective conversion image, and synthesizing the projective conversion image with the semitransparent image portion of the second image. can be,
As the projective conversion image,
It has a part of the first projective conversion image in which the image of the viewpoint of the rear camera is projected and converted into the image of the viewpoint of the side camera based on the far plane position behind the vehicle by the first projective conversion unit.
Further, the second projection conversion unit projects and converts the image of the viewpoint of the rear camera into the image of the viewpoint of the side camera based on the ground position closer to the shooting position of the side camera than the far plane position. Has a part of the converted video,
When the horizontal line direction of the rear camera and the side camera is the horizontal direction and the vertical line direction is the vertical direction.
The upper region of the projective transformation image corresponding to the translucent image portion is the part of the first projective conversion image.
The lower region of the projective transformation image corresponding to the translucent image portion is the part of the second projective conversion image.
Further, in the first projective transformation or the second projective transformation, the distant plane position and the ground position are adjusted according to the settings according to the traveling speed of the vehicle.
Compressed air was blown in front of the lenses of the rear camera and the side camera.
Video composition method for electronic mirrors.
さらに前記レンズ前をヒータで温めることを可能とし、また前記ラインの太さ、色、濃度の何れかを変更可能としている、請求項3記載の電子ミラーの映像合成方法。 The method for synthesizing an image of an electronic mirror according to claim 3, wherein the front of the lens can be heated by a heater, and any of the thickness, color, and density of the line can be changed.
JP2022014222A 2020-04-06 2022-02-01 Electronic mirror image synthesis device and image synthesis method Active JP7348323B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022014222A JP7348323B2 (en) 2020-04-06 2022-02-01 Electronic mirror image synthesis device and image synthesis method
JP2023143801A JP2023164507A (en) 2020-04-06 2023-09-05 Electronic mirror image synthesizing apparatus and image synthesizing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020068461A JP7027476B2 (en) 2020-04-06 2020-04-06 Electronic mirror video compositing device and video compositing method
JP2022014222A JP7348323B2 (en) 2020-04-06 2022-02-01 Electronic mirror image synthesis device and image synthesis method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020068461A Division JP7027476B2 (en) 2020-04-06 2020-04-06 Electronic mirror video compositing device and video compositing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023143801A Division JP2023164507A (en) 2020-04-06 2023-09-05 Electronic mirror image synthesizing apparatus and image synthesizing method

Publications (2)

Publication Number Publication Date
JP2022048281A true JP2022048281A (en) 2022-03-25
JP7348323B2 JP7348323B2 (en) 2023-09-20

Family

ID=71665993

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020068461A Active JP7027476B2 (en) 2020-04-06 2020-04-06 Electronic mirror video compositing device and video compositing method
JP2022014222A Active JP7348323B2 (en) 2020-04-06 2022-02-01 Electronic mirror image synthesis device and image synthesis method
JP2023143801A Pending JP2023164507A (en) 2020-04-06 2023-09-05 Electronic mirror image synthesizing apparatus and image synthesizing method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020068461A Active JP7027476B2 (en) 2020-04-06 2020-04-06 Electronic mirror video compositing device and video compositing method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023143801A Pending JP2023164507A (en) 2020-04-06 2023-09-05 Electronic mirror image synthesizing apparatus and image synthesizing method

Country Status (1)

Country Link
JP (3) JP7027476B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7314885B2 (en) * 2020-09-01 2023-07-26 トヨタ自動車株式会社 Surrounding monitoring device for vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083786A (en) * 2006-09-26 2008-04-10 Clarion Co Ltd Image creation apparatus and image creation method
JP2010149847A (en) * 2009-12-25 2010-07-08 Fujitsu Ten Ltd Driving assist device
JP2013124467A (en) * 2011-12-13 2013-06-24 Sumitomo (Shi) Construction Machinery Co Ltd Surrounding image display device and surrounding image display method of construction machine
JP2014116756A (en) * 2012-12-07 2014-06-26 Toyota Motor Corp Periphery monitoring system
JP2016175586A (en) * 2015-03-20 2016-10-06 株式会社デンソーアイティーラボラトリ Vehicle periphery monitoring device, vehicle periphery monitoring method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083786A (en) * 2006-09-26 2008-04-10 Clarion Co Ltd Image creation apparatus and image creation method
JP2010149847A (en) * 2009-12-25 2010-07-08 Fujitsu Ten Ltd Driving assist device
JP2013124467A (en) * 2011-12-13 2013-06-24 Sumitomo (Shi) Construction Machinery Co Ltd Surrounding image display device and surrounding image display method of construction machine
JP2014116756A (en) * 2012-12-07 2014-06-26 Toyota Motor Corp Periphery monitoring system
JP2016175586A (en) * 2015-03-20 2016-10-06 株式会社デンソーアイティーラボラトリ Vehicle periphery monitoring device, vehicle periphery monitoring method, and program

Also Published As

Publication number Publication date
JP2023164507A (en) 2023-11-10
JP7027476B2 (en) 2022-03-01
JP2020114018A (en) 2020-07-27
JP7348323B2 (en) 2023-09-20

Similar Documents

Publication Publication Date Title
JP2018117320A (en) Video synthesizer and video synthesis method for electron mirror
US11303806B2 (en) Three dimensional rendering for surround view using predetermined viewpoint lookup tables
JP3300341B2 (en) Surveillance system and camera adjustment method
JP5347257B2 (en) Vehicle periphery monitoring device and video display method
JP4642723B2 (en) Image generating apparatus and image generating method
JP5209578B2 (en) Image display device for vehicle
JP2010095086A (en) Vehicular display device and display method
JP4606322B2 (en) Vehicle driving support device
EP3186109A1 (en) Panoramic windshield viewer system
JP2009524171A (en) How to combine multiple images into a bird's eye view image
JP5516998B2 (en) Image generation device
JP7263731B2 (en) Image processing device
JP2009105660A (en) On-vehicle imaging apparatus
JP2023164507A (en) Electronic mirror image synthesizing apparatus and image synthesizing method
JP5271186B2 (en) Image display device for vehicle
JP2005053296A (en) Vehicle circumference visually recognizing device
JP5226621B2 (en) Image display device for vehicle
JP5338374B2 (en) Display device for vehicle and display method for vehicle
JP2003346189A (en) Image display device for vehicle
JP2019202584A (en) Image processing apparatus and image processing method
JP2012065228A (en) Image processing apparatus, image display system, and image display method
JP2007180719A (en) Vehicle drive support apparatus
JP6785480B2 (en) Image synthesizer and control method
JP5257784B2 (en) In-vehicle camera device
JP2005223568A (en) Image composite apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230907

R151 Written notification of patent or utility model registration

Ref document number: 7348323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151