JP2020127077A - Image synthesizing device and control method - Google Patents

Image synthesizing device and control method Download PDF

Info

Publication number
JP2020127077A
JP2020127077A JP2019016959A JP2019016959A JP2020127077A JP 2020127077 A JP2020127077 A JP 2020127077A JP 2019016959 A JP2019016959 A JP 2019016959A JP 2019016959 A JP2019016959 A JP 2019016959A JP 2020127077 A JP2020127077 A JP 2020127077A
Authority
JP
Japan
Prior art keywords
image
images
vehicle
unit
defect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019016959A
Other languages
Japanese (ja)
Inventor
直史 吉田
Naofumi Yoshida
直史 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019016959A priority Critical patent/JP2020127077A/en
Publication of JP2020127077A publication Critical patent/JP2020127077A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Abstract

To provide an image synthesizing device that generates a synthetic image that more appropriately shows a rear side of a vehicle even when an image is defective.SOLUTION: An image synthesizing device 10 includes an acquisition unit 21 that acquires two images, a detection unit 23 that performs a process of detecting a defect in the image acquired by the acquisition unit 21, and a synthesis unit that generates a synthetic image by arranging two images in a predetermined arrangement direction and placing the images in a part where the images overlap and combining the two images with a boundary line of the predetermined position as a boundary when no defect is detected by the detection unit 23 in either of the two images, and generates a synthetic image by arranging at least the other of the two images with a boundary line moved from the predetermined position in one direction in the arrangement direction as a boundary when a defect in only one of the two images is detected by the detecting unit 23, and the one direction is a direction in which, as the boundary line is moved to the one direction in the arrangement direction, the other image is included in the synthetic image more largely.SELECTED DRAWING: Figure 3

Description

本発明は、画像合成装置、及び、制御方法に関する。 The present invention relates to an image synthesizing device and a control method.

車両が備える複数のカメラによって車両の後方を撮影し、撮影した画像を表示する画像表示装置がある。例えば、車両の後方が映った画像を運転者に視認させる画像表示装置、いわゆる車両用電子ミラーがある。 There is an image display device that photographs the rear of the vehicle with a plurality of cameras provided in the vehicle and displays the photographed images. For example, there is a so-called electronic mirror for a vehicle, which is an image display device that allows a driver to visually recognize an image of the rear of a vehicle.

この画像表示装置は、車両の左側ドア近傍及び右側ドア近傍に固定されたカメラが撮影した車両の左側後方及び右側後方の画像と、車両のリアバンパー又はトランクフード付近などに固定されたカメラが撮影した車両の中央後方の画像とを取得する。そして、これらの画像をつなぎあわせることで、左側後方、中央後方及び右側後方が映った1つの画像を生成し、生成した画像をルームミラー型の表示装置に表示する。 This image display device captures images of the rear left and right sides of the vehicle taken by a camera fixed near the left and right doors of the vehicle and a camera fixed near the rear bumper or trunk hood of the vehicle. The image of the rear of the center of the vehicle is acquired. Then, by combining these images, one image showing the left rear, the center rear, and the right rear is generated, and the generated image is displayed on the room mirror type display device.

従来、後側方カメラにより撮影される後側方撮像画像の一部に異常がある場合に、当該一部に相当する位置に、異常の一部に対応する領域を別の画像から切り出して幾何変換した画像を合成して表示する装置がある(例えば、特許文献1参照)。 Conventionally, when there is an abnormality in a part of the captured image of the rear side taken by the rear side camera, a region corresponding to the part of the abnormality is cut out from another image at a position corresponding to the part and the geometrical shape is cut out. There is a device that synthesizes and displays converted images (see, for example, Patent Document 1).

特開2018−107573号公報JP, 2008-107573, A

しかしながら、特許文献1に記載の装置により合成される画像では、異常に対応する部分の画像を魚眼カメラ映像から切り出しているため、解像度が小さく、また、主に駐車用途のカメラであり、フレームレートが小さい場合が多いので、ユーザに適切な後方画像を提供できないという問題がある。 However, in the image synthesized by the device described in Patent Document 1, since the image of the portion corresponding to the abnormality is cut out from the fisheye camera image, the resolution is low, and the image is mainly used for parking, and the frame is used. Since the rate is often small, there is a problem that an appropriate rear image cannot be provided to the user.

そこで、本発明は、画像に不具合がある場合でも、車両の後方をより適切に示す合成画像を生成する画像合成装置を提供することを目的とする。 Therefore, it is an object of the present invention to provide an image synthesizing apparatus that generates a synthetic image that more appropriately shows the rear of a vehicle even if the image has a defect.

本発明の一態様に係る画像合成装置は、互いに異なる撮像条件の下で共通の対象が少なくとも撮像された2つの画像を取得するための取得処理をする取得部と、前記取得部が取得する画像についての不具合を検出するための検出処理をする検出部と、前記2つの画像のどちらにも前記検出部により不具合が検出されない場合に、前記2つの画像を所定の並び方向に並べて一部が重なる位置に配置し、所定位置の境界線を境界として前記2つの画像を合成することで、合成画像を生成する合成部とを備え、前記合成部は、さらに、前記2つの画像のうちの一方の画像だけに前記検出部により不具合が検出された場合には、前記2つの画像のうちの他方の画像を少なくとも配置し、前記所定位置から前記並び方向における一の向きへ移動させた前記境界線を境界として、前記合成画像を生成し、前記一の向きは、前記並び方向において前記一の向きに前記境界線を移動させるほど、前記合成画像に前記他方の画像がより大きく含まれる向きである。 An image synthesizing apparatus according to an aspect of the present invention includes an acquisition unit that performs an acquisition process for acquiring at least two images in which a common target is captured under different imaging conditions, and an image acquired by the acquisition unit. If a defect is not detected by either the detection unit that performs a detection process for detecting a defect of the two images or the two images, the two images are arranged in a predetermined arrangement direction and partially overlap each other. A synthesizing unit for generating a synthesized image by synthesizing the two images with the boundary line at a predetermined position as a boundary, the synthesizing unit further including one of the two images. When a defect is detected only in the image by the detection unit, at least the other image of the two images is arranged and the boundary line moved from the predetermined position to the one direction in the arrangement direction is removed. The composite image is generated as a boundary, and the one direction is a direction in which the other image is included in the composite image to a greater extent as the boundary line is moved to the one direction in the arrangement direction.

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific aspects may be realized by a recording medium such as a system, a method, an integrated circuit, a computer program or a computer-readable CD-ROM, and the system, the method, the integrated circuit, the computer program. It may be realized by any combination of the recording medium and the recording medium.

本発明に係る画像合成装置は、画像に不具合がある場合でも、車両の後方をより適切に示す合成画像を生成することができる。 The image synthesizing apparatus according to the present invention can generate a synthetic image that more appropriately shows the rear of the vehicle even if the image has a defect.

図1は、実施の形態に係る画像合成装置が合成する画像を取得するカメラが搭載された車両の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of a vehicle equipped with a camera that acquires an image to be combined by an image combining device according to an embodiment. 図2は、実施の形態に係る画像合成装置による合成前の画像と合成後の画像を示す説明図である。FIG. 2 is an explanatory diagram showing an image before combining and an image after combining by the image combining device according to the embodiment. 図3は、実施の形態に係る画像合成装置の機能構成を示すブロック図である。FIG. 3 is a block diagram showing a functional configuration of the image synthesizing apparatus according to the embodiment. 図4は、実施の形態に係る取得部が取得し、合成部が幾何変換を行った画像を示す説明図である。FIG. 4 is an explanatory diagram showing an image acquired by the acquisition unit according to the embodiment and geometrically transformed by the synthesis unit. 図5は、実施の形態に係る合成部が合成した画像の第一例を示す説明図である。FIG. 5 is an explanatory diagram showing a first example of an image combined by the combining unit according to the embodiment. 図6は、実施の形態に係る合成部が合成した画像の第二例を示す説明図である。FIG. 6 is an explanatory diagram showing a second example of the image combined by the combining unit according to the embodiment. 図7は、実施の形態に係る合成部が生成する補間画像の第一例を示す説明図である。FIG. 7 is an explanatory diagram showing a first example of the interpolation image generated by the synthesizing unit according to the embodiment. 図8は、実施の形態に係る合成部が生成する補間画像の第二例を示す説明図である。FIG. 8 is an explanatory diagram showing a second example of the interpolation image generated by the synthesizing unit according to the embodiment. 図9は、実施の形態に係る合成部が合成した画像の第三例を示す説明図である。FIG. 9 is an explanatory diagram showing a third example of an image combined by the combining unit according to the embodiment. 図10は、実施の形態に係る合成部が生成する補間画像の第三例を示す説明図である。FIG. 10 is an explanatory diagram showing a third example of the interpolation image generated by the synthesizing unit according to the embodiment. 図11は、実施の形態に係る合成部が生成する補間画像の第四例を示す説明図である。FIG. 11 is an explanatory diagram showing a fourth example of the interpolation image generated by the synthesizing unit according to the embodiment. 図12は、実施の形態に係る画像合成装置が行う処理を示すフロー図である。FIG. 12 is a flowchart showing the processing performed by the image synthesizing apparatus according to the embodiment.

本発明の一態様に係る画像合成装置は、互いに異なる撮像条件の下で共通の対象が少なくとも撮像された2つの画像を取得するための取得処理をする取得部と、前記取得部が取得する画像についての不具合を検出するための検出処理をする検出部と、前記2つの画像のどちらにも前記検出部により不具合が検出されない場合に、前記2つの画像を所定の並び方向に並べて一部が重なる位置に配置し、所定位置の境界線を境界として前記2つの画像を合成することで、合成画像を生成する合成部とを備え、前記合成部は、さらに、前記2つの画像のうちの一方の画像だけに前記検出部により不具合が検出された場合には、前記2つの画像のうちの他方の画像を少なくとも配置し、前記所定位置から前記並び方向における一の向きへ移動させた前記境界線を境界として、前記合成画像を生成し、前記一の向きは、前記並び方向において前記一の向きに前記境界線を移動させるほど、前記合成画像に前記他方の画像がより大きく含まれる向きである。 An image synthesizing apparatus according to an aspect of the present invention includes an acquisition unit that performs an acquisition process for acquiring at least two images in which a common target is captured under different imaging conditions, and an image acquired by the acquisition unit. If a defect is not detected by either the detection unit that performs a detection process for detecting a defect regarding the above or the two images, the two images are arranged in a predetermined arrangement direction and partially overlap each other. A synthesizing unit for generating a synthesized image by synthesizing the two images with the boundary line at a predetermined position as a boundary, the synthesizing unit further including one of the two images. When a defect is detected only in the image by the detection unit, at least the other image of the two images is arranged and the boundary line moved from the predetermined position to the one direction in the arrangement direction is removed. The composite image is generated as a boundary, and the one direction is a direction in which the other image is included more in the composite image as the boundary line is moved to the one direction in the arrangement direction.

上記態様によれば、画像合成装置は、取得する2つの画像の1つだけに不具合がある場合に、不具合のない方の画像がより大きく合成画像に含まれるように境界線を移動させる。その結果、不具合のない方の画像が合成画像においてより大きな面積を有することになる。ユーザは、境界線を移動させずに不具合がない画像が表示される場合よりも、不具合がない画像がより大きな面積を占める合成画像を視認することで、車両の後方をより適切に認識することができる。よって、画像合成装置は、画像に不具合がある場合でも、車両の後方をより適切に示す合成画像を生成することができる。 According to the above aspect, when only one of the two images to be acquired has a defect, the image composition device moves the boundary line such that the image without the problem is included in the composite image in a larger size. As a result, the non-defective image will have a larger area in the composite image. The user can more appropriately recognize the rear of the vehicle by visually observing the composite image in which the non-defective image occupies a larger area than when the non-defective image is displayed without moving the boundary line. You can Therefore, the image synthesizing apparatus can generate a synthetic image that more appropriately shows the rear of the vehicle even if the image has a defect.

例えば、前記取得部は、車両の後方を撮影する2つのカメラであって、前記車両の互いに異なる位置に搭載された2つのカメラを用いて前記2つの画像を取得するための前記取得処理をし、前記合成部によって配置された前記2つの画像のうちの前記他方の画像において前記所定位置より前記一の向きに進んだ位置には、前記車両の一部が映っており、前記合成部は、前記境界線が前記車両の一部と重ならない範囲内で、前記境界線を移動させる。 For example, the acquisition unit performs the acquisition process for acquiring the two images by using two cameras that capture the rear of the vehicle and that are mounted at different positions of the vehicle. In the other image of the two images arranged by the combining unit, a part of the vehicle is shown at a position advanced from the predetermined position in the one direction, and the combining unit is The boundary line is moved within a range in which the boundary line does not overlap a part of the vehicle.

上記態様によれば、画像合成装置は、取得する画像に車両の一部が映っている場合に、その一部が映り込まない合成画像を生成する。仮に合成画像に車両の一部が映り込むと、後方画像として不自然な画像になり、ユーザの困惑を招き得る。よって、画像合成装置は、画像に不具合がある場合でも、ユーザを困惑させることなく、車両の後方をより適切に示す合成画像を生成することができる。 According to the above aspect, the image synthesizing apparatus generates a synthetic image in which a part of the vehicle is not reflected when the acquired image includes a part of the vehicle. If a part of the vehicle is reflected in the composite image, the rear image becomes an unnatural image, which may cause confusion for the user. Therefore, the image synthesizing apparatus can generate a synthetic image that more appropriately shows the rear of the vehicle without disturbing the user even if the image has a defect.

例えば、前記取得部は、車両の後方を撮影する、前記車両の互いに異なる位置に搭載されたカメラを用いて前記2つの画像を取得するための前記取得処理をし、前記画像合成装置は、さらに、前記車両の後方の物体を感知するセンサにより得られた、前記車両から前記物体までの距離情報を取得する距離取得部を備え、前記合成部は、前記2つの画像のうちの一方の画像だけに前記検出部により不具合が検出された前記場合には、さらに、前記距離取得部が取得した前記距離情報に基づいて前記車両の後方の様子を示す第一補間画像を生成して前記2つの画像のうちの前記一方の画像を配置すべき位置に配置し、配置した前記第一補間画像と前記2つの画像のうちの前記他方の画像とを前記境界線を用いて合成する。 For example, the acquisition unit performs the acquisition processing for acquiring the two images by using cameras mounted at different positions of the vehicle for capturing the rear of the vehicle, and the image combining device further includes: A distance acquisition unit that acquires distance information from the vehicle to the object, which is obtained by a sensor that detects an object behind the vehicle, and the combining unit only includes one of the two images. In the case where a defect is detected by the detection unit, a first interpolation image showing a state behind the vehicle is further generated based on the distance information acquired by the distance acquisition unit to generate the two images. One of the two images is arranged at a position to be arranged, and the arranged first interpolation image and the other image of the two images are combined using the boundary line.

上記態様によれば、画像合成装置は、取得する2つの画像のうちの不具合がある方の画像が表示されるべき位置に補間画像(第一補間画像)を配置して合成画像を生成する。第一補間画像は、実際にセンサを用いて取得した車両の後方の物体までの距離に基づいて生成された画像である。よって、ユーザは、不具合がある方の画像の代わりに、補間画像を視認することで、車両の後方の様子を知ることができる。このように、画像合成装置は、画像に不具合がある場合でも、車両の後方をより適切に示す合成画像を生成することができる。 According to the above aspect, the image compositing apparatus arranges the interpolated image (first interpolated image) at the position where the defective image of the two acquired images should be displayed to generate the composite image. The first interpolation image is an image generated based on the distance to the object behind the vehicle that is actually acquired using the sensor. Therefore, the user can know the state behind the vehicle by visually recognizing the interpolated image instead of the defective image. In this way, the image synthesizing apparatus can generate a synthetic image that more appropriately shows the rear of the vehicle even if the image has a defect.

例えば、前記センサは、複数の前記センサを含み、前記距離取得部は、複数の前記センサのうち、前記車両の車速又はシフトポジションに応じて選択されたセンサにより得られた前記距離情報を取得する。 For example, the sensor includes a plurality of the sensors, and the distance acquisition unit acquires the distance information obtained by a sensor selected among the plurality of sensors according to a vehicle speed or a shift position of the vehicle. ..

上記態様によれば、画像合成装置は、車両が搭載している複数のセンサのうちから車速又はシフトポジションに応じて選択されたセンサを用いて補間画像を生成する。このように、画像合成装置は、画像に不具合がある場合でも、適切なセンサを用いて生成した画像を用いて、車両の後方をより適切に示す合成画像を生成することができる。 According to the above aspect, the image synthesizing apparatus generates the interpolated image using the sensor selected from the plurality of sensors mounted on the vehicle according to the vehicle speed or the shift position. In this way, the image synthesizing apparatus can generate a synthetic image that more appropriately shows the rear of the vehicle by using the image generated by using the appropriate sensor even if the image has a defect.

例えば、前記合成部は、前記合成部は、前記2つの画像のうちの一方の画像だけに前記検出部により不具合が検出された場合には、前記不具合の内容を示す第二補間画像を生成して前記2つの画像のうちの前記一方の画像を配置すべき位置に配置し、配置した前記第二補間画像と前記2つの画像のうちの前記他方の画像とを前記境界線を用いて合成する。 For example, when the detecting unit detects a defect in only one of the two images, the combining unit generates a second interpolation image indicating the details of the defect. The one of the two images is arranged at a position where the one of the two images should be arranged, and the arranged second interpolation image and the other image of the two images are combined using the boundary line. ..

上記態様によれば、画像合成装置は、取得する2つの画像のうちの不具合がある方の画像が表示されるべき位置に、不具合の内容を示す補間画像(第二補間画像)を配置して合成画像を生成する。第二補間画像は、不具合の内容を示す画像である。よって、ユーザは、不具合がある方の画像の代わりに、補間画像を視認することで、不具合の内容を知ることができ、対処のための行動をとることができる。このように、画像合成装置は、画像に不具合がある場合でも、不具合の対処のための情報を提供し、その結果、車両の後方をより適切に示す合成画像を生成することができる。 According to the above aspect, the image synthesizing apparatus arranges the interpolated image (second interpolated image) indicating the content of the defect at the position where the defective image of the two images to be acquired should be displayed. Generate a composite image. The second interpolation image is an image showing the content of the defect. Therefore, the user can know the content of the defect by visually recognizing the interpolated image instead of the image having the defect, and can take action for coping. In this way, the image synthesizing apparatus can provide information for coping with the deficiency even when the image has a defect, and as a result, can generate a combined image that more appropriately shows the rear of the vehicle.

本発明の一態様に係る画像合成装置の制御方法は、画像合成装置の制御方法であって、互いに異なる撮像条件の下で共通の対象が少なくとも撮像された2つの画像を取得するための取得処理をする取得ステップと、前記取得ステップで取得する画像についての不具合を検出するための検出処理をする検出ステップと、前記2つの画像のどちらにも前記検出ステップで不具合が検出されない場合に、前記2つの画像を所定の並び方向に並べて一部が重なる位置に配置し、所定位置の境界線を境界として前記2つの画像を合成することで、合成画像を生成する合成ステップとを含み、前記合成ステップでは、さらに、前記2つの画像のうちの一方の画像だけに前記検出ステップで不具合が検出された場合には、前記2つの画像のうちの他方の画像を少なくとも配置し、前記所定位置から前記並び方向における一の向きへ移動させた前記境界線を境界として、前記合成画像を生成し、前記一の向きは、前記並び方向において前記一の向きに前記境界線を移動させるほど、前記合成画像に前記他方の画像がより大きく含まれる向きである。 An image synthesizing apparatus control method according to an aspect of the present invention is an image synthesizing apparatus control method, and is an acquisition process for obtaining at least two images of a common target under different imaging conditions. And a detection step for performing a detection process for detecting a defect in the image acquired in the acquisition step, and when no defect is detected in the detection step in either of the two images, Two images are arranged in a predetermined arrangement direction so as to partially overlap each other, and the two images are combined with the boundary line of the predetermined position as a boundary to generate a combined image. Then, when a defect is detected in only one of the two images in the detecting step, at least the other image of the two images is arranged, and the arrangement is performed from the predetermined position. The boundary line moved to one direction in the direction is used as a boundary to generate the composite image, and the one direction is set to the composite image as the boundary line is moved to the one direction in the arrangement direction. This is the direction in which the other image is included more largely.

これにより、上記画像合成装置と同様の効果を奏する。 Thereby, the same effect as that of the image synthesizing apparatus is obtained.

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific aspects may be realized by a recording medium such as a system, a method, an integrated circuit, a computer program or a computer-readable CD-ROM, and the system, the method, the integrated circuit, the computer program. Alternatively, it may be realized by any combination of recording media.

以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that each of the embodiments described below shows a comprehensive or specific example. Numerical values, shapes, materials, constituent elements, arrangement positions and connection forms of constituent elements, steps, order of steps, and the like shown in the following embodiments are examples, and are not intended to limit the present invention. Further, among the constituent elements in the following embodiments, the constituent elements that are not described in the independent claims showing the highest concept are described as arbitrary constituent elements.

(実施の形態)
本実施の形態において、画像に不具合がある場合でも、車両の後方をより適切に示す合成画像を生成する画像合成装置について説明する。
(Embodiment)
In the present embodiment, an image synthesizing apparatus that generates a synthetic image that more appropriately shows the rear of the vehicle even if the image is defective will be described.

図1は、本実施の形態に係る車両1の一例を示す模式図である。図2は、本実施の形態に係る画像合成装置10による合成前の画像と合成後の画像とを示す説明図である。 FIG. 1 is a schematic diagram showing an example of a vehicle 1 according to the present embodiment. FIG. 2 is an explanatory diagram showing an image before combining and an image after combining by the image combining device 10 according to the present embodiment.

図1に示されるように、車両1は、画像合成装置10と、カメラ12、13及び14と、電子ミラー40とを備える。なお、以降の説明において特に断らない場合には、前後左右の方向は、車両1の進行方向を前方とした場合の方向とし、これは車両1の運転者にとっての前後左右の方向ともいえる。 As shown in FIG. 1, the vehicle 1 includes an image synthesizing device 10, cameras 12, 13, and 14, and an electronic mirror 40. In the following description, unless otherwise specified, the front-rear, left-right direction is the direction when the traveling direction of the vehicle 1 is the front direction, which can be said to be the front-rear direction and the left-right direction for the driver of the vehicle 1.

カメラ12は、車両1の左側ドア付近に固定され、車両1の左側後方を撮影するカメラである。カメラ12は、車両1の左側後方を撮影した上で電子ミラー用に左右反転して画像を生成する。カメラ12が生成した画像を左側後方画像ともいう。 カメラ13は、車両1の右側ドア付近に固定され、車両1の右側後方を撮影するカメラである。カメラ13は、車両1の右側後方を撮影した上で電子ミラー用に左右反転して画像を生成する。カメラ13が生成した画像を右側後方画像ともいう。 The camera 12 is a camera that is fixed near the left side door of the vehicle 1 and takes an image of the left rear side of the vehicle 1. The camera 12 photographs the left rear side of the vehicle 1 and then reverses the image horizontally for an electronic mirror to generate an image. The image generated by the camera 12 is also referred to as a left rear image. The camera 13 is a camera that is fixed near the right side door of the vehicle 1 and takes an image of the right rear side of the vehicle 1. The camera 13 photographs the right rear side of the vehicle 1 and then reverses the image horizontally for an electronic mirror to generate an image. The image generated by the camera 13 is also referred to as a right rear image.

カメラ14は、車両1のリアバンパー又はトランクフード付近などに固定され、車両1の中央後方を撮影するカメラである。カメラ14は、車両1の中央後方を撮影した上で電子ミラー用に左右反転して画像を生成する。カメラ14が生成した画像を中央後方画像ともいう。なお、左右反転した各画像の生成処理は、カメラ12、13及び14ではなく、後段の画像合成装置10(後述する取得部21)で行ってもよい。 The camera 14 is a camera that is fixed near a rear bumper or a trunk hood of the vehicle 1 and takes an image of the rear center of the vehicle 1. The camera 14 images the rear side of the center of the vehicle 1 and then reverses it horizontally for an electronic mirror to generate an image. The image generated by the camera 14 is also referred to as a center rear image. Note that the left-right inverted image generation processing may be performed not by the cameras 12, 13, and 14 but by the image synthesizing apparatus 10 (acquisition unit 21 described later) in the subsequent stage.

カメラ12及び14の撮影範囲の一部は重なっており、カメラ13及び14の撮影範囲の一部は重なっている。そのため、左側後方画像と中央後方画像との一部には共通の対象が映っている。また、右側後方画像と中央後方画像との一部には共通の対象が映っている。 Part of the shooting ranges of the cameras 12 and 14 overlap, and part of the shooting ranges of the cameras 13 and 14 overlap. Therefore, a common target appears in a part of the left rear image and the center rear image. In addition, a common target appears in part of the right rear image and the center rear image.

また、カメラ12が撮像し左右反転して生成した画像のうちの右側には、車両1の一部、より具体的には、車両1の左ドアの一部が映っている。また、カメラ13が撮像し左右反転して生成した画像のうちの左側には、車両1の一部、より具体的には、車両1の右ドアの一部が映っている。 Further, a part of the vehicle 1, more specifically, a part of the left door of the vehicle 1 is shown on the right side of the image captured by the camera 12 and horizontally inverted. Further, a part of the vehicle 1, more specifically, a part of the right door of the vehicle 1 is shown on the left side of the image captured by the camera 13 and generated by horizontally reversing.

カメラ12、13及び14のそれぞれは、互いに異なる撮影条件の下で撮像することで画像を生成する。具体的には、カメラ12、13及び14のそれぞれは、互いに異なる位置に配置され、また、互いに異なる方向を向いて配置されており、例えば60fpsで画像を取得する。また、カメラ12、13及び14のそれぞれの光学系の光学特性は異なっていてもよい。 Each of the cameras 12, 13 and 14 generates an image by capturing images under mutually different capturing conditions. Specifically, each of the cameras 12, 13 and 14 is arranged at a position different from each other and oriented in different directions, and acquires an image at, for example, 60 fps. The optical characteristics of the optical systems of the cameras 12, 13 and 14 may be different.

電子ミラー40は、車両1の後方が映った画像である後方画像50を表示する画像表示装置である。電子ミラー40は、画像合成装置10が出力する映像信号に基づいて画像を表示する。電子ミラー40は、車両1の後方を、光の反射を利用して映す従来のルームミラーの代用として用いられ得る。 The electronic mirror 40 is an image display device that displays a rear image 50 that is an image of the rear of the vehicle 1. The electronic mirror 40 displays an image based on the video signal output by the image synthesizer 10. The electronic mirror 40 can be used as a substitute for a conventional room mirror that projects the rear of the vehicle 1 by utilizing the reflection of light.

画像合成装置10は、カメラ12、13及び14それぞれが生成した画像を合成して電子ミラー40が表示する画像を生成する装置である。カメラ12、13及び14のそれぞれが生成する画像の一例を、図2に画像51、52及び53(「画像51等」ともいう)として示す。画像51、52及び53は、実質的に同時にカメラ12、13及び14のそれぞれにより撮像されたものである。なお、実質的に同時とは、厳密に同時である場合を含むほか、人間にとって同時とみなせる程度の時間差(例えば、撮像間隔と同じ程度の時間差)を有してもよい。また、画像51、52及び53は、電子ミラーに使用するために、それぞれ、カメラ12、13及び14で撮影し、左右反転して生成した画像である。 The image synthesizing device 10 is a device that synthesizes the images generated by the cameras 12, 13, and 14 to generate an image displayed by the electronic mirror 40. An example of images generated by the cameras 12, 13 and 14 is shown in FIG. 2 as images 51, 52 and 53 (also referred to as “image 51 etc.”). Images 51, 52 and 53 are taken substantially simultaneously by cameras 12, 13 and 14, respectively. Note that “substantially simultaneous” includes a case of being strictly simultaneous, and may have a time difference that can be regarded as simultaneous by a human (for example, a time difference similar to an imaging interval). Further, the images 51, 52 and 53 are images generated by being photographed by the cameras 12, 13 and 14 and horizontally inverted for use in the electronic mirror.

上記のとおり、カメラ12、13及び14のそれぞれは、一の対象を互いに異なる撮像条件の下で撮像しているので、画像合成装置10が、カメラ12、13及び14それぞれが生成した画像を、配置すべき位置に配置して単純につなぎあわせただけでは、自然な後方画像50は得られない。 As described above, each of the cameras 12, 13 and 14 images one target under different imaging conditions, so that the image synthesizing device 10 generates the images generated by the cameras 12, 13 and 14, respectively. A natural rear image 50 cannot be obtained only by arranging them at positions to be arranged and simply connecting them.

ここで、「配置すべき位置」とは、カメラ12が左右反転して生成した画像については後方画像50内の左側の位置であり、カメラ13が左右反転して生成した画像については後方画像50内の右側の位置であり、カメラ14が左右反転して生成した画像については後方画像50内の左右中央の位置である。 Here, the “position to be arranged” is the position on the left side in the rear image 50 for the image generated by the camera 12 flipping horizontally, and the rear image 50 for the image generated by flipping the camera 13 horizontally. This is the right side position in the inside, and is the center position in the left and right in the rear image 50 for the image generated by the camera 14 flipping left and right.

自然な後方画像50とは、車両1の運転者が従来のルームミラー(いわゆる物理ミラー)を通して見る、車両1の後方の光景と同じ画像をいう。具体的には、単純につなぎあわせただけの画像では、つなぎあわせの境界付近において、二重化又は消失が生じ得る。二重化とは、一の物が画像に二重に映ることをいい、消失とは、実際には存在するものが画像に映らないことをいう。 The natural rear image 50 is the same image as the rear view of the vehicle 1 as seen by the driver of the vehicle 1 through a conventional rearview mirror (so-called physical mirror). Specifically, in images that are simply stitched together, duplication or disappearance may occur near the stitching boundary. Duplication means that one object appears twice in the image, and disappearance means that what actually exists does not appear in the image.

そこで、画像合成装置10は、カメラ12、13及び14それぞれが生成した画像に応じてこれらの画像に適切な処理を施した上でつなぎ合わせることで、二重化又は消失が抑制された自然な後方画像50を生成し、電子ミラー40に表示させる。 Therefore, the image composition device 10 performs appropriate processing on these images according to the images generated by the cameras 12, 13, and 14 and then joins the images together, so that a natural rearward image in which duplication or disappearance is suppressed is suppressed. 50 is generated and displayed on the electronic mirror 40.

なお、カメラ12、13及び14が生成した3つの画像は、そのうちの隣接する2つが合成された後に、その合成画像と残りの1つが合成されることで後方画像50が生成されてもよい。また、カメラ12、13及び14が生成した3つの画像が同時並行的に合成されることで後方画像50が生成されてもよい。 Note that the three images generated by the cameras 12, 13 and 14 may generate the rearward image 50 by combining the adjacent two of the three images and then combining the remaining one with the combined image. Further, the rear image 50 may be generated by simultaneously synthesizing the three images generated by the cameras 12, 13, and 14 in parallel.

以降において、画像合成装置10の機能及び処理を説明する。 The functions and processing of the image synthesizing device 10 will be described below.

図3は、本実施の形態に係る画像合成装置10の機能構成を示すブロック図である。ここでは、画像合成装置10が、共通の対象が少なくとも撮像された2つの画像である第一画像及び第二画像を取得して合成する場合を例として説明する。この2つの画像は、左側後方画像と中央後方画像とであってもよいし、右側後方画像と中央後方画像とであってもよい。 FIG. 3 is a block diagram showing a functional configuration of the image synthesizing device 10 according to the present embodiment. Here, a case will be described as an example in which the image synthesizing apparatus 10 acquires and synthesizes a first image and a second image that are at least two captured images of a common target. The two images may be a left rear image and a center rear image, or a right rear image and a center rear image.

以降では、第一画像が左後方画像であり、第二画像が中央後方画像である場合について詳しく説明する。この場合、画像合成装置10は、カメラ12及び14により例えば60fpsで第一画像及び第二画像を取得し、取得のたびに、第一画像及び第二画像の合成画像を生成して電子ミラー40に表示する。 Hereinafter, a case where the first image is the left rear image and the second image is the central rear image will be described in detail. In this case, the image synthesizing apparatus 10 acquires the first image and the second image at, for example, 60 fps with the cameras 12 and 14, and at each acquisition, generates the composite image of the first image and the second image to generate the electronic mirror 40. To display.

図3に示されるように、画像合成装置10は、取得部21と、距離取得部22と、検出部23と、合成部24と、表示制御部25とを備える。上記の各構成要素のそれぞれは、プロセッサがメモリ等を用いて所定のプログラムを実行することで実現されてもよいし、専用ハードウェアで実現されてもよい。 As shown in FIG. 3, the image synthesizing device 10 includes an acquisition unit 21, a distance acquisition unit 22, a detection unit 23, a synthesizing unit 24, and a display control unit 25. Each of the above components may be realized by a processor executing a predetermined program using a memory or the like, or may be realized by dedicated hardware.

取得部21は、互いに異なる撮像条件の下で共通の対象が少なくとも撮像された2つの画像を取得するための取得処理をする処理部である。取得部21は、具体的には、車両1に搭載された2つのカメラ12及び14が撮像により生成した画像データを取得する。 The acquisition unit 21 is a processing unit that performs an acquisition process for acquiring at least two images in which a common target is captured under different imaging conditions. Specifically, the acquisition unit 21 acquires image data generated by the two cameras 12 and 14 mounted on the vehicle 1 by imaging.

ここで、取得処理において、画像の取得が正常になされないこともあり得る。例えば、カメラ12又は14の撮影動作が正常でない場合、カメラ12又は14から画像が得られない場合、カメラ12又は14のレンズに何らかの物体が付着したことにより正常に被写体が撮影され得ない場合に、画像の取得が正常になされない。 Here, in the acquisition process, the image may not be normally acquired. For example, when the photographing operation of the camera 12 or 14 is not normal, when an image cannot be obtained from the camera 12 or 14, or when the object cannot be normally photographed because some object is attached to the lens of the camera 12 or 14. , Images are not normally acquired.

取得処理が正常になされない場合、取得部21は、取得処理において、カメラ12又は14に不具合があることを示す情報(例えば所定のエラーメッセージ)を得たり、不具合を有する画像を得たりする。不具合を有する画像とは、全画素が所定の一色(例えば黒又は緑など)である画像、走行中にもかかわらず直前の画像と同じ画像、又は、時間的に所定数(例えば2)だけ前の画像と同じ画像などである。直前の画像と同じ画像が得られるのは、カメラ12又は14に何らかの物体(水滴、泥、雪又は露など)が付着したときに生じ得る現象である。また、時間的に所定数だけ前の画像と同じ画像が得られるのは、カメラ12又は14が取得した画像が所定数のメモリ領域に順次に格納された後に順次に読み出される実装である場合に、上記所定数のメモリ領域のうちの一部のメモリ領域に不具合があるときに生じ得る現象である。 When the acquisition process is not normally performed, the acquisition unit 21 obtains information indicating that the camera 12 or 14 has a defect (for example, a predetermined error message) or an image having a defect in the acquisition process. An image having a defect is an image in which all pixels have a predetermined color (for example, black or green), the same image as the immediately previous image while traveling, or a predetermined number (for example, 2) before in time. The same image as the image of. Obtaining the same image as the immediately previous image is a phenomenon that can occur when an object (water droplet, mud, snow, dew, or the like) is attached to the camera 12 or 14. Further, the same image as the previous image by a predetermined number in time is obtained when the image acquired by the camera 12 or 14 is sequentially stored in the predetermined number of memory areas and then sequentially read out. This is a phenomenon that can occur when some of the predetermined number of memory areas are defective.

距離取得部22は、車両1の後方の物体を感知するセンサ22Aを用いて、車両1の後方の物体までの距離を取得する処理部である。センサ22Aは、少なくとも車両1の後方の物体までの距離を感知する測距センサである。センサ22Aは、具体的には、ソナー、レーダ(Radar)、ライダ(LIDAR)、又は、TOF(Time of Flight)センサなどであり、複数のセンサ22Aが車両1に備えられていてもよい。距離取得部22は、センサ22Aによる感知によって取得した、上記物体までの距離を合成部24に提供する。 The distance acquisition unit 22 is a processing unit that acquires a distance to an object behind the vehicle 1 by using a sensor 22A that senses an object behind the vehicle 1. The sensor 22A is a distance measuring sensor that senses at least a distance to an object behind the vehicle 1. The sensor 22A is, specifically, a sonar, a radar, a lidar (LIDAR), a TOF (Time of Flight) sensor, or the like, and the vehicle 22 may include a plurality of sensors 22A. The distance acquisition unit 22 provides the distance to the object acquired by the detection by the sensor 22A to the combining unit 24.

なお、距離取得部22は、上記距離とともに上記物体が存在する方向を合成部24に提供してもよい。上記方向は、センサ22Aにより検出されたものであってもよいし、センサ22Aの取付位置及び方向などから定められるものであってもよい。 Note that the distance acquisition unit 22 may provide the synthesis unit 24 with the distance and the direction in which the object exists. The direction may be detected by the sensor 22A, or may be determined from the mounting position and direction of the sensor 22A.

車両1が複数のセンサ22Aを備えている場合には、距離取得部22は、複数のセンサ22Aのうち、車両1の車速又はシフトポジションに応じて選択されるセンサ22Aにより得られた距離情報を取得して、合成部24に提供してもよい。車両1の車速又はシフトポジションは、車両1が備えるECU(Electronic Control Unit)から取得可能である。 When the vehicle 1 is provided with a plurality of sensors 22A, the distance acquisition unit 22 outputs the distance information obtained by the sensor 22A selected from the plurality of sensors 22A according to the vehicle speed or the shift position of the vehicle 1. It may be acquired and provided to the synthesis unit 24. The vehicle speed or shift position of the vehicle 1 can be acquired from an ECU (Electronic Control Unit) included in the vehicle 1.

例えば、距離取得部22は、車両1の車速が大きいときにはレーダを選択する一方、車速が小さいときにはソナーを選択してもよい。また、車両1のシフトポジションが高いときにはレーダを選択する一方、シフトポジションが低い又は後退ポジションであるときにはソナーを選択してもよい。 For example, the distance acquisition unit 22 may select the radar when the vehicle speed of the vehicle 1 is high, while selecting the sonar when the vehicle speed is low. Further, the radar may be selected when the shift position of the vehicle 1 is high, while the sonar may be selected when the shift position is low or the reverse position.

また、距離取得部22は、天候に応じてセンサ22Aを選択してもよい。例えば、雨天時にはソナー以外のセンサ22Aを選択するようにしてもよい。雨天時にはソナーによる物体の検出が不適切になることが知られているからである。なお、天候が雨天であることを検出するには、例えば、ワイパーが作動していることにより検出可能である。 In addition, the distance acquisition unit 22 may select the sensor 22A according to the weather. For example, when it is raining, the sensor 22A other than the sonar may be selected. This is because it is known that sonar detection of an object becomes unsuitable in rainy weather. In addition, in order to detect that the weather is rainy, it can be detected by operating the wiper, for example.

検出部23は、取得部21が取得する画像についての不具合を検出するための検出処理をする処理部である。「取得する画像についての不具合」とは、正常な画像の取得がなされないことをいい、取得した画像に不具合がある場合と、画像が正常に取得されない場合とを含む概念である。 The detection unit 23 is a processing unit that performs detection processing for detecting a defect in the image acquired by the acquisition unit 21. The “defective image to be acquired” means that a normal image is not acquired, and is a concept including a case where the acquired image has a defect and a case where the image is not normally acquired.

具体的には、検出部23は、取得部21が取得した画像の全画素が所定の一色である画像である場合に、不具合があることを検出する。また、取得部21が取得した画像が、走行中にもかかわらず直前の画像と同じ画像である、又は、時間的に所定数だけ前の画像と同じ画像である場合に、不具合があることを検出する。また、検出部23は、取得部21がカメラ12又は14からエラー情報を得た場合に、不具合があることを検出する。なお、検出部23は、車両1が走行中であるか否かを判断するために、車両1が備えるECUから車速を取得する。 Specifically, the detection unit 23 detects that there is a defect when all the pixels of the image acquired by the acquisition unit 21 are images of a predetermined color. In addition, if the image acquired by the acquisition unit 21 is the same as the previous image while traveling, or the same image as the previous image by a predetermined number in terms of time, there is a problem. To detect. Further, the detection unit 23 detects that there is a defect when the acquisition unit 21 obtains error information from the camera 12 or 14. The detection unit 23 acquires the vehicle speed from the ECU included in the vehicle 1 in order to determine whether the vehicle 1 is traveling.

合成部24は、取得部21が取得した画像を合成することで合成画像を生成する処理部である。合成部24は、取得部21が取得した2つの画像それぞれに境界線を設定し、その境界線によって2つの画像それぞれを切断してつなぎ合わせる画像処理を行う。具体的には、合成部24は、2つの画像が撮影されたときの撮像条件の差異を抑制するための画像処理である幾何変換処理を施したうえで、2つの画像をつなぎ合わせる画像処理を行う。幾何変換処理は、具体的には、平行移動、拡大、縮小、回転、せん断、又はこれらの組み合わせの処理を含む。 The combining unit 24 is a processing unit that generates a combined image by combining the images acquired by the acquisition unit 21. The synthesizing unit 24 sets a boundary line for each of the two images acquired by the acquisition unit 21, and performs image processing for cutting and joining the two images by the boundary line. Specifically, the synthesizing unit 24 performs geometric conversion processing, which is image processing for suppressing a difference in image capturing conditions when two images are captured, and then performs image processing for joining the two images. To do. The geometric conversion process specifically includes a process of translation, enlargement, reduction, rotation, shearing, or a combination thereof.

合成部24は、取得部21が2つの画像を取得し、かつ、取得した2つの画像のどちらにも検出部23により不具合が検出されない場合に、2つの画像を所定の並び方向に並べて一部が重なる位置に配置し、所定位置の境界線を境界として2つの画像を合成することで、合成画像を生成する。 The synthesizing unit 24 arranges the two images in a predetermined arranging direction and partially when the acquiring unit 21 acquires the two images and no defect is detected by the detecting unit 23 in either of the acquired two images. Are arranged at positions overlapping with each other, and two images are combined with a boundary line at a predetermined position as a boundary to generate a combined image.

また、合成部24は、上記2つの画像のうちの一方の画像だけに検出部23により不具合が検出された場合には、2つの画像のうちの他方の画像を少なくとも配置し、所定位置から並び方向における一の向きへ移動させた境界線を境界として、合成画像を生成する。ここで、上記一の向きは、上記並び方向において上記一の向きに境界線を移動させるほど、合成画像に上記他方の画像がより大きく含まれる向きである。 Further, when the detecting unit 23 detects a defect in only one of the two images, the synthesizing unit 24 arranges at least the other image of the two images and arranges them from a predetermined position. A composite image is generated with the boundary line moved in one direction in the direction as a boundary. Here, the one direction is a direction in which the other image is included in the combined image to a greater extent as the boundary line is moved to the one direction in the arrangement direction.

また、合成部24は、2つの画像のうちの一方の画像だけに不具合が検出された場合には、さらに、距離取得部22が取得した距離情報に基づいて車両1の後方の様子を示す画像(補間画像ともいい、特に第一補間画像ともいう)を生成して2つの画像のうちの上記一方の画像を配置すべき位置に配置し、配置した補間画像と2つの画像のうちの他方の画像とを境界線を用いて合成してもよい。 Further, when a defect is detected in only one of the two images, the synthesizing unit 24 further displays an image showing a state behind the vehicle 1 based on the distance information acquired by the distance acquiring unit 22. (Also referred to as an interpolated image, particularly also referred to as a first interpolated image) is generated and arranged at a position where one of the two images should be arranged, and the arranged interpolated image and the other of the two images are arranged. The image and the image may be combined using a boundary line.

また、上記の第一補間画像の代わりに、不具合の内容を示す画像(補間画像ともいい、特に第二補間画像ともいう)を生成して、2つの画像のうちの上記一方の画像を配置すべき位置に配置し、配置した補間画像と2つの画像のうちの他方の画像とを境界線を用いて合成してもよい。なお、第一補間画像と併せて第二補間画像を表示してもよい。 Further, instead of the above first interpolated image, an image showing the contents of the defect (also called an interpolated image, particularly also called a second interpolated image) is generated and one of the two images is arranged. It may be arranged at an appropriate position, and the arranged interpolation image and the other image of the two images may be combined using a boundary line. The second interpolation image may be displayed together with the first interpolation image.

ここで、合成部24は、境界線を移動させるときには、合成画像において境界線が車両1の一部と重ならない範囲内で境界線を移動させる。このようにすることで、合成部24が合成する合成画像内に、車両1の一部が映り込むことが回避される。 Here, when moving the boundary line, the combining unit 24 moves the boundary line within a range in which the boundary line does not overlap a part of the vehicle 1 in the combined image. By doing so, it is possible to prevent a part of the vehicle 1 from being reflected in the combined image combined by the combining unit 24.

表示制御部25は、合成部24が生成した合成画像の表示の制御をする処理部である。表示制御部25は、表示装置である電子ミラー40に合成画像を表示させるように、合成画像に含まれる各画素の画素値を電子ミラー40に出力する。 The display control unit 25 is a processing unit that controls the display of the combined image generated by the combining unit 24. The display control unit 25 outputs the pixel value of each pixel included in the composite image to the electronic mirror 40 so that the electronic mirror 40, which is a display device, displays the composite image.

以降において画像の例を示しながら、画像合成装置10による画像の合成処理について具体的に説明する。 Hereinafter, the image synthesizing process performed by the image synthesizing apparatus 10 will be specifically described with reference to examples of images.

ここでは、左後方画像と中央後方画像との合成、及び、右後方画像と中央後方画像との合成を並行して行う場合を例として説明する。この例では、左後方画像と右後方画像と中央後方画像とが一度に合成されるともいえる。 Here, a case where the combination of the left rear image and the center rear image and the combination of the right rear image and the center rear image are performed in parallel will be described as an example. In this example, it can be said that the left rear image, the right rear image, and the center rear image are combined at once.

図4は、本実施の形態に係る取得部21が取得し、合成部24が幾何変換を行った画像を示す説明図である。より具体的には、図4には、車両1の左側後方画像の例である画像61と、右側後方画像の例である画像62と、中央後方画像の例である画像63とが示されている。画像61、62及び63は、それぞれ、カメラ12、13及び14により撮像および左右反転され、さらに、合成部24で幾何変換処理がなされた画像の一例である。 FIG. 4 is an explanatory diagram showing an image acquired by the acquisition unit 21 according to the present embodiment and geometrically transformed by the synthesis unit 24. More specifically, FIG. 4 shows an image 61 that is an example of a left rear image of the vehicle 1, an image 62 that is an example of a right rear image, and an image 63 that is an example of a center rear image. There is. The images 61, 62, and 63 are examples of images that have been imaged and horizontally flipped by the cameras 12, 13 and 14, respectively, and that have undergone geometric conversion processing by the synthesizing unit 24.

また、図4には、画像61、62及び63を合成するときの境界線が示されている。具体的には、画像61及び62に、それぞれ、境界線65A及び境界線66Aが示されている。また、画像63に境界線65B及び66Bが示されている。画像63に示されている境界線66Cは、後述するように、境界線66Bから移動された境界線の位置を示している。 Further, FIG. 4 shows a boundary line when the images 61, 62 and 63 are combined. Specifically, the images 61 and 62 show a boundary line 65A and a boundary line 66A, respectively. The image 63 also shows the boundary lines 65B and 66B. The boundary line 66C shown in the image 63 indicates the position of the boundary line moved from the boundary line 66B, as described later.

ここで、画像61、62及び63の撮像時の撮像条件は、互いに異なる。撮像条件とは、カメラの位置、又は、光学系の光学特性を含む。具体的には、上記画像それぞれを撮像したカメラ(つまりカメラ12、13及び14)の位置が少なくとも異なる。 Here, the imaging conditions at the time of imaging the images 61, 62, and 63 are different from each other. The imaging condition includes the position of the camera or the optical characteristics of the optical system. Specifically, the positions of the cameras (that is, the cameras 12, 13, and 14) that have captured the images are at least different.

そのため、画像61、62及び61は、当該画像に映されている被写体の寸法、形状又は角度などが異なる。よって、何らかの変換を施すことなく画像61と画像63とをつなぎ合わせ、また、画像63と画像62とをつなぎ合わせることで自然な後方画像を得ることは難しい。そこで、合成部24は、画像61、62及び63に幾何変換処理を施したうえで、これらをつなぎ合わせることで合成画像を生成する。 Therefore, the images 61, 62, and 61 differ in the size, shape, or angle of the subject shown in the images. Therefore, it is difficult to obtain a natural rear image by joining the image 61 and the image 63 together without performing any conversion, and joining the image 63 and the image 62 together. Therefore, the synthesizing unit 24 performs geometric transformation processing on the images 61, 62, and 63, and then joins these to generate a synthetic image.

図5は、本実施の形態に係る合成部24が合成した画像の第一例である合成画像60Aを示す説明図である。合成画像60Aは、取得部21が取得した画像に不具合がない場合に合成部24によって合成される画像の一例である。 FIG. 5 is an explanatory diagram showing a combined image 60A that is a first example of an image combined by the combining unit 24 according to the present embodiment. The combined image 60A is an example of an image combined by the combining unit 24 when the image acquired by the acquisition unit 21 has no defect.

合成画像60Aには、画像61A、62A及び63Aが含まれている。また、画像61Aと画像63Aとの境界に境界線65があり、画像62Aと画像63Aとの境界に境界線66がある。 The composite image 60A includes images 61A, 62A and 63A. Further, there is a boundary line 65 at the boundary between the images 61A and 63A, and a boundary line 66 at the boundary between the images 62A and 63A.

画像61Aは、幾何変換処理がなされた画像61のうちの、境界線65Aより左側の部分を示した画像である。 The image 61A is an image showing a part on the left side of the boundary line 65A in the image 61 on which the geometric conversion process is performed.

画像62Aは、幾何変換処理がなされた画像62のうちの、境界線66Aより右側の部分を示した画像である。 The image 62A is an image showing a part on the right side of the boundary line 66A in the geometrically transformed image 62.

画像63Aは、幾何変換処理がなされた画像63のうちの、境界線65Bより右側であり、かつ、境界線66Bより左側である部分を示した画像である。 The image 63A is an image showing a part on the right side of the boundary line 65B and on the left side of the boundary line 66B in the geometrically transformed image 63.

合成画像60Aが電子ミラー40に表示されると、合成画像60Aをユーザは、車両1の後方、より具体的には、左側後方から中央後方、さらに右側後方までの領域を認識することができる。 When the composite image 60A is displayed on the electronic mirror 40, the user can recognize the composite image 60A from the rear of the vehicle 1, more specifically, the area from the left rear to the center rear, and further to the right rear.

図6は、本実施の形態に係る合成部24が合成した画像の第二例である合成画像60Bを示す説明図である。合成画像60Bは、取得部21が取得した画像のうち、右側後方画像に不具合がある場合に合成部24によって合成される画像の一例である。 FIG. 6 is an explanatory diagram showing a combined image 60B that is a second example of an image combined by the combining unit 24 according to the present embodiment. The combined image 60B is an example of an image that is combined by the combining unit 24 when the right rear image has a defect among the images acquired by the acquisition unit 21.

合成画像60Bには、画像61A及び63B、並びに補間画像72が含まれている。また、画像61Aと画像63Bとの境界に境界線65があり、補間画像72と画像63Bとの境界に境界線66がある。 The combined image 60B includes images 61A and 63B and an interpolated image 72. Further, there is a boundary line 65 at the boundary between the images 61A and 63B, and a boundary line 66 at the boundary between the interpolated image 72 and the image 63B.

画像61Aは、図5における画像61Aと同じである。 The image 61A is the same as the image 61A in FIG.

画像63Bは、画像63(図4参照)のうちの一部である。より具体的には、画像63のうちの境界線65Bはそのままに、境界線66Cは、境界線66Bより右方向へ移動させた位置に設定した際の、境界線65Bと境界線66Cとの間の部分が図6の画像63Bとなる。ここでの右方向は、「一の向き」に相当する。なぜなら、画像63Bと補間画像72の並び方向(紙面上の左右方向)において境界線を右方向に移動させるほど、合成画像60Bに画像63Bがより大きく含まれるからである。 The image 63B is a part of the image 63 (see FIG. 4). More specifically, the boundary line 65C in the image 63 is left as it is, and the boundary line 66C is located between the boundary line 65B and the boundary line 66C when the boundary line 66C is set to a position moved rightward from the boundary line 66B. Is the image 63B in FIG. The right direction here corresponds to “one direction”. This is because the image 63B is included in the combined image 60B to a greater extent as the boundary line is moved to the right in the direction in which the image 63B and the interpolated image 72 are arranged (the horizontal direction on the paper surface).

補間画像72は、合成部24が生成した補間画像であり、距離取得部22が取得した距離情報に基づいて生成された、車両1の後方の様子を示す画像である。以降において、補間画像について2つの例を挙げて説明する。 The interpolated image 72 is an interpolated image generated by the synthesizing unit 24, and is an image that is generated based on the distance information acquired by the distance acquiring unit 22 and that shows a state behind the vehicle 1. Hereinafter, the interpolation image will be described with two examples.

図7は、本実施の形態に係る合成部24が生成する補間画像(第一補間画像)の第一例である補間画像72を示す説明図である。補間画像72は、例えばカメラ13が取得した右側後方画像に不具合がある場合に合成部24が生成する補間画像の第一例である。 FIG. 7 is an explanatory diagram showing an interpolated image 72 that is a first example of the interpolated image (first interpolated image) generated by the combining unit 24 according to the present embodiment. The interpolated image 72 is a first example of the interpolated image generated by the combining unit 24 when the right rear image acquired by the camera 13 has a defect, for example.

補間画像72は、車両1とその周辺(より特定的には車両1の右側後方の領域)を上から見た画像、いわゆるトップビューの画像を示している。補間画像72において、紙面上の上方向が車両1にとっての前方に対応しており、紙面上の下方向が車両1にとっての後方に対応している。 The interpolated image 72 is an image of the vehicle 1 and its surroundings (more specifically, a region on the right rear side of the vehicle 1) viewed from above, that is, a so-called top view image. In the interpolated image 72, the upward direction on the paper corresponds to the front of the vehicle 1, and the downward direction on the paper corresponds to the rear of the vehicle 1.

補間画像72において、車両C1は、自車両である車両1を示しており、車両C2及びC3は、車両1の右側後方に存在している車両を示している。車両C2及びC3は、センサ22Aが取得した車両1の後方の物体までの距離に基づいて、補間画像72上で車両C1との相対位置及び距離が正しく表現されるように示されている。 In the interpolated image 72, the vehicle C1 shows the vehicle 1 which is the own vehicle, and the vehicles C2 and C3 show the vehicles existing on the right rear side of the vehicle 1. The vehicles C2 and C3 are shown such that the relative position and distance with respect to the vehicle C1 are correctly represented on the interpolation image 72 based on the distance to the object behind the vehicle 1 acquired by the sensor 22A.

また、補間画像72では、車両1の前後方向の距離の目安を示す1以上の線Lが描画されている。線Lは、例えば、現実の1mに相当する間隔で描画されている。 Further, in the interpolated image 72, one or more lines L indicating the standard of the distance in the front-rear direction of the vehicle 1 are drawn. The lines L are drawn, for example, at intervals corresponding to 1 m in reality.

ユーザは、補間画像72を視認することで、トップビューにより、車両C2及びC3と、自車両である車両C1との位置関係及び相対距離を把握することができる。 By visually recognizing the interpolation image 72, the user can grasp the positional relationship and the relative distance between the vehicles C2 and C3 and the vehicle C1 which is the own vehicle from the top view.

なお、合成部24は、車両1から所定距離以内に位置している車両C2の画像の近くに、注意喚起のためのマークC2Aをさらに描画してもよい。ユーザは、マークC2Aを視認すると、マークC2Aの近くに位置している車両C2が、自車両である車両1から所定距離以内であることを認識し、運転の際に留意することができる。 The synthesizing unit 24 may further draw a mark C2A for alerting near the image of the vehicle C2 located within a predetermined distance from the vehicle 1. When the user visually recognizes the mark C2A, the user can recognize that the vehicle C2 located near the mark C2A is within a predetermined distance from the vehicle 1, which is the own vehicle, and can be noted when driving.

図8は、本実施の形態に係る合成部24が生成する補間画像の第二例である補間画像74を示す説明図である。補間画像74は、例えばカメラ13が取得した右側後方画像に不具合がある場合に合成部24が生成する補間画像の第二例である。 FIG. 8 is an explanatory diagram showing an interpolated image 74 that is a second example of the interpolated image generated by the synthesizing unit 24 according to the present embodiment. The interpolated image 74 is a second example of the interpolated image generated by the combining unit 24 when the right rear image acquired by the camera 13 has a defect, for example.

補間画像74は、電子ミラー40の位置から車両1の右側後方を見た場合の画像を示している。補間画像74は、仮に、取得部21が取得した画像に不具合がなければその位置に配置される画像に相当する補間画像である。 The interpolated image 74 is an image when the right rear side of the vehicle 1 is viewed from the position of the electronic mirror 40. The interpolated image 74 is an interpolated image corresponding to the image arranged at that position if the image acquired by the acquisition unit 21 is not defective.

補間画像74において、車両C2及びC3は、車両1の右側後方に存在している車両を示している。補間画像74は、上記のとおり車両1から右側後方を見た場合の画像であるので、自車両を示す車両C1は示されていない。 In the interpolated image 74, vehicles C2 and C3 indicate vehicles that are located on the right rear side of the vehicle 1. Since the interpolated image 74 is an image when the right rear is viewed from the vehicle 1 as described above, the vehicle C1 indicating the own vehicle is not shown.

また、補間画像74では、車両1の前後方向の距離の目安を示す1以上の線Lが描画されている。線Lは、例えば、現実の1mに相当する間隔で描画されている。 Further, in the interpolated image 74, one or more lines L indicating the standard of the distance in the front-rear direction of the vehicle 1 are drawn. The lines L are drawn, for example, at intervals corresponding to 1 m in reality.

補間画像74は、電子ミラー40の位置から後方を見た画像であるので、ユーザは、電子ミラー40に表示されている不具合のない画像と同じ見方で補間画像74を認識することができる。これにより、ユーザは、補間画像74を視認することで、車両C2及びC3と、自車両である車両1との位置関係及び相対距離を把握することができる。 Since the interpolated image 74 is an image looking backward from the position of the electronic mirror 40, the user can recognize the interpolated image 74 from the same viewpoint as the non-defective image displayed on the electronic mirror 40. With this, the user can grasp the positional relationship and the relative distance between the vehicles C2 and C3 and the vehicle 1, which is the own vehicle, by visually recognizing the interpolation image 74.

なお、補間画像74においても、補間画像72と同様に注意喚起のためのマークC2Aがさらに描画されてもよい。 Note that, in the interpolated image 74 as well, as in the interpolated image 72, a mark C2A for calling attention may be further drawn.

また、図7、図8では、車両1から所定距離以内の車両C2に注意喚起のためのマークC2Aが描画されているが、それに限定されず、不具合が検出された画像に対する、不具合の内容を示す補間画像(第二補間画像)を、補間画像72、74に重畳して配置してもよい。不具合の内容は、例えば、画像信号の欠落、画像の固着(不変化)、異物付着などであり、これらの不具合を示す文言、または、マークにより第二補間画像が形成される。 Further, in FIGS. 7 and 8, the mark C2A for alerting is drawn on the vehicle C2 within a predetermined distance from the vehicle 1, but the present invention is not limited to this, and the content of the defect with respect to the image where the defect is detected The interpolation image (second interpolation image) shown may be arranged so as to be superimposed on the interpolation images 72 and 74. The content of the defect is, for example, a missing image signal, image sticking (unchanged), foreign matter adhesion, or the like, and the second interpolation image is formed by the wording or mark indicating these defects.

さらに、図7、図8において、第二補間画像が補間画像72、74に重畳して配置される構成に限定されるものではなく、例えば、不具合の内容に対する重要度に応じて、例えばカメラの故障に起因する不具合であれば、第二補間画像のみを描画するようにしてもよい。 Further, in FIG. 7 and FIG. 8, the second interpolated image is not limited to the configuration in which the second interpolated image is arranged so as to be superimposed on the interpolated images 72 and 74. If the defect is caused by a failure, only the second interpolation image may be drawn.

図9は、本実施の形態に係る合成部24が合成した画像の第三例である合成画像60Cを示す説明図である。合成画像60Cは、取得部21が取得した画像のうち、中央後方画像に不具合がある場合に合成部24によって合成される画像の一例である。 FIG. 9 is an explanatory diagram showing a combined image 60C that is the third example of the image combined by the combining unit 24 according to the present embodiment. The combined image 60C is an example of an image combined by the combining unit 24 when there is a defect in the central rear image among the images acquired by the acquisition unit 21.

合成画像60Cには、画像61C及び62C、並びに補間画像76が含まれている。また、画像61Cと補間画像76との境界に境界線65があり、画像62Cと補間画像76との境界に境界線66がある。 The combined image 60C includes images 61C and 62C and an interpolated image 76. Further, there is a boundary line 65 at the boundary between the image 61C and the interpolation image 76, and a boundary line 66 at the boundary between the image 62C and the interpolation image 76.

画像61Cは、画像61(図4参照)のうちの一部である。より具体的には、境界線65は、図4の境界線65Aより右方向へ移動させた位置に設定されている。ここでの右方向は、「一の向き」に相当する。なぜなら、画像61Cと補間画像76の並び方向(紙面上の左右方向)において境界線を右方向に移動させるほど、合成画像60Cに画像61Cがより大きく含まれるからである。 The image 61C is a part of the image 61 (see FIG. 4). More specifically, the boundary line 65 is set at a position moved rightward from the boundary line 65A in FIG. The right direction here corresponds to “one direction”. This is because the image 61C is included in the combined image 60C to a greater extent as the boundary line is moved to the right in the direction in which the image 61C and the interpolated image 76 are arranged (the horizontal direction on the paper surface).

画像62Cは、画像62(図4参照)のうちの一部である。より具体的には、境界線66は、図4の境界線66Aより左方向へ移動させた位置に設定されている。ここでの左方向は、「一の向き」に相当する。なぜなら、画像62Cと補間画像76の並び方向(紙面上の左右方向)において境界線を左方向に移動させるほど、合成画像60Cに画像62Cがより大きく含まれるからである。 The image 62C is a part of the image 62 (see FIG. 4). More specifically, the boundary line 66 is set at a position moved leftward from the boundary line 66A in FIG. The left direction here corresponds to “one direction”. This is because the image 62C is included in the combined image 60C to a greater extent as the boundary line is moved to the left in the direction in which the image 62C and the interpolated image 76 are arranged (the horizontal direction on the paper surface).

補間画像76は、合成部24が生成した補間画像であり、距離取得部22が取得した距離情報に基づいて生成された、車両1の後方の様子を示す画像である。以降において、補間画像について2つの例を挙げて説明する。 The interpolated image 76 is an interpolated image generated by the synthesizing unit 24, and is an image that is generated based on the distance information acquired by the distance acquisition unit 22 and that shows a state behind the vehicle 1. Hereinafter, the interpolation image will be described with two examples.

図10は、本実施の形態に係る合成部24が生成する補間画像の第三例である補間画像76を示す説明図である。補間画像76は、例えばカメラ14が取得した中央後方画像に不具合がある場合に合成部24が生成する補間画像の第一例である。 FIG. 10 is an explanatory diagram showing an interpolated image 76 that is a third example of the interpolated image generated by the synthesizing unit 24 according to the present embodiment. The interpolated image 76 is a first example of the interpolated image generated by the synthesizing unit 24 when, for example, the center rear image acquired by the camera 14 has a defect.

補間画像76は、車両1とその周辺(より特定的には車両1の中央後方の領域)を上から見た場合の画像、いわゆるトップビューの画像を示している。補間画像76は、補間画像72(図7参照)と同様の画像であるが、中央後方を撮影した画像に不具合があったことから、車両1の中央後方の領域に存在している車両を示したものである。 The interpolated image 76 is an image when the vehicle 1 and its surroundings (more specifically, a region behind the center of the vehicle 1) is viewed from above, that is, a so-called top view image. The interpolated image 76 is the same image as the interpolated image 72 (see FIG. 7), but shows a vehicle existing in the area behind the center of the vehicle 1 due to a defect in the image captured in the rear of the center. It is a thing.

補間画像76において、補間画像72(図7参照)と同様、車両C1は、自車両である車両1を示しており、車両C4及びC5は、車両1の中央後方に存在している車両を示している。また、補間画像76では、車両1の前後方向の距離の目安を示す1以上の線Lが描画されている。線Lは、例えば、現実の1mに相当する間隔で描画されている。 In the interpolated image 76, similarly to the interpolated image 72 (see FIG. 7), the vehicle C1 indicates the vehicle 1 which is the own vehicle, and the vehicles C4 and C5 indicate the vehicles existing behind the center of the vehicle 1. ing. Further, in the interpolated image 76, one or more lines L indicating the standard of the distance in the front-rear direction of the vehicle 1 are drawn. The lines L are drawn, for example, at intervals corresponding to 1 m in reality.

ユーザは、補間画像72(図7参照)と同様、補間画像76を視認することで、トップビューにより、車両C4及びC5と、自車両である車両C1との位置関係及び相対距離を把握することができる。 Similarly to the interpolation image 72 (see FIG. 7), the user visually recognizes the interpolation image 76 to grasp the positional relationship and the relative distance between the vehicles C4 and C5 and the vehicle C1 which is the own vehicle from the top view. You can

図11は、本実施の形態に係る合成部24が生成する補間画像の第四例である補間画像78を示す説明図である。補間画像78は、例えばカメラ14が取得した中央後方画像に不具合がある場合に合成部24が生成する補間画像の第二例である。 FIG. 11 is an explanatory diagram showing an interpolated image 78 that is a fourth example of the interpolated image generated by the combining unit 24 according to the present embodiment. The interpolated image 78 is a second example of the interpolated image generated by the synthesizing unit 24 when there is a defect in the central rear image acquired by the camera 14, for example.

補間画像78は、電子ミラー40の位置から車両1の中央後方を見た場合の画像を示している。補間画像78は、仮に、取得部21が取得した画像に不具合がなければその位置に配置される画像に相当する補間画像である。 The interpolated image 78 is an image when the rear center of the vehicle 1 is viewed from the position of the electronic mirror 40. The interpolated image 78 is an interpolated image corresponding to the image arranged at that position if there is no problem in the image acquired by the acquisition unit 21.

補間画像78において、車両C4及びC5は、車両1の中央後方に存在している車両を示している。補間画像78は、上記のとおり車両1から中央後方を見た場合の画像であるので、自車両を示す車両C1は示されていない。 In the interpolated image 78, vehicles C4 and C5 represent vehicles located behind the center of the vehicle 1. Since the interpolated image 78 is an image when the rear center is viewed from the vehicle 1 as described above, the vehicle C1 indicating the own vehicle is not shown.

また、補間画像78では、車両1の前後方向の距離の目安を示す1以上の線Lが描画されている。線Lは、例えば、現実の1mに相当する間隔で描画されている。 Further, in the interpolated image 78, one or more lines L indicating the standard of the distance in the front-rear direction of the vehicle 1 are drawn. The lines L are drawn, for example, at intervals corresponding to 1 m in reality.

ユーザは、補間画像74(図8参照)の場合と同様、補間画像78を視認することで、車両C4及びC5と、車両1との位置関係及び相対距離を把握することができる。 As in the case of the interpolation image 74 (see FIG. 8 ), the user can visually recognize the interpolation image 78 to understand the positional relationship and the relative distance between the vehicles C4 and C5 and the vehicle 1.

なお、図7、図10において、車両C1(車両1)は補間画像72、76の上部に描画されているが、これは、ユーザの好みにより、補間画像72、76の下部に描画されるようにしてもよい。この場合、補間画像72、76は180度回転させて表示することにより、車両C2、C3、C4、C5との位置関係を維持することができる。 7 and 10, the vehicle C1 (vehicle 1) is drawn above the interpolated images 72 and 76, but this may be drawn below the interpolated images 72 and 76 according to the preference of the user. You can In this case, the interpolated images 72 and 76 are rotated 180 degrees and displayed to maintain the positional relationship with the vehicles C2, C3, C4, and C5.

以上のように構成された画像合成装置10の処理について説明する。 The processing of the image synthesizing device 10 configured as above will be described.

図12は、本実施の形態に係る画像合成装置10が行う処理を示すフロー図である。 FIG. 12 is a flow chart showing a process performed by the image composition device 10 according to the present embodiment.

ステップS101において、取得部21が2つの画像を取得する。2つの画像は、例えば左側後方画像と中央後方画像とである。 In step S101, the acquisition unit 21 acquires two images. The two images are, for example, a left rear image and a center rear image.

ステップS102において、検出部23は、ステップS101で取得部21が取得する画像についての不具合を検出するための検出処理をする。 In step S102, the detection unit 23 performs a detection process for detecting a defect in the image acquired by the acquisition unit 21 in step S101.

ステップS103において、ステップS102での検出処理の結果に基づいて処理を分岐する。検出処理で2つの画像のいずれにも不具合が検出されない場合にはステップS104に進み、2つの画像の一方だけに不具合が検出された場合にはステップS111に進み、その他の場合にはステップS121に進む。 In step S103, the process branches based on the result of the detection process in step S102. If no defect is detected in the two images in the detection processing, the process proceeds to step S104. If a defect is detected in only one of the two images, the process proceeds to step S111. In other cases, the process proceeds to step S121. move on.

ステップS104において、合成部24は、合成の前処理として取得部21が取得した画像の幾何変換処理を行い、所定位置に境界線を設定する。所定位置とは、車種、カメラの設置位置又は設置角度などにより予め定められた位置である。以降でも同様とする。 In step S104, the synthesizing unit 24 performs geometric transformation processing on the image acquired by the acquiring unit 21 as pre-processing for composition, and sets a boundary line at a predetermined position. The predetermined position is a position predetermined according to the vehicle type, the installation position of the camera, the installation angle, or the like. The same applies hereafter.

ステップS105において、合成部24は、ステップS104で設定した境界線を用いて2つの画像を合成することで合成画像を生成する。 In step S105, the combining unit 24 generates a combined image by combining the two images using the boundary line set in step S104.

ステップS106において、表示制御部25は、ステップS105又はステップS113で合成部24が生成した画像を電子ミラー40に表示する。ステップS106を終えたら図12に示されている一連の処理を終了する。 In step S106, the display control unit 25 displays the image generated by the combining unit 24 in step S105 or step S113 on the electronic mirror 40. When step S106 is completed, the series of processes shown in FIG. 12 is completed.

ステップS111において、合成部24は、不具合のない画像の幾何変換処理を行い、所定位置から移動した位置に境界線を設定する。境界線は、所定位置から一の向きへ移動される。一の向きは、画像の並び方向において上記一の向きに境界線を移動させるほど、合成画像に他方の画像がより大きく含まれる向きである。 In step S111, the synthesizing unit 24 performs geometric conversion processing on the image having no defect and sets a boundary line at a position moved from a predetermined position. The boundary line is moved in one direction from the predetermined position. The one direction is a direction in which the composite image includes the other image more greatly as the boundary line is moved to the one direction in the image arrangement direction.

ステップS112において、合成部24は、距離取得部22がセンサ22Aにより取得した後方の物体との距離に基づいて補間画像を生成する。 In step S112, the synthesizing unit 24 generates an interpolation image based on the distance to the rear object acquired by the distance acquiring unit 22 by the sensor 22A.

ステップS113において、合成部24は、ステップS112で生成した補間画像と、不具合のない画像とを、ステップS111で設定した境界線を用いて合成する。ステップS113を終えたらステップS106に進む。 In step S113, the combining unit 24 combines the interpolated image generated in step S112 and the non-defective image using the boundary line set in step S111. Upon completion of step S113, the process proceeds to step S106.

ステップS121において、画像合成装置10は、所定のエラー処理を行う。所定のエラー処理は、例えば、2つの画像の両方に不具合が検出されたことを示す画像を生成して表示する処理などが含まれる。ステップS121を終えたら図12に示されている一連の処理を終了する。 In step S121, the image composition device 10 performs a predetermined error process. The predetermined error processing includes, for example, processing for generating and displaying an image indicating that a defect has been detected in both two images. When step S121 ends, the series of processes shown in FIG. 12 ends.

なお、上記では、左側後方画像と中央後方画像との2つの画像を対象として画像合成装置10が処理を実行する場合を例として説明したが、その代わりに、右側後方画像と中央後方画像との2つの画像を対象として処理を実行してもよい。 In the above description, the case where the image synthesizing device 10 executes the processing for two images, that is, the left rear image and the center rear image has been described as an example, but instead of the right rear image and the center rear image, The process may be performed on two images.

さらに、画像合成装置10は、左側後方画像と中央後方画像と右側後方画像との3つの画像のうちの左側後方画像と中央後方画像との2つの画像を対象として上記一連の処理を実行し、また、上記3つの画像のうちの右側後方画像と中央後方画像との2つの画像を対象として上記一連の処理を実行すれば、上記3の画像を対象として同時並行的に合成処理を行うことができる。 Further, the image synthesizing apparatus 10 executes the above-described series of processing for two images of the left rear image and the center rear image among the three images of the left rear image, the center rear image, and the right rear image, In addition, if the series of processes is executed for two images of the right rear image and the center rear image among the three images, the synthesizing process can be simultaneously executed for the three images. it can.

図12に示される一連の処理により、画像合成装置10は、画像に不具合がある場合でも、車両1の後方をより適切に示す合成画像を生成することができる。 By the series of processes shown in FIG. 12, the image synthesizing device 10 can generate a synthetic image that more appropriately shows the rear of the vehicle 1 even when the image has a defect.

以上のように、本実施の形態及び変形例に係る画像合成装置は、取得する2つの画像の1つだけに不具合がある場合に、不具合のない方の画像がより大きく合成画像に含まれるように境界線を移動させる。その結果、不具合のない方の画像が合成画像においてより大きな面積を有することになる。ユーザは、境界線を移動させずに不具合がない画像が表示される場合よりも、不具合がない画像がより大きな面積を占める合成画像を視認することで、車両の後方をより適切に認識することができる。よって、画像合成装置は、画像に不具合がある場合でも、車両の後方をより適切に示す合成画像を生成することができる。 As described above, in the image synthesizing apparatus according to the present embodiment and the modification, when only one of the two images to be acquired has a defect, the image having no defect is included in the combined image to a larger extent. Move the border to. As a result, the non-defective image will have a larger area in the composite image. The user can more appropriately recognize the rear of the vehicle by visually observing the composite image in which the non-defective image occupies a larger area than when the non-defective image is displayed without moving the boundary line. You can Therefore, the image synthesizing apparatus can generate a synthetic image that more appropriately shows the rear of the vehicle even if the image has a defect.

また、画像合成装置は、取得する画像に車両の一部が映っている場合に、その一部が映り込まない合成画像を生成する。仮に合成画像に車両の一部が映り込むと、後方画像として不自然な画像になり、ユーザの困惑を招き得る。よって、画像合成装置は、画像に不具合がある場合でも、ユーザを困惑させることなく、車両の後方をより適切に示す合成画像を生成することができる。 Further, when a part of the vehicle is reflected in the acquired image, the image combining device generates a combined image in which the part is not reflected. If a part of the vehicle is reflected in the composite image, the rear image becomes an unnatural image, which may cause confusion for the user. Therefore, the image synthesizing apparatus can generate a synthetic image that more appropriately shows the rear of the vehicle without disturbing the user even if the image has a defect.

また、画像合成装置は、取得する2つの画像のうちの不具合がある方の画像が表示されるべき位置に補間画像(第一補間画像)を配置して合成画像を生成する。第一補間画像は、実際にセンサを用いて取得した車両の後方の物体までの距離に基づいて生成された画像である。よって、ユーザは、不具合がある方の画像の代わりに、補間画像を視認することで、車両の後方の様子を知ることができる。このように、画像合成装置は、画像に不具合がある場合でも、車両の後方をより適切に示す合成画像を生成することができる。 Further, the image synthesizing apparatus arranges the interpolation image (first interpolation image) at a position where the defective image of the two images to be acquired should be displayed to generate the synthetic image. The first interpolation image is an image generated based on the distance to the object behind the vehicle that is actually acquired using the sensor. Therefore, the user can know the state behind the vehicle by visually recognizing the interpolated image instead of the defective image. In this way, the image synthesizing apparatus can generate a synthetic image that more appropriately shows the rear of the vehicle even if the image has a defect.

また、画像合成装置は、車両が搭載している複数のセンサのうちから車速又はシフトポジションに応じて選択されたセンサを用いて補間画像を生成する。このように、画像合成装置は、画像に不具合がある場合でも、適切なセンサを用いて生成した画像を用いて、車両の後方をより適切に示す合成画像を生成することができる。 Further, the image synthesizing apparatus generates an interpolated image using a sensor selected from a plurality of sensors mounted on the vehicle according to a vehicle speed or a shift position. In this way, the image synthesizing apparatus can generate a synthetic image that more appropriately shows the rear of the vehicle by using the image generated by using the appropriate sensor even if the image has a defect.

また、画像合成装置は、取得する2つの画像のうちの不具合がある方の画像が表示されるべき位置に、不具合の内容を示す補間画像(第二補間画像)を配置して合成画像を生成する。第二補間画像は、不具合の内容を示す画像である。よって、ユーザは、不具合がある方の画像の代わりに、補間画像を視認することで、不具合の内容を知ることができ、対処のための行動をとることができる。このように、画像合成装置は、画像に不具合がある場合でも、不具合の対処のための情報を提供し、その結果、車両の後方をより適切に示す合成画像を生成することができる。 Further, the image compositing apparatus arranges an interpolated image (second interpolated image) indicating the content of the defect at a position where the image having the defect out of the two images to be acquired should be displayed to generate the combined image. To do. The second interpolation image is an image showing the content of the defect. Therefore, the user can know the content of the defect by visually recognizing the interpolated image instead of the image having the defect, and can take action for coping. In this way, the image synthesizing apparatus can provide information for coping with the deficiency even when the image has a defect, and as a result, can generate a combined image that more appropriately shows the rear of the vehicle.

なお、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記実施の形態の画像合成装置などを実現するソフトウェアは、次のようなプログラムである。 In addition, in the above-described embodiment, each component may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory. Here, the software that realizes the image synthesizing device and the like of the above-described embodiment is the following program.

すなわち、このプログラムは、コンピュータに、画像合成装置の制御方法であって、互いに異なる撮像条件の下で共通の対象が少なくとも撮像された2つの画像を取得するための取得処理をする取得ステップと、前記取得ステップで取得する画像についての不具合を検出するための検出処理をする検出ステップと、前記2つの画像のどちらにも前記検出ステップで不具合が検出されない場合に、前記2つの画像を所定の並び方向に並べて一部が重なる位置に配置し、所定位置の境界線を境界として前記2つの画像を合成することで、合成画像を生成する合成ステップとを含み、前記合成ステップでは、さらに、前記2つの画像のうちの一方の画像だけに前記検出ステップで不具合が検出された場合には、前記2つの画像のうちの他方の画像を少なくとも配置し、前記所定位置から前記並び方向における一の向きへ移動させた前記境界線を境界として、前記合成画像を生成し、前記一の向きは、前記並び方向において前記一の向きに前記境界線を移動させるほど、前記合成画像に前記他方の画像がより大きく含まれる向きである制御方法を実行させる。 That is, the program is a control method of an image synthesizing apparatus, and the program includes an acquisition step of performing an acquisition process for acquiring at least two images in which a common target is captured under different imaging conditions. When a detection step for performing a detection process for detecting a defect in the image acquired in the acquisition step and a defect is not detected in the detection step in either of the two images, the two images are arranged in a predetermined sequence. A synthesizing step of arranging them in a direction in which they are partially overlapped with each other and synthesizing the two images by using a boundary line at a predetermined position as a boundary to generate a synthesized image. When a defect is detected in only one of the two images in the detection step, at least the other image of the two images is arranged, and the predetermined position is changed to one direction in the arrangement direction. The composite image is generated with the moved boundary line as a boundary, and the one direction is such that as the boundary line is moved to the one direction in the arranging direction, the other image becomes closer to the composite image. The control method, which is the direction that is largely included, is executed.

以上、一つまたは複数の態様に係る画像合成装置などについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。 The image synthesizing device according to one or more aspects has been described above based on the embodiment, but the present invention is not limited to this embodiment. As long as it does not depart from the gist of the present invention, various modifications that those skilled in the art can think of in the present embodiment, and configurations constructed by combining components in different embodiments are also within the scope of one or more aspects. May be included within.

本発明は、車両に搭載したカメラの映像を合成して電子ミラーに表示する画像合成装置に利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used for an image synthesizing device that synthesizes images from a camera mounted on a vehicle and displays them on an electronic mirror.

1、C1、C2、C3、C4、C5 車両
10 画像合成装置
12、13、14 カメラ
21 取得部
22 距離取得部
22A センサ
23 検出部
24 合成部
25 表示制御部
40 電子ミラー
50 後方画像
51、52、53、61、61A、61C、62、62A、62C、63、63A、63B 画像
60A、60B、60C 合成画像
65、65A、65B、66、66A、66B、66C 境界線
72、74、76、78 補間画像
C2A マーク
L 線
1, C1, C2, C3, C4, C5 Vehicle 10 Image synthesizer 12, 13, 14 Camera 21 Acquisition unit 22 Distance acquisition unit 22A Sensor 23 Detection unit 24 Synthesis unit 25 Display control unit 40 Electronic mirror 50 Rear image 51, 52 , 53, 61, 61A, 61C, 62, 62A, 62C, 63, 63A, 63B image 60A, 60B, 60C composite image 65, 65A, 65B, 66, 66A, 66B, 66C boundary line 72, 74, 76, 78 Interpolated image C2A mark L line

Claims (6)

互いに異なる撮像条件の下で共通の対象が少なくとも撮像された2つの画像を取得するための取得処理をする取得部と、
前記取得部が取得する画像についての不具合を検出するための検出処理をする検出部と、
前記2つの画像のどちらにも前記検出部により不具合が検出されない場合に、前記2つの画像を所定の並び方向に並べて一部が重なる位置に配置し、所定位置の境界線を境界として前記2つの画像を合成することで、合成画像を生成する合成部とを備え、
前記合成部は、さらに、
前記2つの画像のうちの一方の画像だけに前記検出部により不具合が検出された場合には、前記2つの画像のうちの他方の画像を少なくとも配置し、前記所定位置から前記並び方向における一の向きへ移動させた前記境界線を境界として、前記合成画像を生成し、
前記一の向きは、前記並び方向において前記一の向きに前記境界線を移動させるほど、前記合成画像に前記他方の画像がより大きく含まれる向きである
画像合成装置。
An acquisition unit that performs an acquisition process for acquiring at least two images in which a common target is captured under mutually different imaging conditions;
A detection unit that performs a detection process for detecting a defect in the image acquired by the acquisition unit,
When no defect is detected by either of the two images by the detection unit, the two images are arranged in a predetermined arrangement direction and arranged at positions where some of them overlap, and the two images are arranged with a boundary line of the predetermined position as a boundary. A combining unit that generates a combined image by combining the images,
The combining unit further includes
When the detection unit detects a defect in only one of the two images, at least the other image of the two images is arranged and one of the images in the arrangement direction is arranged from the predetermined position. With the boundary line moved in the direction as a boundary, the composite image is generated,
An image synthesizing apparatus in which the one direction is a direction in which the other image is included in the synthesized image to a greater extent as the boundary line is moved to the one direction in the arrangement direction.
前記取得部は、車両の後方を撮影する2つのカメラであって、前記車両の互いに異なる位置に搭載された2つのカメラを用いて前記2つの画像を取得するための前記取得処理をし、
前記合成部によって配置された前記2つの画像のうちの前記他方の画像において前記所定位置より前記一の向きに進んだ位置には、前記車両の一部が映っており、
前記合成部は、前記境界線が前記車両の一部と重ならない範囲内で、前記境界線を移動させる
請求項1に記載の画像合成装置。
The acquisition unit is two cameras that capture the rear of the vehicle, and performs the acquisition process for acquiring the two images using two cameras mounted at different positions of the vehicle,
In the other image of the two images arranged by the combining unit, a part of the vehicle is shown at a position advanced from the predetermined position in the one direction,
The image synthesizing apparatus according to claim 1, wherein the synthesizing unit moves the borderline within a range in which the borderline does not overlap a part of the vehicle.
前記取得部は、車両の後方を撮影する、前記車両の互いに異なる位置に搭載されたカメラを用いて前記2つの画像を取得するための前記取得処理をし、
前記画像合成装置は、さらに、
前記車両の後方の物体を感知するセンサにより得られた、前記車両から前記物体までの距離情報を取得する距離取得部を備え、
前記合成部は、前記2つの画像のうちの一方の画像だけに前記検出部により不具合が検出された前記場合には、さらに、前記距離取得部が取得した前記距離情報に基づいて前記車両の後方の様子を示す第一補間画像を生成して前記2つの画像のうちの前記一方の画像を配置すべき位置に配置し、配置した前記第一補間画像と前記2つの画像のうちの前記他方の画像とを前記境界線を用いて合成する
請求項1に記載の画像合成装置。
The acquisition unit performs the acquisition process for acquiring the two images by using cameras mounted at different positions of the vehicle to capture the rear of the vehicle,
The image synthesizing device further includes
A distance acquisition unit that acquires distance information from the vehicle to the object, obtained by a sensor that senses an object behind the vehicle,
In the case where the detecting unit detects a defect in only one of the two images, the synthesizing unit may further rearward the vehicle based on the distance information acquired by the distance acquiring unit. A first interpolated image showing the above condition is generated, and one of the two images is arranged at a position where it should be arranged, and the arranged first interpolated image and the other of the two images are arranged. The image combining device according to claim 1, wherein the image is combined with the image using the boundary line.
前記センサは、複数の前記センサを含み、
前記距離取得部は、
複数の前記センサのうち、前記車両の車速又はシフトポジションに応じて選択されたセンサにより得られた前記距離情報を取得する
請求項3に記載の画像合成装置。
The sensor includes a plurality of the sensors,
The distance acquisition unit,
The image synthesizing apparatus according to claim 3, wherein the distance information obtained by a sensor selected according to a vehicle speed or a shift position of the vehicle among the plurality of sensors is acquired.
前記合成部は、
前記合成部は、前記2つの画像のうちの一方の画像だけに前記検出部により不具合が検出された場合には、前記不具合の内容を示す第二補間画像を生成して前記2つの画像のうちの前記一方の画像を配置すべき位置に配置し、配置した前記第二補間画像と前記2つの画像のうちの前記他方の画像とを前記境界線を用いて合成する
請求項1〜4のいずれか1項に記載の画像合成装置。
The synthesizing unit,
When the detecting unit detects a defect in only one of the two images, the combining unit generates a second interpolated image indicating the content of the defect to generate one of the two images. 5. The one of the images is arranged at a position to be arranged, and the arranged second interpolation image and the other image of the two images are combined using the boundary line. The image synthesizing apparatus according to item 1.
画像合成装置の制御方法であって、
互いに異なる撮像条件の下で共通の対象が少なくとも撮像された2つの画像を取得するための取得処理をする取得ステップと、
前記取得ステップで取得する画像についての不具合を検出するための検出処理をする検出ステップと、
前記2つの画像のどちらにも前記検出ステップで不具合が検出されない場合に、前記2つの画像を所定の並び方向に並べて一部が重なる位置に配置し、所定位置の境界線を境界として前記2つの画像を合成することで、合成画像を生成する合成ステップとを含み、
前記合成ステップでは、さらに、
前記2つの画像のうちの一方の画像だけに前記検出ステップで不具合が検出された場合には、前記2つの画像のうちの他方の画像を少なくとも配置し、前記所定位置から前記並び方向における一の向きへ移動させた前記境界線を境界として、前記合成画像を生成し、
前記一の向きは、前記並び方向において前記一の向きに前記境界線を移動させるほど、前記合成画像に前記他方の画像がより大きく含まれる向きである
制御方法。
A method of controlling an image synthesizing apparatus, comprising:
An acquisition step of performing an acquisition process for acquiring at least two images in which a common target is captured under mutually different imaging conditions;
A detection step of performing a detection process for detecting a defect about the image acquired in the acquisition step;
When no defect is detected in either of the two images in the detection step, the two images are arranged in a predetermined arrangement direction and arranged at positions where some of them are overlapped with each other, and a boundary line of the predetermined position is used as a boundary between the two images. Synthesizing the images to generate a synthetic image, and
In the synthesis step,
When a defect is detected in only one of the two images in the detection step, at least the other image of the two images is arranged and one of the images in the arrangement direction is arranged from the predetermined position. With the boundary line moved in the direction as a boundary, the composite image is generated,
The control method according to claim 1, wherein the one direction is a direction in which the other image is included more in the composite image as the boundary line is moved to the one direction in the arrangement direction.
JP2019016959A 2019-02-01 2019-02-01 Image synthesizing device and control method Pending JP2020127077A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019016959A JP2020127077A (en) 2019-02-01 2019-02-01 Image synthesizing device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019016959A JP2020127077A (en) 2019-02-01 2019-02-01 Image synthesizing device and control method

Publications (1)

Publication Number Publication Date
JP2020127077A true JP2020127077A (en) 2020-08-20

Family

ID=72084280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019016959A Pending JP2020127077A (en) 2019-02-01 2019-02-01 Image synthesizing device and control method

Country Status (1)

Country Link
JP (1) JP2020127077A (en)

Similar Documents

Publication Publication Date Title
JP6868805B2 (en) Image generator, image generator, and program
US10523865B2 (en) Three dimensional rendering for surround view using predetermined viewpoint lookup tables
US8305204B2 (en) Vehicle surrounding confirmation apparatus
EP2739050B1 (en) Vehicle surroundings monitoring system
JP2009081666A (en) Vehicle periphery monitoring apparatus and image displaying method
US20220368839A1 (en) System for processing image data for display using backward projection
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
JP4725233B2 (en) Overhead image display system
JP6459016B2 (en) Imaging system and moving body system
CN104859538A (en) Vision-based object sensing and highlighting in vehicle image display systems
JP2002019556A (en) Monitoring system
JP2009524171A (en) How to combine multiple images into a bird's eye view image
JP5516998B2 (en) Image generation device
JP2018117320A (en) Video synthesizer and video synthesis method for electron mirror
JP4756316B2 (en) Wide area image generation apparatus, vehicle periphery monitoring apparatus using the same, and wide area image generation method
JP4830380B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP7447307B2 (en) System and method for creating reliable stitched images
JP2020077251A (en) Periphery monitoring device
JP5067136B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP2007221199A (en) On-vehicle camera display device and image processing unit
JP6293089B2 (en) Rear monitor
JP2020127077A (en) Image synthesizing device and control method
US20230098424A1 (en) Image processing system, mobile object, image processing method, and storage medium
JP2019202584A (en) Image processing apparatus and image processing method
JP2019153932A (en) Soil notification device