JP7108855B2 - Image synthesizing device and control method - Google Patents

Image synthesizing device and control method Download PDF

Info

Publication number
JP7108855B2
JP7108855B2 JP2018160826A JP2018160826A JP7108855B2 JP 7108855 B2 JP7108855 B2 JP 7108855B2 JP 2018160826 A JP2018160826 A JP 2018160826A JP 2018160826 A JP2018160826 A JP 2018160826A JP 7108855 B2 JP7108855 B2 JP 7108855B2
Authority
JP
Japan
Prior art keywords
image
feature point
vector
unit
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018160826A
Other languages
Japanese (ja)
Other versions
JP2019149143A (en
Inventor
正人 湯田
智秀 松田
尚毅 大谷
直史 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to DE102019104397.2A priority Critical patent/DE102019104397B4/en
Publication of JP2019149143A publication Critical patent/JP2019149143A/en
Application granted granted Critical
Publication of JP7108855B2 publication Critical patent/JP7108855B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像合成装置、及び、制御方法に関する。 The present invention relates to an image synthesizing device and a control method.

車両が備える複数のカメラによって車両の後方を撮影し、撮影した画像を表示する画像表示装置がある。例えば、車両の後方が映った画像を運転者に視認させる画像表示装置、いわゆる車両用電子ミラーがある。 2. Description of the Related Art There is an image display device that photographs the rear of a vehicle with a plurality of cameras provided in the vehicle and displays the photographed images. For example, there is an image display device that allows a driver to view an image showing the rear of the vehicle, that is, a so-called vehicle electronic mirror.

この画像表示装置は、車両の左側ドア近傍及び右側ドア近傍に固定されたカメラが撮影した車両の左側後方及び右側後方の画像と、車両のリアバンパー又はトランクフード付近に固定されたカメラが撮影した車両の中央後方の画像とを取得する。そして、これらの画像をつなぎあわせることで、左側後方、中央後方及び右側後方が映った1つの画像を生成し、生成した画像をルームミラー型の表示装置に表示する。 This image display device captures images of the left rear and right rear of the vehicle taken by cameras fixed near the left and right doors of the vehicle, and images taken by a camera fixed near the rear bumper or trunk hood of the vehicle. An image of the center rear of the vehicle is acquired. Then, by connecting these images, one image showing the left rear, center rear, and right rear is generated, and the generated image is displayed on the rearview mirror type display device.

従来、画像をつなぎあわせることで合成する画像合成装置がある(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, there is an image synthesizing device that synthesizes images by connecting them (see, for example, Japanese Unexamined Patent Application Publication No. 2002-100001).

特開2000-215317号公報JP-A-2000-215317

しかしながら、特許文献1に記載の画像合成装置による画像の合成では、合成する画像の境界付近において生ずる二重化によって違和感が生じ得る。二重化とは、一の物が画像に二重に映ることをいう。 However, in synthesizing images by the image synthesizing device described in Japanese Patent Application Laid-Open No. 2002-200312, the doubling that occurs in the vicinity of the boundary of the images to be synthesized may cause a sense of discomfort. Duplication means that one object appears twice in an image.

そこで、本発明は、画像合成に伴う違和感を抑制しながら画像を合成する画像合成装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an image synthesizing apparatus that synthesizes images while suppressing a sense of incongruity that accompanies image synthesis.

本発明の一態様に係る画像合成装置は、一の対象を互いに異なる撮像条件の下で撮像した第一画像及び第二画像を取得し、取得した前記第一画像及び前記第二画像を一部が重なる所定の位置関係で配置する取得部と、前記取得部が配置した前記第一画像における1以上の第一特徴点と、前記取得部が配置した前記第二画像における1以上の第二特徴点とを決定する特徴点決定部と、同一の物が撮像された点である、前記1以上の第一特徴点のうちの一の第一特徴点と、前記1以上の第二特徴点のうちの一の第二特徴点とのペアを複数決定するペア決定部と、配置された前記第一画像及び前記第二画像が第一方向に延びる分割線によって分割された複数の部分画像ごとに、当該部分画像に含まれるペアに係る一の第一特徴点から、一の第一特徴点及び一の第二特徴点の中点に至るベクトルを代表する第一代表ベクトルを算出し、前記ペアに係る一の第二特徴点から前記中点に至るベクトルを代表する第二代表ベクトルを算出する第一算出部と、前記第一算出部が算出した前記複数の部分画像ごとの前記第一代表ベクトルを補間することで前記第一画像及び前記第二画像に含まれる画素列ごとの第一個別ベクトルを算出し、前記第一算出部が算出した前記複数の部分画像ごとの前記第二代表ベクトルを補間することで前記第一画像及び前記第二画像に含まれる画素列ごとの第二個別ベクトルを算出する第二算出部と、前記第一画像に含まれる画素列に対し前記第一個別ベクトルを用いて画素値を演算し、前記第二画像に含まれる画素列に対し前記第二個別ベクトルを用いて画素値を演算してから、前記第一画像及び前記第二画像を合成する合成部とを備える。 An image synthesizing device according to an aspect of the present invention obtains a first image and a second image obtained by imaging a subject under mutually different imaging conditions, and partly obtains the obtained first image and the second image. one or more first feature points in the first image arranged by the acquisition unit; and one or more second features in the second image arranged by the acquisition unit. one first feature point among the one or more first feature points at which the same object is imaged; and one or more second feature points. a pair determination unit that determines a plurality of pairs with one of the second feature points; and a plurality of partial images obtained by dividing the arranged first image and the second image by a dividing line extending in the first direction. , calculating a first representative vector representing a vector from one first feature point to a midpoint between one first feature point and one second feature point relating to a pair included in the partial image, and calculating the pair and the first representative vector for each of the plurality of partial images calculated by the first calculation unit. calculating a first individual vector for each pixel row included in the first image and the second image by interpolating the vectors, and calculating the second representative vector for each of the plurality of partial images calculated by the first calculation unit; a second calculation unit that calculates a second individual vector for each pixel row included in the first image and the second image by interpolating the first individual vector for the pixel row included in the first image; to calculate a pixel value using the second image, calculate a pixel value for a pixel string included in the second image using the second individual vector, and then combine the first image and the second image. and

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. and any combination of recording media.

本発明に係る画像合成装置は、画像合成に伴う違和感を抑制しながら画像を合成することができる。 The image synthesizing device according to the present invention is capable of synthesizing images while suppressing a sense of incongruity that accompanies image synthesizing.

図1は、実施の形態1に係る画像合成装置が合成する画像を取得するカメラが搭載された車両の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of a vehicle equipped with a camera that acquires an image synthesized by an image synthesizing device according to Embodiment 1. FIG. 図2は、実施の形態1に係る画像合成装置による合成前の画像と合成後の画像を示す説明図である。2A and 2B are explanatory diagrams showing an image before synthesis and an image after synthesis by the image synthesizing apparatus according to Embodiment 1. FIG. 図3は、異なるカメラで撮像した画像における被写体の二重化の説明図である。FIG. 3 is an explanatory diagram of doubling of subjects in images captured by different cameras. 図4は、実施の形態1に係る画像合成装置の機能構成を示すブロック図である。FIG. 4 is a block diagram showing the functional configuration of the image synthesizing device according to Embodiment 1. As shown in FIG. 図5は、実施の形態1に係る画像合成装置による特徴点及びペアの決定方法を示す説明図である。FIG. 5 is an explanatory diagram showing a method of determining feature points and pairs by the image synthesizing device according to the first embodiment. 図6は、実施の形態1に係る画像合成装置により算出された代表ベクトルを示す説明図である。FIG. 6 is an explanatory diagram showing representative vectors calculated by the image synthesizing device according to the first embodiment. 図7は、実施の形態1に係る画像合成装置による代表ベクトルの線形補間による個別ベクトルの算出方法を示す説明図である。FIG. 7 is an explanatory diagram showing a method of calculating individual vectors by linear interpolation of representative vectors by the image synthesizing device according to the first embodiment. 図8は、実施の形態1に係る画像合成装置により算出された個別ベクトルを示す説明図である。FIG. 8 is an explanatory diagram showing individual vectors calculated by the image synthesizing device according to the first embodiment. 図9は、実施の形態1に係る画像合成装置による個別ベクトルを用いた合成処理を示す説明図である。FIG. 9 is an explanatory diagram showing synthesis processing using individual vectors by the image synthesizing apparatus according to the first embodiment. 図10は、実施の形態1に係る画像合成装置の処理を示すフロー図である。FIG. 10 is a flow chart showing processing of the image synthesizing device according to the first embodiment. 図11は、実施の形態2に係る画像合成装置の機能構成を示すブロック図である。FIG. 11 is a block diagram showing a functional configuration of an image synthesizing device according to Embodiment 2. As shown in FIG. 図12は、実施の形態2に係る車両の右側後方画像の一例を示す説明図である。FIG. 12 is an explanatory diagram showing an example of a right rear image of the vehicle according to the second embodiment. 図13は、実施の形態2に係る車両の中央後方画像の一例を示す説明図である。FIG. 13 is an explanatory diagram showing an example of a central rear image of a vehicle according to Embodiment 2. FIG. 図14は、関連技術に係る車両の左側後方画像と中央後方画像とをつなぎ合わせた画像の一例を示す説明図である。FIG. 14 is an explanatory diagram showing an example of an image obtained by connecting a left rear image and a central rear image of a vehicle according to related art. 図15は、実施の形態2に係る車両の左側後方画像と中央後方画像とを一部を重ねて配置した状態を示す説明図である。FIG. 15 is an explanatory diagram showing a state in which a left rear image and a central rear image of a vehicle are partially overlapped and arranged according to the second embodiment. 図16は、実施の形態2に係る画像の合成のための境界線の一例を示す説明図である。FIG. 16 is an explanatory diagram of an example of a boundary line for synthesizing images according to the second embodiment. 図17は、図16における枠XVIIの拡大図である。17 is an enlarged view of frame XVII in FIG. 16. FIG. 図18は、実施の形態2に係る車両の左側後方画像から抜き出した画像の一例を示す説明図である。FIG. 18 is an explanatory diagram showing an example of an image extracted from the left rear image of the vehicle according to the second embodiment. 図19は、実施の形態2に係る車両の中央後方画像から抜き出した画像の一例を示す説明図である。FIG. 19 is an explanatory diagram showing an example of an image extracted from the central rear image of the vehicle according to the second embodiment. 図20は、実施の形態2に係る車両の左側後方画像と中央後方画像とをつなぎ合わせた画像の一例を示す説明図である。FIG. 20 is an explanatory diagram showing an example of an image obtained by joining a left rear image and a central rear image of a vehicle according to the second embodiment. 図21は、実施の形態2に係る画像合成装置の処理を示すフロー図である。FIG. 21 is a flow chart showing processing of the image synthesizing device according to the second embodiment. 図22は、実施の形態2に係る車両の左側後方画像と中央後方画像とを合成する境界線の別の一例を示す説明図である。FIG. 22 is an explanatory diagram showing another example of a boundary line for synthesizing a left rear image and a central rear image of a vehicle according to the second embodiment. 図23は、実施の形態2の変形例に係る画像合成装置により算出された個別ベクトルと境界線とを示す説明図である。FIG. 23 is an explanatory diagram showing individual vectors and boundary lines calculated by the image synthesizing device according to the modification of the second embodiment.

本発明の一態様に係る画像合成装置は、一の対象を互いに異なる撮像条件の下で撮像した第一画像及び第二画像を取得し、取得した前記第一画像及び前記第二画像を一部が重なる所定の位置関係で配置する取得部と、前記取得部が配置した前記第一画像における1以上の第一特徴点と、前記取得部が配置した前記第二画像における1以上の第二特徴点とを決定する特徴点決定部と、同一の物が撮像された点である、前記1以上の第一特徴点のうちの一の第一特徴点と、前記1以上の第二特徴点のうちの一の第二特徴点とのペアを複数決定するペア決定部と、配置された前記第一画像及び前記第二画像が第一方向に延びる分割線によって分割された複数の部分画像ごとに、当該部分画像に含まれるペアに係る一の第一特徴点から、一の第一特徴点及び一の第二特徴点の中点に至るベクトルを代表する第一代表ベクトルを算出し、前記ペアに係る一の第二特徴点から前記中点に至るベクトルを代表する第二代表ベクトルを算出する第一算出部と、前記第一算出部が算出した前記複数の部分画像ごとの前記第一代表ベクトルを補間することで前記第一画像及び前記第二画像に含まれる画素列ごとの第一個別ベクトルを算出し、前記第一算出部が算出した前記複数の部分画像ごとの前記第二代表ベクトルを補間することで前記第一画像及び前記第二画像に含まれる画素列ごとの第二個別ベクトルを算出する第二算出部と、前記第一画像に含まれる画素列に対し前記第一個別ベクトルを用いて画素値を演算し、前記第二画像に含まれる画素列に対し前記第二個別ベクトルを用いて画素値を演算してから、前記第一画像及び前記第二画像を合成する合成部とを備える。 An image synthesizing device according to an aspect of the present invention obtains a first image and a second image obtained by imaging a subject under mutually different imaging conditions, and partly obtains the obtained first image and the second image. one or more first feature points in the first image arranged by the acquisition unit; and one or more second features in the second image arranged by the acquisition unit. one first feature point among the one or more first feature points at which the same object is imaged; and one or more second feature points. a pair determination unit that determines a plurality of pairs with one of the second feature points; and a plurality of partial images obtained by dividing the arranged first image and the second image by a dividing line extending in the first direction. , calculating a first representative vector representing a vector from one first feature point to a midpoint between one first feature point and one second feature point relating to a pair included in the partial image, and calculating the pair and the first representative vector for each of the plurality of partial images calculated by the first calculation unit. calculating a first individual vector for each pixel row included in the first image and the second image by interpolating vectors, and calculating the second representative vector for each of the plurality of partial images calculated by the first calculation unit; a second calculation unit for calculating a second individual vector for each pixel row included in the first image and the second image by interpolating the first individual vector for the pixel row included in the first image; to calculate a pixel value using the second image, calculate a pixel value for a pixel row included in the second image using the second individual vector, and then combine the first image and the second image. and

上記態様によれば、画像合成装置は、第一画像と第二画像とに映っている、同一の物が撮像された特徴点を互いに近づけるような画素値の演算を施した上で、第一画像と第二画像とを合成する。この演算の際に、第一代表ベクトル等を一旦算出した後に、算出した第一代表ベクトルを用いて画素列ごとの個別ベクトルを算出し、個別ベクトルを用いて画素値の演算が行われる。このように第一代表ベクトル等を一旦算出することにより、特徴点の誤マッチングにより生じ得る、他と大きく異なるベクトルの影響が画像合成に及ぶことを排除することができる。その結果、画像合成装置は、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device calculates the pixel values such that the feature points of the same object captured in the first image and the second image are brought closer to each other, and then the first Composite the image and the second image. In this calculation, after the first representative vector and the like are once calculated, an individual vector for each pixel row is calculated using the calculated first representative vector, and the pixel value is calculated using the individual vector. By once calculating the first representative vector and the like in this way, it is possible to eliminate the influence of vectors that are significantly different from others, which may be caused by incorrect matching of feature points, from affecting image synthesis. As a result, the image synthesizing device can synthesize images while suppressing a sense of incongruity that accompanies image synthesizing.

例えば、前記第一算出部は、前記複数の部分画像ごとに、当該部分画像に含まれる複数のペアに係る一の第一特徴点から、一の第一特徴点及び一の第二特徴点の中点に至るベクトルの中央値を前記第一代表ベクトルとして算出し、前記ペアに係る一の第二特徴点から前記中点に至るベクトルの中央値を前記第二代表ベクトルとして算出する。 For example, for each of the plurality of partial images, the first calculation unit calculates one first feature point and one second feature point from one first feature point associated with a plurality of pairs included in the partial image. A median value of vectors extending to the midpoint is calculated as the first representative vector, and a median value of vectors ranging from one second feature point related to the pair to the midpoint is calculated as the second representative vector.

上記態様によれば、画像合成装置は、複数のベクトルの中央値を第一代表ベクトル等として算出する。これにより、特徴点の誤マッチングにより生じ得る、他と大きく異なるベクトルの影響が個別ベクトルに及ぶことを排除することができる。よって、画像合成装置は、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device calculates the median value of the plurality of vectors as the first representative vector or the like. This makes it possible to eliminate the influence of vectors that are significantly different from each other, which can be caused by mismatching of feature points, from affecting individual vectors. Therefore, the image synthesizing device can more easily synthesize images while suppressing the sense of incongruity that accompanies image synthesis.

例えば、前記第二算出部は、前記第一画像及び前記第二画像に含まれる画素列ごとに、前記複数の部分画像それぞれの中心画素列に当該部分画像における前記第一代表ベクトルを対応付けて、線形補間によって前記第一個別ベクトルを算出し、前記第一画像及び前記第二画像に含まれる画素列ごとに、前記複数の部分画像それぞれの中心画素列に当該部分画像における前記第二代表ベクトルを対応付けて、線形補間によって前記第二個別ベクトルを算出する。 For example, the second calculation unit associates the central pixel row of each of the plurality of partial images with the first representative vector in the partial image for each pixel row included in the first image and the second image. , the first individual vector is calculated by linear interpolation, and the second representative vector in the partial image is added to the center pixel row of each of the plurality of partial images for each pixel row included in the first image and the second image. , and the second individual vector is calculated by linear interpolation.

上記態様によれば、画像合成装置は、代表ベクトルの線形補間により個別ベクトルを算出する。よって、画像合成装置は、より具体的な構成に基づいて、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device calculates individual vectors by linear interpolation of representative vectors. Therefore, based on a more specific configuration, the image synthesizing device can more easily synthesize images while suppressing the sense of incongruity that accompanies image synthesis.

例えば、前記第一算出部は、前記複数の部分画像ごとの前記第一代表ベクトル及び前記第二代表ベクトルそれぞれと、当該部分画像に隣接する部分画像の前記第一代表ベクトル及び前記第二代表ベクトルそれぞれとの差分を小さくする統計処理を施し、前記第二算出部は、前記第一算出部による前記統計処理の後に、前記第一個別ベクトル及び前記第二個別ベクトルを算出する。 For example, the first calculation unit calculates the first representative vector and the second representative vector for each of the plurality of partial images, the first representative vector and the second representative vector for a partial image adjacent to the partial image, and Statistical processing is performed to reduce the difference from each, and the second calculation unit calculates the first individual vector and the second individual vector after the statistical processing by the first calculation unit.

上記態様によれば、画像合成装置は、一の部分画像の代表ベクトルと、それと隣接する部分画像の代表ベクトルとの差分を小さくすることで、部分画像間での個別ベクトルの差分を小さくし、その結果、合成画像において歪が生ずることを回避することができる。よって、画像合成装置は、画像における部分の間で歪が生ずることを未然に回避することで、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device reduces the difference between the representative vector of one partial image and the representative vector of the adjacent partial image, thereby reducing the difference between the individual vectors of the partial images, As a result, it is possible to avoid distortion in the synthesized image. Therefore, the image synthesizing device can synthesize an image while suppressing a sense of incongruity caused by image synthesizing by avoiding occurrence of distortion between portions of the image.

例えば、前記取得部は、互いに異なる時刻に撮像された複数の前記第一画像及び前記第二画像を取得し、前記第一算出部は、前記複数の部分画像ごとの前記第一代表ベクトル及び前記第二代表ベクトルそれぞれと、当該部分画像と同じ位置に位置し、当該部分画像より前に取得された部分画像の前記第一代表ベクトル及び前記第二代表ベクトルそれぞれとの差分を小さくする統計処理を施し、前記第二算出部は、前記第一算出部による前記統計処理の後に、前記第一個別ベクトル及び前記第二個別ベクトルを算出する。 For example, the acquisition unit acquires a plurality of the first images and the second images captured at different times, and the first calculation unit calculates the first representative vector for each of the plurality of partial images and the Statistical processing for reducing the difference between each of the second representative vectors and each of the first and second representative vectors of a partial image located at the same position as the partial image and acquired prior to the partial image. and the second calculation unit calculates the first individual vector and the second individual vector after the statistical processing by the first calculation unit.

上記態様によれば、画像合成装置は、一の部分画像の代表ベクトルと、それと同じ位置の過去の部分画像の代表ベクトルとの差分を小さくすることで、個別ベクトルの時間的な変化量を小さくし、その結果、合成画像において歪が生ずることを回避することができる。よって、画像合成装置は、画像における部分の間で歪が生ずることを未然に回避することで、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device reduces the amount of temporal change in the individual vectors by reducing the difference between the representative vector of one partial image and the representative vector of the past partial image at the same position. As a result, it is possible to avoid distortion in the synthesized image. Therefore, the image synthesizing device can synthesize an image while suppressing a sense of incongruity caused by image synthesizing by avoiding occurrence of distortion between portions of the image.

例えば、前記取得部は、互いに異なる時刻に撮像された複数の前記第一画像及び前記第二画像を取得し、前記第一算出部は、一の時刻に撮像された前記第一画像及び前記第二画像が分割された前記複数の部分画像のうち、当該部分画像に含まれる前記ペアの数が所定以上である場合には、前記一の時刻より後の時刻に撮像された前記第一画像及び前記第二画像についての当該部分画像のサイズを小さくし、当該部分画像に含まれる前記ペアの数が所定以下である場合には、前記一の時刻より後の時刻に撮像された前記第一画像及び前記第二画像についての当該部分画像のサイズを大きくする。 For example, the acquisition unit acquires a plurality of the first image and the second image captured at different times, and the first calculation unit acquires the first image and the second image captured at one time. When the number of pairs included in the partial images among the plurality of partial images obtained by dividing the two images is a predetermined number or more, the first image captured at a time later than the one time and When the size of the partial image of the second image is reduced, and the number of pairs included in the partial image is equal to or less than a predetermined number, the first image captured at a time later than the one time and increasing the size of the partial image for the second image.

上記態様によれば、画像合成装置は、部分画像に含まれる特徴点のペアの数を適正範囲に収めることができる。部分画像に含まれる特徴点の数が適正範囲より大きい場合、特徴点と、特徴点間の中点を結ぶベクトルのばらつきが多くなり、算出される代表ベクトルから離れたベクトルも多くなる。そのため、適切な代表ベクトルが算出されないことがある。一方、部分画像に含まれる特徴点の数が適正範囲より小さい場合、計算の基礎となる特徴点の数が少なく、算出される代表ベクトルが必ずしも、部分画像に含まれるベクトルを代表するベクトルでない場合も生じ得る。そこで、部分画像に含まれる特徴点のペアの数を適正範囲に収めることで、適切な代表ベクトルを算出することによって、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device can keep the number of pairs of feature points included in the partial image within an appropriate range. If the number of feature points included in the partial image is larger than the appropriate range, the variation in the vectors connecting the feature points and the midpoints between the feature points increases, and the number of vectors apart from the calculated representative vector also increases. Therefore, an appropriate representative vector may not be calculated. On the other hand, if the number of feature points included in the partial image is smaller than the appropriate range, or if the number of feature points used as the basis for calculation is small and the calculated representative vector does not necessarily represent the vectors included in the partial image. can also occur. Therefore, by keeping the number of pairs of feature points included in the partial images within an appropriate range and by calculating an appropriate representative vector, it is possible to synthesize images while suppressing the sense of incongruity that accompanies image compositing.

例えば、前記第一方向は、水平方向である。 For example, the first direction is horizontal.

上記態様によれば、画像合成装置は、水平方向の分割線を用いて部分画像を生成する。よって、画像合成装置は、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device generates the partial images using the horizontal dividing line. Therefore, the image synthesizing device can more easily synthesize images while suppressing the sense of incongruity that accompanies image synthesis.

例えば、前記第二算出部は、GPU(Graphics Processing Unit)によるハードウェア処理により前記第一代表ベクトル及び前記第二代表ベクトルを算出し、前記合成部は、前記GPUによるハードウェア処理により前記第一画像及び前記第二画像を合成する。 For example, the second calculation unit calculates the first representative vector and the second representative vector by hardware processing by a GPU (Graphics Processing Unit), and the synthesizing unit calculates the first representative vector by hardware processing by the GPU. compositing the image and the second image;

上記態様によれば、画像合成装置は、GPUによるハードウェア処理を用いて第一代表ベクトルをもとに画像合成を行う。よって、画像合成装置は、処理量及び処理時間を削減しながら、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device performs image synthesizing based on the first representative vector using hardware processing by the GPU. Therefore, the image synthesizing device can synthesize images while reducing the amount of processing and the processing time, and suppressing the sense of incongruity that accompanies image synthesizing.

例えば、前記画像合成装置は、さらに、決定された複数の前記ペアのうち、当該ペアに係る前記一の第一特徴点と前記一の第二特徴点との離間距離が所定以下である複数の近距離ペアの近傍を通る一の曲線を決定する曲線決定部を備え、前記合成部は、前記曲線決定部により決定された前記一の曲線を境界として、前記第一画像及び前記第二画像を合成する。 For example, the image synthesizing device further selects a plurality of determined pairs in which the separation distance between the one first feature point and the one second feature point of the pair is equal to or less than a predetermined distance. A curve determining unit that determines one curve passing through the vicinity of the short-distance pair, and the synthesizing unit combines the first image and the second image with the one curve determined by the curve determining unit as a boundary. Synthesize.

上記態様によれば、画像合成装置は、第一画像と第二画像との内容に応じて定められる境界線を用いて、第一画像と第二画像とを合成する。この境界線は、同一の物が撮像された、第一画像における特徴点と、第二画像における特徴点とのペアのうち、特徴点の離間距離が比較的小さいものの近傍を通るように設定されているので、境界の近くで発生し得る画像の二重化又は消失が抑制される。その結果、画像合成装置は、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device synthesizes the first image and the second image using the boundary line determined according to the content of the first image and the second image. This boundary line is set so as to pass through the vicinity of the pair of the feature points in the first image and the feature points in the second image in which the same object is imaged, and the separation distance between the feature points is relatively small. Therefore, the image doubling or loss that can occur near the border is suppressed. As a result, the image synthesizing device can synthesize images while suppressing a sense of incongruity that accompanies image synthesizing.

例えば、前記曲線決定部は、決定された前記複数の近距離ペアの近傍を通る一の近似曲線を、前記一の曲線として決定する。 For example, the curve determining unit determines, as the one curve, one approximated curve that passes through the vicinity of the plurality of determined short distance pairs.

上記態様によれば、画像合成装置は、近似曲線を用いて、画像の合成に用いる境界線を決定する。よって、画像合成装置は、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device uses the approximation curve to determine the boundary line to be used for synthesizing the images. Therefore, the image synthesizing device can more easily synthesize images while suppressing the sense of incongruity that accompanies image synthesis.

例えば、前記曲線決定部は、非線形最小二乗法により前記一の曲線を決定する。 For example, the curve determination unit determines the one curve by a nonlinear least-squares method.

上記態様によれば、画像合成装置は、非線形最小二乗法を用いて、画像の合成に用いる境界線を決定する。よって、画像合成装置は、より具体的な構成に基づいて、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device uses the nonlinear least-squares method to determine the boundary line used for synthesizing the images. Therefore, based on a more specific configuration, the image synthesizing device can more easily synthesize images while suppressing the sense of incongruity that accompanies image synthesis.

例えば、前記曲線決定部は、決定された複数の前記ペアのうち、当該ペアに係る前記一の第一特徴点と前記一の第二特徴点との離間距離が所定以上である複数の遠距離ペアの近傍を通らない前記一の曲線を決定する。 For example, the curve determination unit determines, of the determined pairs, a plurality of long distances in which the distance between the one first feature point and the one second feature point of the pair is equal to or greater than a predetermined distance. Determine the one curve that does not pass through a pair of neighbors.

上記態様によれば、画像合成装置は、遠距離ペアの近傍、つまり、遠距離ペアに係る第一画像の特徴点及び第二画像の特徴点の近傍、並びに、これらの特徴点を結ぶ直線の近傍を通らない境界線を設定する。よって、境界の近くで発生し得る二重化又は消失がより一層抑制される。その結果、画像合成装置は、画像合成に伴う違和感をより一層抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device includes the neighborhood of the long-distance pair, that is, the neighborhood of the feature points of the first image and the feature points of the second image relating to the long-distance pair, and the straight line connecting these feature points. Set a border that does not pass through neighbors. Therefore, doubling or disappearance that can occur near the boundary is further suppressed. As a result, the image synthesizing device can synthesize images while further suppressing discomfort associated with image synthesizing.

例えば、前記第一画像及び前記第二画像は、一の車両に固定された2つのカメラにより同時に撮像された画像であり、前記所定の位置関係は、前記2つのカメラの位置及び向きに応じて予め定められた位置関係である。 For example, the first image and the second image are images captured simultaneously by two cameras fixed to one vehicle, and the predetermined positional relationship is determined according to the positions and orientations of the two cameras. This is a predetermined positional relationship.

上記態様によれば、画像合成装置は、車両に搭載されたカメラの位置及び向きを用いて、第一画像と第二画像とが配置される位置関係を予め定める。よって、画像合成装置は、予め定められた位置関係を用いて、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 According to the above aspect, the image synthesizing device uses the position and orientation of the camera mounted on the vehicle to determine in advance the positional relationship between the first image and the second image. Therefore, the image synthesizing device can synthesize images more easily by using a predetermined positional relationship while suppressing a sense of incongruity that accompanies image synthesis.

例えば、前記画像合成装置は、(a)一の車両の左側の後方を映す左カメラにより撮像された左後方画像と、(b)前記一の車両の右側の後方を映す右カメラにより撮像された右後方画像と、(c)前記一の車両の中央の後方を映す中央カメラにより撮像された中央後方画像と、を取得し、前記左後方画像と前記右後方画像との一方、及び、前記中央後方画像を、それぞれ、前記第一画像及び前記第二画像として前記取得部により取得し、前記特徴点決定部及び前記ペア決定部それぞれによる決定と、前記第一算出部及び前記第二算出部それぞれによる算出とを行い、前記合成部による合成により第三画像を生成し、前記第三画像、及び、前記左後方画像と前記右後方画像との他方を、それぞれ、前記第一画像及び前記第二画像として前記取得部により取得し、前記特徴点決定部及び前記ペア決定部それぞれによる決定と、前記第一算出部及び前記第二算出部それぞれによる算出とを行い、前記合成部による合成により第四画像を生成する。 For example, the image synthesizing device may include (a) a left rear image captured by a left camera that captures the left rear of one vehicle, and (b) a right rear image captured by a right camera that captures the right rear of the one vehicle. A right rear image and (c) a center rear image captured by a center camera that reflects the center rear of the one vehicle are acquired, and one of the left rear image and the right rear image and the center obtaining the rear images as the first image and the second image, respectively, by the obtaining unit, determining each of the feature point determining unit and the pair determining unit, and determining each of the first calculating unit and the second calculating unit; and the combining unit generates a third image by combining the third image and the other of the left rear image and the right rear image, respectively, with the first image and the second image obtained as an image by the acquisition unit, determined by the feature point determination unit and the pair determination unit, respectively calculated by the first calculation unit and the second calculation unit, and synthesized by the synthesis unit to obtain a fourth Generate an image.

上記態様によれば、画像合成装置は、車両に当該された左カメラ、右カメラ及び中央カメラそれぞれにより撮像された画像を合成する。これにより、画像合成装置は、画像合成に伴う違和感を抑制しながら、車両の左側後方から中央後方を経て右側後方まで、あるいは、車両の右側後方から中央後方を経て左側後方までの広い範囲を合成した画像を合成することができる。 According to the above aspect, the image synthesizing device synthesizes the images captured by the left camera, the right camera, and the center camera attached to the vehicle. As a result, the image synthesizing device synthesizes a wide range from the rear left side of the vehicle to the rear right side through the rear center, or from the rear right side of the vehicle to the rear left side through the rear center, while suppressing a sense of incongruity accompanying image synthesis. It is possible to synthesize images that have been

また、本発明の一態様に係る画像合成装置は、一の対象を互いに異なる撮像条件の下で撮像した第一画像及び第二画像を取得し、取得した前記第一画像及び前記第二画像を一部が重なる所定の位置関係で配置する取得部と、前記取得部が配置した前記第一画像における1以上の第一特徴点と、前記取得部が配置した前記第二画像における1以上の第二特徴点とを決定する特徴点決定部と、同一の物が撮像された点である、前記1以上の第一特徴点のうちの一の第一特徴点と、前記1以上の第二特徴点のうちの一の第二特徴点とのペアを複数決定するペア決定部と、決定された複数の前記ペアのうち、当該ペアに係る前記一の第一特徴点と前記一の第二特徴点との離間距離が所定以下である複数の近距離ペアの近傍を通る一の曲線を決定する曲線決定部と、決定された前記一の曲線を境界として、前記第一画像及び前記第二画像を合成する合成部とを備える。 In addition, the image synthesizing device according to one aspect of the present invention obtains a first image and a second image obtained by imaging one object under mutually different imaging conditions, and converts the obtained first image and the second image to one or more first feature points in the first image arranged by the acquisition unit; and one or more first feature points in the second image arranged by the acquisition unit. a feature point determination unit that determines two feature points; one first feature point among the one or more first feature points, which is a point at which the same object is imaged; and one or more second features. A pair determination unit that determines a plurality of pairs of one second feature point among the points, and the one first feature point and the one second feature related to the pair among the plurality of determined pairs a curve determining unit that determines one curve passing through the vicinity of a plurality of short-distance pairs whose distance from the point is a predetermined distance or less; and the first image and the second image with the determined curve as a boundary. and a synthesizing unit for synthesizing the

上記態様によれば、上記画像合成装置と同様の効果を奏する。 According to the above aspect, the same effects as those of the above image synthesizing device can be obtained.

本発明の一態様に係る画像合成装置の制御方法は、画像合成装置の制御方法であって、一の対象を互いに異なる撮像条件の下で撮像した第一画像及び第二画像を取得し、取得した前記第一画像及び前記第二画像を一部が重なる所定の位置関係で配置する取得ステップと、前記取得ステップで配置した前記第一画像における1以上の第一特徴点と、前記取得ステップで配置した前記第二画像における1以上の第二特徴点とを決定する特徴点決定ステップと、同一の物が撮像された点である、前記1以上の第一特徴点のうちの一の第一特徴点と、前記1以上の第二特徴点のうちの一の第二特徴点とのペアを複数決定するペア決定ステップと、配置された前記第一画像及び前記第二画像が第一方向に延びる分割線によって分割された複数の部分画像ごとに、当該部分画像に含まれるペアに係る一の第一特徴点から、一の第一特徴点及び一の第二特徴点の中点に至るベクトルを代表する第一代表ベクトルを算出し、前記ペアに係る一の第二特徴点から前記中点に至るベクトルを代表する第二代表ベクトルを算出する第一算出ステップと、前記第一算出ステップで算出した前記複数の部分画像ごとの前記第一代表ベクトルを補間することで前記第一画像及び前記第二画像に含まれる画素列ごとの第一個別ベクトルを算出し、前記第一算出ステップで算出した前記複数の部分画像ごとの前記第二代表ベクトルを補間することで前記第一画像及び前記第二画像に含まれる画素列ごとの第二個別ベクトルを算出する第二算出ステップと、前記第一画像に含まれる画素列に対し前記第一個別ベクトルを用いて画素値を演算し、前記第二画像に含まれる画素列に対し前記第二個別ベクトルを用いて画素値を演算してから、前記第一画像及び前記第二画像を合成する合成ステップとを含む。 A method for controlling an image synthesizer according to an aspect of the present invention is a method for controlling an image synthesizer, in which a first image and a second image obtained by imaging one target under mutually different imaging conditions are acquired, and an acquiring step of arranging the first image and the second image that have been obtained in a predetermined positional relationship in which parts overlap; one or more first feature points in the first image arranged in the acquiring step; and a feature point determination step of determining one or more second feature points in the arranged second image; a pair determination step of determining a plurality of pairs of a feature point and one second feature point out of the one or more second feature points; A vector from one first feature point to the midpoint between one first feature point and one second feature point for each of a plurality of partial images divided by the extending dividing line and calculating a second representative vector representing a vector from one second feature point of the pair to the midpoint; and the first calculation step calculating a first individual vector for each pixel row included in the first image and the second image by interpolating the first representative vector calculated for each of the plurality of partial images, and calculating in the first calculation step; a second calculating step of calculating a second individual vector for each pixel row included in the first image and the second image by interpolating the second representative vector for each of the plurality of partial images; A pixel value is calculated for a pixel row included in the image using the first individual vector, a pixel value is calculated for a pixel row included in the second image using the second individual vector, and then the and a compositing step of compositing the first image and the second image.

上記態様によれば、上記画像合成装置と同様の効果を奏する。 According to the above aspect, the same effects as those of the above image synthesizing device can be obtained.

例えば、前記制御方法は、さらに、決定された複数の前記ペアのうち、当該ペアに係る前記一の第一特徴点と前記一の第二特徴点との離間距離が所定以下である複数の近距離ペアの近傍を通る一の曲線を決定する曲線決定ステップを含み、前記合成ステップでは、前記曲線決定ステップにより決定された前記一の曲線を境界として、前記第一画像及び前記第二画像を合成する。 For example, the control method may further include a plurality of near-field features in which the separation distance between the one first feature point and the one second feature point of the pair is equal to or less than a predetermined distance, among the determined pairs. A curve determination step of determining a curve passing through the vicinity of the distance pair, wherein the combining step combines the first image and the second image using the curve determined by the curve determination step as a boundary. do.

上記態様によれば、上記画像合成装置と同様の効果を奏する。 According to the above aspect, the same effects as those of the above image synthesizing device can be obtained.

例えば、画像合成装置の制御方法であって、一の対象を互いに異なる撮像条件の下で撮像した第一画像及び第二画像を取得し、取得した前記第一画像及び前記第二画像を一部が重なる所定の位置関係で配置する取得ステップと、前記取得ステップで配置した前記第一画像における1以上の第一特徴点と、前記取得ステップで配置した前記第二画像における1以上の第二特徴点とを決定する特徴点決定ステップと、同一の物が撮像された点である、前記1以上の第一特徴点のうちの一の第一特徴点と、前記1以上の第二特徴点のうちの一の第二特徴点とのペアを複数決定するペア決定ステップと、決定された複数の前記ペアのうち、当該ペアに係る前記一の第一特徴点と前記一の第二特徴点との離間距離が所定以下である複数の近距離ペアの近傍を通る一の曲線を決定する曲線決定ステップと、決定された前記一の曲線を境界として、前記第一画像及び前記第二画像を合成する合成ステップとを含む。 For example, in a method for controlling an image synthesizing device, a first image and a second image obtained by imaging an object under mutually different imaging conditions are obtained, and a part of the obtained first image and the second image is obtained. one or more first feature points in the first image arranged in the acquisition step, and one or more second features in the second image arranged in the acquisition step a first feature point among the one or more first feature points, which is a point at which the same object is imaged, and one or more second feature points; a pair determination step of determining a plurality of pairs with one of the second feature points, and the one first feature point and the one second feature point associated with the pair among the plurality of determined pairs; a curve determination step of determining a curve passing through the vicinity of a plurality of short-distance pairs whose separation distance is less than or equal to a predetermined value; and synthesizing the first image and the second image using the determined curve as a boundary and a synthetic step of

上記態様によれば、上記画像合成装置と同様の効果を奏する。 According to the above aspect, the same effects as those of the above image synthesizing device can be obtained.

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. Or it may be realized by any combination of recording media.

以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that the embodiments described below are all comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are examples and are not intended to limit the present invention. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in independent claims indicating the highest level concept will be described as optional constituent elements.

(実施の形態1)
本実施の形態において、画像合成に伴う違和感を抑制しながら画像を合成する画像合成装置について説明する。
(Embodiment 1)
In the present embodiment, an image synthesizing apparatus that synthesizes images while suppressing a sense of incongruity that accompanies image synthesis will be described.

図1は、本実施の形態に係る車両1の一例を示す模式図である。図2は、本実施の形態に係る画像合成装置10による合成前の画像と合成後の画像とを示す説明図である。 FIG. 1 is a schematic diagram showing an example of a vehicle 1 according to this embodiment. FIG. 2 is an explanatory diagram showing an image before synthesis and an image after synthesis by the image synthesizing apparatus 10 according to the present embodiment.

図1に示されるように、車両1は、画像合成装置10と、カメラ12、13及び14と、電子ミラー40とを備える。なお、以降の説明において特に断らない場合には、前後左右の方向は、車両1の進行方向を前方とした場合の方向とし、これは車両1の運転手にとっての前後左右の方向ともいえる。 As shown in FIG. 1, the vehicle 1 includes an image synthesizing device 10, cameras 12, 13 and 14, and an electronic mirror 40. As shown in FIG. In the following description, unless otherwise specified, the front, rear, left, and right directions are the directions when the traveling direction of the vehicle 1 is forward, and can also be said to be the front, rear, left, and right directions for the driver of the vehicle 1 .

カメラ12は、車両1の左側ドア付近に固定され、車両1の左側後方を撮影するカメラである。カメラ12は、車両1の左側後方を撮影して画像を生成する。カメラ12が生成した画像を左側後方画像ともいう。 The camera 12 is fixed near the left door of the vehicle 1 and captures an image of the rear left side of the vehicle 1 . The camera 12 captures the rear left side of the vehicle 1 to generate an image. The image generated by the camera 12 is also called a left rear image.

カメラ13は、車両1の右側ドア付近に固定され、車両1の右側後方を撮影するカメラである。カメラ13は、車両1の右側後方を撮影して画像を生成する。カメラ13が生成した画像を右側後方画像ともいう。 The camera 13 is a camera that is fixed near the right door of the vehicle 1 and captures an image of the rear right side of the vehicle 1 . The camera 13 captures the rear right side of the vehicle 1 to generate an image. The image generated by the camera 13 is also called a right rear image.

カメラ14は、車両1のリアバンパー又はトランクフード付近に固定され、車両1の中央後方を撮影するカメラである。カメラ14は、車両1の中央後方を撮影して画像を生成する。カメラ14が生成した画像を中央後方画像ともいう。 The camera 14 is a camera that is fixed near the rear bumper or the trunk hood of the vehicle 1 and shoots the rear center of the vehicle 1 . The camera 14 captures the center rear of the vehicle 1 to generate an image. The image generated by the camera 14 is also referred to as a central rear image.

カメラ12及び14の撮影範囲の一部が重なっており、カメラ13及び14の撮影範囲の一部が重なっている。そのため、左側後方画像と中央後方画像との一部には共通の対象が映っている。また、右側後方画像と中央後方画像との一部には共通の対象が映っている。 The photographing ranges of the cameras 12 and 14 partially overlap, and the photographing ranges of the cameras 13 and 14 partially overlap. Therefore, a common object appears in part of the left rear image and the central rear image. In addition, a common object appears in part of the right rear image and the central rear image.

カメラ12、13及び14のそれぞれは、互いに異なる撮影条件の下で撮像することで画像を生成する。具体的には、カメラ12、13及び14のそれぞれは、互いに異なる位置に配置され、また、互いに異なる方向を向いて配置されており、例えば60fpsで画像を取得する。また、カメラ12、13及び14のそれぞれの光学系の光学特性は異なっていてもよい。 Each of the cameras 12, 13, and 14 generates an image by taking an image under shooting conditions different from each other. Specifically, the cameras 12, 13, and 14 are arranged at different positions and facing different directions, and acquire images at, for example, 60 fps. Also, the optical characteristics of the optical systems of the cameras 12, 13 and 14 may be different.

電子ミラー40は、車両1の後方が映った画像である後方画像50を表示する画像表示装置である。電子ミラー40は、画像合成装置10が出力する映像信号に基づいて画像を表示する。電子ミラー40は、車両1の後方を、光の反射を利用して映す従来のルームミラーの代用として用いられ得る。 The electronic mirror 40 is an image display device that displays a rear image 50 that is an image of the rear of the vehicle 1 . The electronic mirror 40 displays an image based on the video signal output by the image synthesizing device 10 . The electronic mirror 40 can be used as a substitute for a conventional rearview mirror that reflects the rear of the vehicle 1 using light reflection.

画像合成装置10は、カメラ12、13及び14それぞれが生成した画像を合成して電子ミラー40が表示する画像を生成する装置である。カメラ12、13及び14のそれぞれが生成する画像の一例を、図2に画像51、52及び53として示す。 The image synthesizing device 10 is a device that synthesizes images generated by the cameras 12 , 13 and 14 to generate an image displayed by the electronic mirror 40 . An example of the images produced by cameras 12, 13 and 14, respectively, is shown as images 51, 52 and 53 in FIG.

上記のとおり、カメラ12、13及び14のそれぞれは、一の対象を互いに異なる撮像条件の下で撮像しているので、画像合成装置10が、カメラ12、13及び14それぞれが生成した画像を単純につなぎあわせただけでは、自然な後方画像50は得られない。具体的には、単純につなぎあわせただけの画像では、つなぎあわせの境界付近において、二重化又は消失が生じ得ることで、自然な後方画像50が得られない。ここで、自然な後方画像50とは、車両1の運転手が従来のルームミラー(いわゆる物理ミラー)を通して見る、車両1の後方の光景と同じ画像をいう。二重化とは、一の物が画像に二重に映ることをいい、消失とは実際には存在するものが画像に映らないことをいう。 As described above, each of the cameras 12, 13 and 14 captures one target under different imaging conditions. A natural rear image 50 cannot be obtained only by splicing. Specifically, with images that are simply stitched together, doubling or disappearance may occur near the boundary of stitching, and a natural rearward image 50 cannot be obtained. Here, the natural rearward image 50 refers to the same image as the scene behind the vehicle 1 seen by the driver of the vehicle 1 through a conventional room mirror (so-called physical mirror). Duplication means that one thing appears twice in the image, and disappearance means that something that actually exists does not appear in the image.

例えば、異なる位置に設置されたカメラで撮像した画像を合成すると、被写体の二重化が生じ得る。図3は、2つの異なる位置に設置されたカメラA及びBで撮像した画像における被写体の二重化の説明図である。 For example, when images captured by cameras installed at different positions are synthesized, the subject may be duplicated. FIG. 3 is an explanatory diagram of doubling of subjects in images captured by cameras A and B installed at two different positions.

一般に画像の合成の際には、仮想空間内においてカメラA及びBからそれぞれ所定の距離だけ離れた仮想投影面を設定し、その仮想投影面に画像を投影して合成処理を行う。図3の(a)及び(b)は、仮想空間内に配置されたカメラA及びBと仮想投影面とを示している。 In general, when synthesizing images, virtual projection planes are set in the virtual space at predetermined distances from the cameras A and B, respectively, and the images are projected onto the virtual projection planes for synthesizing. (a) and (b) of FIG. 3 show the cameras A and B arranged in the virtual space and the virtual projection plane.

図3の(a)に示されるように、実空間におけるカメラA及びBそれぞれから被写体までの距離LRA及びLRBと、仮想空間におけるカメラA及びBそれぞれから仮想投影面までの距離LVA及びLVBとが等しい場合には、仮想投影面における画像の二重化は生じない(LRA=LVA、LRB=LVB)。 As shown in FIG. 3A, the distances LRA and LRB from cameras A and B in the real space to the subject and the distances LVA and LVB from the cameras A and B in the virtual space to the virtual projection plane are In the case of equality, no image doubling occurs in the virtual projection plane (LRA=LVA, LRB=LVB).

一方、図3の(b)に示されるように、実空間におけるカメラA及びBそれぞれから被写体までの距離LRA及びLRBより、仮想空間におけるカメラA及びBそれぞれから仮想投影面までの距離LVA及びLVBが大きい場合には、仮想投影面における画像の二重化が生ずる。なお、実空間におけるカメラA及びBから被写体までの距離より、仮想空間におけるカメラA及びBから仮想投影面までの距離が小さい場合にも、仮想投影面における画像の二重化が生ずる(不図示)。 On the other hand, as shown in FIG. 3B, the distances LVA and LVB from the cameras A and B in the virtual space to the virtual projection plane are calculated from the distances LRA and LRB from the cameras A and B in the real space to the subject When is large, image doubling occurs in the virtual projection plane. If the distance from the cameras A and B in the virtual space to the virtual projection plane is smaller than the distance from the cameras A and B to the subject in the real space, the image is doubled on the virtual projection plane (not shown).

そこで、画像合成装置10は、カメラ12、13及び14それぞれが生成した画像に応じてこれらの画像に適切な処理を施した上でつなぎ合わせることで、合成により生じうる画像の二重化が抑制された自然な後方画像50を生成し、電子ミラー40に表示させる。 Therefore, the image synthesizing device 10 applies appropriate processing to the images generated by the cameras 12, 13, and 14 and then splices them together, thereby suppressing the duplication of images that may occur due to synthesizing. A natural rear image 50 is generated and displayed on an electronic mirror 40. - 特許庁

以降において、画像合成装置10の機能及び処理を説明する。 The functions and processing of the image synthesizing device 10 will be described below.

図4は、本実施の形態に係る画像合成装置10の機能構成を示すブロック図である。ここでは、画像合成装置10が、一の対象が撮像された2つの画像である第一画像及び第二画像を取得して合成する場合を例として説明する。この2つの画像は、左側後方画像と中央後方画像とであってもよいし、右側後方画像と中央後方画像とであってもよい。 FIG. 4 is a block diagram showing the functional configuration of the image synthesizing device 10 according to this embodiment. Here, an example will be described in which the image synthesizing device 10 obtains and synthesizes two images of one target, that is, a first image and a second image. These two images may be a left rear image and a central rear image, or may be a right rear image and a central rear image.

なお、2つの画像である第一画像及び第二画像を合成する方法を利用することで、3つの画像を合成することも可能である。例えば、画像合成装置10が、(1)左側後方画像と中央後方画像とを、それぞれ、第一画像及び第二画像として合成して画像を得た後に、(2)その得た画像と右側後方画像とを、それぞれ、改めて第一画像及び第二画像として合成すれば、最終的に、左側後方画像、中央後方画像及び右側後方画像をすべてつなぎあわせた後方画像50が得られる。ここで、第一画像と第二画像とを合成した画像を第三画像ともいい、第三画像と右後方画像とを合成した画像を第四画像ともいう。 It should be noted that it is also possible to synthesize three images by using a method of synthesizing two images, the first image and the second image. For example, after the image synthesizing device 10 obtains an image by (1) synthesizing the left rear image and the central rear image as the first image and the second image, respectively, (2) the obtained image and the right rear image By synthesizing the images again as the first image and the second image, respectively, a rear image 50 in which the left rear image, the center rear image, and the right rear image are all joined together is finally obtained. Here, an image obtained by synthesizing the first image and the second image is also referred to as a third image, and an image obtained by synthesizing the third image and the right rear image is also referred to as a fourth image.

ここで、上記した3つの画像の合成については、画像合成装置10が、(1)左側後方画像と中央後方画像とを、それぞれ、第一画像及び第二画像として合成して画像を得た後に、(2)その得た画像と右側後方画像とを、それぞれ、改めて第一画像及び第二画像として合成しているが、この合成に限定されるものではない。例えば、画像合成装置10が、(1)右側後方画像と中央後方画像とを、それぞれ、第一画像及び第二画像として合成して画像を得た後に、(2)その得た画像と左側後方画像とを、それぞれ、改めて第一画像及び第二画像として合成してもよい。つまり、画像合成装置10は、左後方画像と右後方画像の一方、及び、中央後方画像を、それぞれ、第一画像及び第二画像として取得部21により取得し、特徴点決定部31及びペア決定部32それぞれによる決定と、第一算出部33及び第二算出部34それぞれによる算出を行い、合成部23による合成により第三画像を生成し、この第三画像、及び、左後方画像と右後方画像の他方を、それぞれ、第一画像及び第二画像として取得部21により取得し、特徴点決定部31及びペア決定部32それぞれによる決定と、第一算出部33及び第二算出部34それぞれによる算出を行い、合成部23による合成により第四画像を生成する。これにより、最終的に、左側後方画像、中央後方画像及び右側後方画像をすべてつなぎあわせた後方画像50が得られる。 Here, with respect to synthesizing the three images described above, after the image synthesizing device 10 (1) synthesizes the left rear image and the central rear image as the first image and the second image, respectively, to obtain an image, , (2) The obtained image and the right rear image are synthesized again as the first image and the second image, respectively, but the method is not limited to this synthesis. For example, after the image synthesizing device 10 obtains an image by (1) synthesizing the right rear image and the central rear image as the first image and the second image, respectively, (2) the obtained image and the left rear image The images may be synthesized again as the first image and the second image, respectively. That is, the image synthesizing device 10 acquires one of the left rear image and the right rear image, and the center rear image as the first image and the second image, respectively, by the acquisition unit 21, and the feature point determination unit 31 and pair determination are performed. Determination by each of the units 32, calculation by each of the first calculation unit 33 and second calculation unit 34, and synthesis by the synthesis unit 23 to generate a third image, the third image, the left rear image, and the right rear image The other of the images is acquired by the acquisition unit 21 as the first image and the second image, respectively, determined by the feature point determination unit 31 and the pair determination unit 32, and determined by the first calculation unit 33 and the second calculation unit 34. Calculation is performed, and a fourth image is generated by synthesis by the synthesizing unit 23 . As a result, a rear image 50 is finally obtained by combining all of the left rear image, the central rear image, and the right rear image.

以降では、第一画像が左後方画像であり、第二画像が中央後方画像である場合について詳しく説明する。この場合、画像合成装置10は、カメラ12及び14により例えば60fpsで第一画像及び第二画像を取得し、取得のたびに、第一画像及び第二画像の合成画像を生成して電子ミラー40に表示する。 Hereinafter, the case where the first image is the left rear image and the second image is the central rear image will be described in detail. In this case, the image synthesizing device 10 acquires the first image and the second image at, for example, 60 fps by the cameras 12 and 14, generates a synthesized image of the first image and the second image each time the image is acquired, and the electronic mirror 40 to display.

図4に示されるように、画像合成装置10は、取得部21と、決定部22と、合成部23と、表示制御部24とを備える。上記の各構成要素は、プロセッサがメモリ等を用いて所定のプログラムを実行することで実現されてもよいし、専用ハードウェアで実現されてもよい。 As shown in FIG. 4 , the image synthesizing device 10 includes an acquisition unit 21 , a determination unit 22 , a synthesizing unit 23 and a display control unit 24 . Each component described above may be implemented by a processor executing a predetermined program using a memory or the like, or may be implemented by dedicated hardware.

取得部21は、一の対象を互いに異なる撮像条件の下で撮像した第一画像及び第二画像を取得し、取得した第一画像及び第二画像を一部が重なる所定の位置関係で配置する処理部である。取得部21は、コンピュータによる演算により、仮想的な空間内に第一画像及び第二画像を配置する。取得部21が第一画像及び第二画像を仮想的な空間内に配置するときには、配置する画像に対して、当該画像を撮影したカメラ等の光学系の光学特性に応じた補正をかけた上で、画像を配置してもよい。補正は、具体的には、レンズのゆがみに基づく修正、並びに、サイズ及び角度の調整のための補正、色調補正等を含む。この補正をかけることで、カメラごとの光学系の差異を抑制し、つなぎ合わせて生成される後方画像50に含まれる、第一画像に由来する画像と、第二画像に由来する画像との間の色又は大きさ等の差異を、より小さくすることができる。第一画像及び第二画像が配置される所定の位置関係は、第一画像及び第二画像を取得したカメラの位置及び向きに応じて定められたものである。これを静的変換と呼ぶことにする。 The acquisition unit 21 acquires a first image and a second image obtained by imaging one target under mutually different imaging conditions, and arranges the acquired first image and second image in a predetermined positional relationship in which they partially overlap. processing unit. Acquisition unit 21 arranges the first image and the second image in a virtual space through computation by a computer. When the acquisition unit 21 arranges the first image and the second image in the virtual space, the images to be arranged are corrected according to the optical characteristics of the optical system such as the camera that captured the images. You can place the image in . Corrections specifically include corrections based on lens distortion, corrections for size and angle adjustments, color tone corrections, and the like. By applying this correction, the difference between the optical systems of the cameras is suppressed, and the difference between the image derived from the first image and the image derived from the second image included in the rear image 50 generated by stitching is corrected. can have smaller differences such as color or size. The predetermined positional relationship in which the first image and the second image are arranged is determined according to the position and orientation of the camera that acquired the first image and the second image. We call this static conversion.

決定部22は、第一画像及び第二画像を合成するための境界を決定する処理部である。決定部22は、その詳細な構成要素として、特徴点決定部31と、ペア決定部32と、第一算出部33と、第二算出部34を有する。 The determination unit 22 is a processing unit that determines a boundary for synthesizing the first image and the second image. The determination unit 22 has a feature point determination unit 31, a pair determination unit 32, a first calculation unit 33, and a second calculation unit 34 as detailed components.

特徴点決定部31は、取得部21が配置した第一画像における1以上の第一特徴点と、取得部21が配置した第二画像における1以上の第二特徴点とを決定する処理部である。決定部22は、第一画像及び第二画像のそれぞれにおける特徴点を抽出する。特徴点の抽出処理は、画像から、当該画像に含まれる画素又は画素の集合であって、その周囲と異なる色又は形状等を有する画素又は画素の集合を発見する処理などにより実現され、公知の画像認識技術によりなされ得る。 The feature point determination unit 31 is a processing unit that determines one or more first feature points in the first image arranged by the acquisition unit 21 and one or more second feature points in the second image arranged by the acquisition unit 21. be. The determination unit 22 extracts feature points in each of the first image and the second image. The process of extracting feature points is realized by, for example, a process of finding a pixel or a set of pixels included in the image and having a different color or shape from its surroundings. It can be done by image recognition technology.

ペア決定部32は、特徴点決定部31が決定した第一特徴点及び第二特徴点に基づいて、同一の物が撮像された点である、1以上の第一特徴点のうちの一の第一特徴点と、1以上の第二特徴点のうちの一の第二特徴点とのペアを複数決定する処理部である。具体的には、特徴点決定部31が第一画像において特徴点として発見した画素又は画素の集合と、第二画像において特徴点として発見した画素又は画素の集合との色又は形状、あるいはSURF(Speed-Up Robust Features)、ORB(Oriented FAST and Rotated BRIEF)等による局所特徴量等を比較すること(いわゆるマッチング処理)により、同一の物が撮像されたものを発見して、上記ペアとして決定する。 Based on the first feature point and the second feature point determined by the feature point determination section 31, the pair determination section 32 selects one of the one or more first feature points at which the same object is imaged. A processing unit that determines a plurality of pairs of a first feature point and one second feature point out of one or more second feature points. Specifically, the color or shape of the pixel or the set of pixels found as the feature point in the first image by the feature point determination unit 31 and the pixel or the set of pixels found as the feature point in the second image, or SURF ( Speed-Up Robust Features), ORB (Oriented FAST and Rotated Brief), etc. are compared (so-called matching processing) to find images of the same object and determine them as the above pair. .

第一算出部33は、ペア決定部32により決定されたペアについて代表ベクトルを算出する処理部である。具体的には、第一算出部33は、取得部21により配置された第一画像及び第二画像が第一方向に延びる分割線によって分割された複数の部分画像ごとに、当該部分画像に含まれるペアに係る一の第一特徴点から、一の第一特徴点及び一の第二特徴点の中点に至るベクトルを代表する第一代表ベクトルを算出し、また、ペアに係る一の第二特徴点から中点に至るベクトルを代表する第二代表ベクトルを算出する。 The first calculator 33 is a processor that calculates a representative vector for the pair determined by the pair determiner 32 . Specifically, the first calculation unit 33 calculates, for each of a plurality of partial images obtained by dividing the first image and the second image arranged by the acquisition unit 21 by a dividing line extending in the first direction, the image included in the partial image. A first representative vector representing a vector from one first feature point related to the pair to the middle point of one first feature point and one second feature point is calculated, and one first feature point related to the pair A second representative vector representing vectors from the two feature points to the midpoint is calculated.

第一代表ベクトルを算出する際には、ペアに係る一の特徴点から中点に至るベクトルが複数ある場合には、複数のベクトルを統計処理することで第一代表ベクトルを算出する。統計処理は、中央値を取る処理、及び、平均値をとる処理などが含まれる。第二代表ベクトルについても同様ある。また、部分画像とは複数の画素列を含む領域に含まれる画像である。 When calculating the first representative vector, if there are a plurality of vectors from one feature point related to the pair to the midpoint, the plurality of vectors are statistically processed to calculate the first representative vector. Statistical processing includes median processing, average processing, and the like. The same applies to the second representative vector. A partial image is an image included in an area including a plurality of pixel rows.

具体的には、第一算出部33は、複数の部分画像ごとに、当該部分画像に含まれる複数のペアに係る一の第一特徴点から、一の第一特徴点及び一の第二特徴点の中点に至るベクトルの中央値を第一代表ベクトルとして算出してもよい。また、ペアに係る一の第二特徴点から中点に至るベクトルの中央値を第二代表ベクトルとして算出してもよい。ペア決定部32によるマッチング処理において、異なる物が撮像された特徴点がペアとして決定される(「誤マッチング」ともいう)場合がある。このような場合には、複数のベクトルのうち、誤マッチングが起こったベクトルだけが他と大きく異なる。第一代表ベクトル等の算出に中央値を用いることで、誤マッチングにより生じ得る、他と大きく異なるベクトルの第一代表ベクトル等への寄与を排除することができる。 Specifically, for each of a plurality of partial images, the first calculation unit 33 calculates one first feature point and one second feature point from one first feature point associated with a plurality of pairs included in the partial image. A median value of vectors reaching the midpoint of the points may be calculated as the first representative vector. Alternatively, the median value of the vectors from one second feature point to the midpoint of the pair may be calculated as the second representative vector. In the matching processing by the pair determination unit 32, there are cases where feature points where different objects are imaged are determined as a pair (also referred to as "mismatching"). In such a case, among the multiple vectors, only the vector in which mismatching occurred is significantly different from the others. By using the median value to calculate the first representative vector, etc., it is possible to eliminate the contribution of a vector that is significantly different from the others to the first representative vector, etc., which may occur due to false matching.

なお、上記第一方向は例えば水平方向である。言い換えれば、分割線は例えば水平方向の分割線である。以降ではこの場合を例として説明するが、これに限られない。 Note that the first direction is, for example, the horizontal direction. In other words, the dividing line is for example a horizontal dividing line. Although this case will be described below as an example, it is not limited to this.

また、第一算出部33は、第一代表ベクトル等の算出の際に、第一代表ベクトル等を空間的に平均化する処理をしてもよい。すなわち、第一算出部33は、複数の部分画像ごとの第一代表ベクトル及び第二代表ベクトルそれぞれと、当該部分画像に隣接する部分画像の第一代表ベクトル及び第二代表ベクトルそれぞれとの差分を小さくする統計処理を施してもよい。この統計処理は、例えば、平均又は加重平均をとる処理を含む。 Further, the first calculation unit 33 may perform a process of spatially averaging the first representative vectors and the like when calculating the first representative vectors and the like. That is, the first calculation unit 33 calculates the difference between the first representative vector and the second representative vector of each of the plurality of partial images and the first and second representative vectors of the partial images adjacent to the partial image. Statistical processing to reduce it may be performed. This statistical processing includes, for example, averaging or weighted averaging.

また、第一算出部33は、第一代表ベクトル等の算出の際に、第一代表ベクトル等を時間的に平均化する処理をしてもよい。すなわち、複数の部分画像ごとの第一代表ベクトル及び第二代表ベクトルそれぞれと、当該部分画像と同じ位置に位置し、当該部分画像より前に取得された部分画像の第一代表ベクトル及び第二代表ベクトルそれぞれとの差分を小さくする統計処理を施してもよい。この統計処理は、例えば、平均又は加重平均をとる処理を含む。 Further, the first calculation unit 33 may perform a process of temporally averaging the first representative vectors and the like when calculating the first representative vectors and the like. That is, the first representative vector and second representative vector of each of the plurality of partial images, and the first representative vector and second representative vector of the partial image located at the same position as the partial image and obtained before the partial image. Statistical processing may be performed to reduce the difference from each vector. This statistical processing includes, for example, averaging or weighted averaging.

また、第一算出部33は、部分画像に含まれるペアの数が適正範囲内に入るように部分画像の大きさを調整してもよい。すなわち、第一算出部33は、一の時刻に撮像された第一画像及び第二画像が分割された複数の部分画像のうち、当該部分画像に含まれるペアの数が第一所定値以上である場合には、一の時刻より後の時刻に撮像された第一画像及び第二画像についての当該部分画像のサイズを小さくし、当該部分画像に含まれるペアの数が第二所定値以下である場合には、一の時刻より後の時刻に撮像された第一画像及び第二画像についての当該部分画像のサイズを大きくしてもよい。ここで、第一所定値は適正範囲の上限であり、例えば50個程度とすることができる。また、第二所定値は適正範囲の下限であり、例えば5個程度とすることができる。 Also, the first calculator 33 may adjust the size of the partial image so that the number of pairs included in the partial image falls within the appropriate range. That is, the first calculation unit 33 determines that the number of pairs included in the partial images out of the plurality of partial images obtained by dividing the first image and the second image captured at one time is equal to or greater than the first predetermined value. In some cases, the sizes of the partial images of the first image and the second image captured at a time later than the one time are reduced, and the number of pairs included in the partial images is equal to or less than the second predetermined value. In some cases, the sizes of the partial images of the first image and the second image captured at a time later than the one time may be increased. Here, the first predetermined value is the upper limit of the appropriate range, and can be set to about 50, for example. Also, the second predetermined value is the lower limit of the appropriate range, and can be set to about five, for example.

第二算出部34は、第一算出部33が算出した代表ベクトルを用いて個別ベクトルを算出する処理部である。第二算出部34は、第一算出部33が算出した複数の部分画像ごとの第一代表ベクトルを補間することで第一画像及び第二画像に含まれる画素列ごとの第一個別ベクトルを算出し、第一算出部33が算出した複数の部分画像ごとの第二代表ベクトルを補間することで第一画像及び第二画像に含まれる画素列ごとの第二個別ベクトルを算出する。 The second calculation unit 34 is a processing unit that calculates individual vectors using the representative vectors calculated by the first calculation unit 33 . The second calculation unit 34 calculates a first individual vector for each pixel row included in the first image and the second image by interpolating the first representative vector for each of the plurality of partial images calculated by the first calculation unit 33. Then, a second individual vector is calculated for each pixel row included in the first image and the second image by interpolating the second representative vector for each of the plurality of partial images calculated by the first calculation unit 33 .

ここで、第二算出部34は、第一画像及び第二画像に含まれる画素列ごとに、複数の部分画像それぞれの中心画素列に当該部分画像における第一代表ベクトルを対応付けて、線形補間によって第一個別ベクトルを算出してもよい。また、第二算出部34は、第一画像及び第二画像に含まれる画素列ごとに、複数の部分画像それぞれの中心画素列に当該部分画像における第二代表ベクトルを対応付けて、線形補間によって第二個別ベクトルを算出してもよい。 Here, for each pixel row included in the first image and the second image, the second calculation unit 34 associates the central pixel row of each of the plurality of partial images with the first representative vector in the partial image, and performs linear interpolation. The first individual vector may be calculated by Further, the second calculation unit 34 associates the central pixel row of each of the plurality of partial images with the second representative vector of the partial image for each pixel row included in the first image and the second image, and performs linear interpolation to obtain A second individual vector may be calculated.

合成部23は、第二算出部34により算出された個別ベクトルを用いて、第一画像及び第二画像を合成することで合成画像を生成する処理部である。合成部23は、第一画像に含まれる画素列に対し第一個別ベクトルを用いて画素値を演算し、第二画像に含まれる画素列に対し第二個別ベクトルを用いて画素値を演算してから、第一画像及び第二画像を合成する。合成は、原則、第一画像及び第二画像を境界線によって切断してつなぎ合わせることでなされる。その際、合成部23は、境界付近において、第一画像及び第二画像の画素値の加重平均をとるなどの処理を施してもよい。 The combining unit 23 is a processing unit that generates a combined image by combining the first image and the second image using the individual vectors calculated by the second calculating unit 34 . The synthesizing unit 23 calculates pixel values for pixel columns included in the first image using the first individual vectors, and calculates pixel values for pixel columns included in the second image using the second individual vectors. Then, the first image and the second image are synthesized. Synthesis is performed by, in principle, cutting the first image and the second image by the boundary line and connecting them. At that time, the synthesizing unit 23 may perform processing such as obtaining a weighted average of the pixel values of the first image and the second image near the boundary.

表示制御部24は、合成部23が生成した合成画像の表示を制御する処理部である。表示制御部24は、合成画像を表示装置である電子ミラー40に表示させるように、合成画像に含まれる各画素を電子ミラー40に出力する。 The display control unit 24 is a processing unit that controls display of the synthesized image generated by the synthesizing unit 23 . The display control unit 24 outputs each pixel included in the composite image to the electronic mirror 40 so as to display the composite image on the electronic mirror 40, which is a display device.

なお、第二算出部34による処理と、合成部23による処理とは、汎用的なGPU(Graphics Processing Unit)によるハードウェア処理によりなされ得る。これにより、処理量及び処理時間の削減に寄与する。 The processing by the second calculation unit 34 and the processing by the synthesizing unit 23 can be performed by hardware processing by a general-purpose GPU (Graphics Processing Unit). This contributes to reduction of processing amount and processing time.

以降において画像の例を示しながら画像の合成処理について具体的に説明する。 Hereinafter, the image synthesizing process will be specifically described while showing examples of images.

図5は、本実施の形態に係る画像合成装置10による特徴点及びペアの決定方法を示す説明図である。 FIG. 5 is an explanatory diagram showing a method of determining feature points and pairs by the image synthesizing apparatus 10 according to the present embodiment.

取得部21は、カメラ13及びカメラ14を用いてそれぞれ画像51及び画像53を取得して、各画像の一部が重なる所定の位置関係で配置する。この位置関係は、カメラ13及びカメラ14の車両1に対する位置及び方向に応じて予め定められている。より具体的には、図5のように画像51が紙面上の左側に配置され、画像51に対して紙面上の右方向に所定の距離だけずらして画像53が配置されている。このように、画像51に対して画像53が所定の距離だけ紙面右方向にずれているという位置関係が、所定の位置関係に相当する。なお、画像51と画像52との外形は、カメラ等の光学系の光学特性に応じた補正、及び静的変換がかけられたことにより、矩形から歪んでいる。 The acquiring unit 21 acquires the images 51 and 53 using the camera 13 and the camera 14, respectively, and arranges the images in a predetermined positional relationship in which the images partially overlap each other. This positional relationship is predetermined according to the positions and directions of the cameras 13 and 14 with respect to the vehicle 1 . More specifically, as shown in FIG. 5, the image 51 is arranged on the left side of the paper, and the image 53 is arranged by shifting the image 51 rightward on the paper by a predetermined distance. Thus, the positional relationship in which the image 53 is displaced from the image 51 by a predetermined distance in the right direction of the drawing corresponds to the predetermined positional relationship. Note that the external shapes of the images 51 and 52 are distorted from rectangular due to correction and static transformation according to the optical characteristics of the optical system of the camera.

特徴点決定部31は、画像51及び画像53の特徴点を決定する。特徴点決定部31が決定する各画像の特徴点を図5に示している。これらの特徴点は、公知の画像認識技術などにより、画像に含まれる画素又は画素の集合であって、その周囲と異なる色又は形状等を有する画素又は画素の集合を発見することでなされ得る。 The feature point determination unit 31 determines feature points of the images 51 and 53 . The feature points of each image determined by the feature point determination unit 31 are shown in FIG. These feature points can be obtained by using a known image recognition technique or the like to find a pixel or a set of pixels contained in an image that has a different color or shape from its surroundings.

例えば、図5に示される特徴点pは、特徴点決定部31が画像51上で決定した特徴点であり、特徴点qは、特徴点決定部31が画像51上で決定した特徴点である。なお、図5において、黒丸は画像51上で決定された特徴点を、黒三角は画像53上で決定された特徴点を、それぞれ示す。 For example, a feature point p shown in FIG. 5 is a feature point determined on the image 51 by the feature point determination unit 31, and a feature point q is a feature point determined on the image 51 by the feature point determination unit 31. . In FIG. 5, black circles indicate feature points determined on the image 51, and black triangles indicate feature points determined on the image 53, respectively.

そして、ペア決定部32は、図5に示されるように配置された画像51及び画像53において、特徴点決定部31によって決定された特徴点同士のペアを決定する。このペアは、同一の対象物が撮像された点同士のペアである。ペアと決定された特徴点同士が図5において線で結ばれている。例えば特徴点p及びqがペアである。 Then, the pair determination unit 32 determines pairs of the feature points determined by the feature point determination unit 31 in the images 51 and 53 arranged as shown in FIG. This pair is a pair of points where the same object is imaged. Feature points determined as pairs are connected by lines in FIG. For example, feature points p and q are a pair.

第一算出部33は、特徴点決定部31が決定した特徴点p及びq等を用いて代表ベクトルを算出する。第一算出部33は、特徴点p及びqの中点mを求め、特徴点pから中点mに至るベクトルuと、特徴点qから中点mに至るベクトルvとを算出する。なお、図5において、白丸は第一算出部33が求めた中点を示す。 The first calculator 33 calculates a representative vector using the feature points p and q determined by the feature point determiner 31 . The first calculator 33 obtains a midpoint m between the feature points p and q, and calculates a vector u from the feature point p to the midpoint m and a vector v from the feature point q to the midpoint m. In addition, in FIG. 5 , the white circle indicates the midpoint calculated by the first calculator 33 .

そして、第一算出部33は、画像51及び画像53が分割された複数の部分画像61、62、63及び64ごとに代表ベクトルを算出する。第一算出部33は、例えば、当該部分画像に含まれる複数のベクトルuの中間値を、ベクトルuの代表ベクトルとし、当該部分画像に含まれる複数のベクトルvの中間値を、ベクトルvの代表ベクトルとする。ここで、ベクトルuの代表ベクトルを第一代表ベクトルともいい、ベクトルvの代表ベクトルを第二代表ベクトルともいう。 Then, the first calculator 33 calculates a representative vector for each of the plurality of partial images 61, 62, 63 and 64 obtained by dividing the image 51 and the image 53. FIG. For example, the first calculation unit 33 sets the median value of the plurality of vectors u included in the partial image as the representative vector of the vector u, and the median value of the plurality of vectors v included in the partial image as the representative vector of the vector v. be a vector. Here, the representative vector of the vector u is also called the first representative vector, and the representative vector of the vector v is also called the second representative vector.

なお、ペア決定部32によるマッチング処理において誤マッチングが生ずると、ベクトルu又はvが、周囲のベクトルと大きく異なる。上記のとおり第一算出部33が、ベクトルu又はvの中間値を代表ベクトルとすることで、誤マッチングにより生じたベクトルの代表ベクトルへの寄与を排除することができる利点がある。 Note that if an erroneous matching occurs in the matching processing by the pair determination unit 32, the vector u or v will be significantly different from the surrounding vectors. As described above, the first calculation unit 33 has the advantage of being able to eliminate the contribution of vectors caused by erroneous matching to the representative vector by using the intermediate value of the vectors u or v as the representative vector.

図6は、本実施の形態に係る画像合成装置10により算出された代表ベクトルを示す説明図である。 FIG. 6 is an explanatory diagram showing representative vectors calculated by the image synthesizing device 10 according to the present embodiment.

図6において、ベクトル71は、部分画像61に含まれるベクトルuの代表ベクトルである。ベクトル72は、部分画像61に含まれるベクトルvの代表ベクトルである。 In FIG. 6, vector 71 is a representative vector of vectors u included in partial image 61 . A vector 72 is a representative vector of vectors v included in the partial image 61 .

同様に、ベクトル73、75及び77は、それぞれ、部分画像62、63及び64に含まれるベクトルuの代表ベクトルである。ベクトル74、76及び78は、それぞれ、部分画像61に含まれるベクトルvの代表ベクトルである。 Similarly, vectors 73, 75 and 77 are representative vectors of vectors u included in partial images 62, 63 and 64, respectively. Vectors 74 , 76 and 78 are representative vectors of the vector v included in the partial image 61 .

次に、第二算出部34による個別ベクトルの算出処理を説明する。 Next, calculation processing of individual vectors by the second calculation unit 34 will be described.

図7は、本実施の形態に係る画像合成装置10による代表ベクトルの線形補間による個別ベクトルの算出方法を示す説明図である。 FIG. 7 is an explanatory diagram showing a method of calculating individual vectors by linear interpolation of representative vectors by the image synthesizing apparatus 10 according to the present embodiment.

図7は、図6のうちの部分画像62と部分画像63とを含む部分の拡大図である。 FIG. 7 is an enlarged view of a portion including partial images 62 and 63 in FIG.

第二算出部34は、部分画像62の中央画素列62cに代表ベクトルであるベクトル73を対応付け、また、部分画像63の中央画素列63cに代表ベクトルであるベクトル75を対応付ける。ここで、中央画素列62cとは、部分画像62に含まれる水平方向の画素列であり、部分画像62の垂直方向における中央に位置する画素列である。同様に、中央画素列63cとは、部分画像63に含まれる水平方向の画素列であり、部分画像63の垂直方向における中央に位置する画素列である。なお、ここでは代表ベクトル終点のY座標を基準に対応付けている場合を説明しているが、代表ベクトル始点や代表ベクトル中点のY座標を基準に対応付けしてもかまわない。 The second calculator 34 associates the central pixel row 62c of the partial image 62 with the vector 73, which is the representative vector, and associates the central pixel row 63c of the partial image 63 with the vector 75, which is the representative vector. Here, the central pixel row 62c is a horizontal pixel row included in the partial image 62 and positioned in the center of the partial image 62 in the vertical direction. Similarly, the center pixel column 63c is a horizontal pixel column included in the partial image 63 and located in the center of the partial image 63 in the vertical direction. Although the case where the correspondence is based on the Y coordinate of the representative vector end point is described here, the correspondence may be based on the Y coordinate of the representative vector starting point or the representative vector middle point.

そして、第二算出部34は、中央画素列62cと中央画素列63cとの間における線形補間によって、中央画素列62cと中央画素列63cとの間の画素列の個別ベクトルを算出する。つまり、第二算出部34は、中央画素列62cのY座標をY1とし、中央画素列63cのY座標をY2とするとき、Y座標がYである画素列66の個別ベクトルwを以下の式により求める。ここで、個別ベクトルw=(wX,wY)、ベクトル73=(X73,Y73)、ベクトル75=(X75,Y75)とする。 Then, the second calculator 34 calculates individual vectors of pixel rows between the central pixel row 62c and the central pixel row 63c by linear interpolation between the central pixel row 62c and the central pixel row 63c. That is, when the Y coordinate of the central pixel row 62c is Y1 and the Y coordinate of the central pixel row 63c is Y2, the second calculator 34 calculates the individual vector w of the pixel row 66 whose Y coordinate is Y by the following formula: Calculated by Here, let individual vector w=(wX, wY), vector 73=(X73, Y73), and vector 75=(X75, Y75).

wX=X73+{(Y-Y1)/(Y2-Y1)}×(X75-X73)
wY=Y73+{(Y-Y1)/(Y2-Y1)}×(Y75-Y73)
wX=X73+{(Y−Y1)/(Y2−Y1)}×(X75−X73)
wY=Y73+{(Y−Y1)/(Y2−Y1)}×(Y75−Y73)

図8は、本実施の形態に係る画像合成装置10により算出された個別ベクトルを示す説明図である。図9は、本実施の形態に係る画像合成装置10による個別ベクトルを用いた合成処理を示す説明図である。 FIG. 8 is an explanatory diagram showing individual vectors calculated by the image synthesizing device 10 according to the present embodiment. FIG. 9 is an explanatory diagram showing synthesis processing using individual vectors by the image synthesizing apparatus 10 according to the present embodiment.

図8には、図6と同じベクトル71~78に加えて、第二算出部34により算出された個別ベクトル81~84が示されている。個別ベクトル81~84は、代表ベクトルの間の画素列ごとに算出される。 FIG. 8 shows individual vectors 81 to 84 calculated by the second calculator 34 in addition to the same vectors 71 to 78 as in FIG. Individual vectors 81 to 84 are calculated for each pixel column between the representative vectors.

次に、合成部23が境界線90を境界として、第一画像と第二画像とを接合する。合成部23は、個別ベクトルを用いて画素値の演算をすることによって第一画像及び第二画像を合成する。なお、境界線90が紙面上の上下方向の直線である場合を例として説明するが、境界線90の形状はこれに限られず、斜め方向の直線であってもよいし、曲線であってもよい。 Next, the synthesizing unit 23 joins the first image and the second image using the boundary line 90 as a boundary. The synthesizing unit 23 synthesizes the first image and the second image by calculating pixel values using individual vectors. Although the boundary line 90 is a vertical straight line on the paper, the shape of the boundary line 90 is not limited to this. good.

具体的には、合成部23は、境界線90の近傍の画素において、当該画素が属する画素列の個別ベクトルを用いて画素値の演算を行う。例えば、図9の(a)に示すように、境界線90に隣接する画素91については、画素91を終点とする個別ベクトル81の始点に位置する画素92の画素値との演算を行う。このとき、図9の(b)に示すように、境界線90から遠ざかるにつれて個別ベクトル81の影響を弱めるようにして個別ベクトル81の始点に位置する画素92を求めてもよい。この場合、合成領域を境界線90からの所定画素距離H以内の範囲とした場合、境界線90からの画素距離Xの位置の画素91iにおける個別ベクトル81iの個別ベクトル81に対する影響度Vtは、
Vt=(1-X/H)、(X=0~H)
で表される。したがって、この影響度Vtを個別ベクトル81に乗じて、個別ベクトル81iの始点に位置する画素92iが求められる。具体的には、次のようにして画素92iの位置が求められる。
Specifically, the synthesizing unit 23 calculates pixel values of pixels in the vicinity of the boundary line 90 using individual vectors of pixel columns to which the pixels belong. For example, as shown in FIG. 9A, a pixel 91 adjacent to a boundary line 90 is calculated with the pixel value of a pixel 92 located at the starting point of an individual vector 81 ending at the pixel 91 . At this time, as shown in FIG. 9B, the pixel 92 located at the starting point of the individual vector 81 may be obtained by weakening the influence of the individual vector 81 as the distance from the boundary line 90 increases. In this case, when the composite region is within a predetermined pixel distance H from the boundary line 90, the influence Vt of the individual vector 81i on the individual vector 81 at the pixel 91i located at the pixel distance X from the boundary line 90 is
Vt=(1−X/H), (X=0 to H)
is represented by Therefore, by multiplying the individual vector 81 by this influence Vt, the pixel 92i located at the starting point of the individual vector 81i is obtained. Specifically, the position of the pixel 92i is obtained as follows.

図9の(b)において、画素91iの位置座標を(X91,Y91)、個別ベクトル81をwX81=(wX81,wY81)とすると、画素92iの位置座標(X92,Y92)は、
X92=X91-wX81×Vt
Y92=Y91-wY81×Vt
で表される。
In FIG. 9B, if the position coordinates of pixel 91i are (X91, Y91) and the individual vector 81 is wX81=(wX81, wY81), then the position coordinates (X92, Y92) of pixel 92i are:
X92=X91-wX81×Vt
Y92=Y91-wY81×Vt
is represented by

こうして求めた画素91、92におけるそれぞれの画素値に対し、合成部23は、画素92の画素値を、画素91の画素値に上書きする演算を行ってもよいし、画素92の画素値と画素91の画素値との境界線90からの距離を加味した加重平均をとる演算を行ってもよいし、その他の演算を行ってもよい。 For the pixel values of the pixels 91 and 92 obtained in this way, the synthesizing unit 23 may perform an operation to overwrite the pixel value of the pixel 92 with the pixel value of the pixel 91, or the pixel value of the pixel 92 and the pixel value A calculation may be performed to obtain a weighted average taking into account the distance from the boundary line 90 to the pixel value of 91, or other calculations may be performed.

また、合成部23は、第一画像と第二画像とのそれぞれの画素値を算出して、重複領域に対しては第一画像と第二画像との画素値を加重平均する演算を行ってもよい。具体的には、図9の(c)に示すように、画素91jについて、画素91jを終点とする個別ベクトル81jの始点に位置する画素92j(第一画像内)の画素値と、画素91jを終点とする個別ベクトル81kの始点に位置する画素92k(第二画像内)の画素値を加重平均することにより混ぜ合わせてもよい。 Further, the synthesizing unit 23 calculates pixel values of each of the first image and the second image, and performs a weighted average calculation of the pixel values of the first image and the second image for the overlap region. good too. Specifically, as shown in (c) of FIG. 9, for a pixel 91j, the pixel value of a pixel 92j (in the first image) located at the starting point of an individual vector 81j ending at the pixel 91j and the pixel 91j are The pixel values of the pixel 92k (in the second image) located at the starting point of the individual vector 81k, which is the ending point, may be weighted and mixed.

この図9の(c)における合成部23の処理をまとめると、次のようになる。合成部23は、部分画像61~64の各領域内の各画素(例えば画素91j)に対し、個別ベクトル81j(第一個別ベクトル)をもとに演算した位置(例えば位置座標(X92,Y92))に基づいて第一画像内の画素92jを参照する。同様に、合成部23は、部分画像61~64の各領域内の各画素(例えば画素91j)に対し、個別ベクトル81k(第二個別ベクトル)をもとに演算した位置に基づいて第二画像内の画素92kを参照する。そして、合成部23は、参照した画素92j、92kのそれぞれの画素値を演算(例えば加重平均)することで第一画像及び第二画像を合成する。 The processing of the synthesizing unit 23 in FIG. 9(c) can be summarized as follows. The synthesizing unit 23 calculates a position (eg, position coordinates (X92, Y92)) based on the individual vector 81j (first individual vector) for each pixel (eg, pixel 91j) in each region of the partial images 61 to 64. ) to refer to pixel 92j in the first image. Similarly, the synthesizing unit 23 calculates the second image based on the position calculated based on the individual vector 81k (second individual vector) for each pixel (for example, pixel 91j) in each region of the partial images 61 to 64. See pixel 92k in . Then, the synthesizing unit 23 synthesizes the first image and the second image by calculating (for example, weighted average) the pixel values of the referenced pixels 92j and 92k.

なお、境界線90の近傍の画素とは、境界線90から所定距離以内の範囲に含まれる画素である。ここで、所定距離は、部分画像61~64の各領域における幅であり、例えば、画像51又は53の紙面上の左右方向の全幅の10~20%程度とすることができる。 The pixels in the vicinity of the boundary line 90 are pixels within a predetermined distance from the boundary line 90 . Here, the predetermined distance is the width of each area of the partial images 61 to 64, and can be, for example, about 10 to 20% of the total width of the image 51 or 53 in the horizontal direction on the page.

以降において、画像合成装置10の処理について説明する。 The processing of the image synthesizing device 10 will be described below.

図10は、本実施の形態に係る画像合成装置10の処理を示すフロー図である。 FIG. 10 is a flow chart showing processing of the image synthesizing device 10 according to the present embodiment.

図10に示されるように、ステップS101において、取得部21は、第一画像及び第二画像を取得する。例えば、第一画像は左側後方画像であり、第二画像は中央後方画像である。 As shown in FIG. 10, in step S101, the acquisition unit 21 acquires a first image and a second image. For example, the first image is the left rear image and the second image is the center rear image.

ステップS102において、特徴点決定部31は、ステップS101で取得した第一画像及び第二画像における特徴点を決定する。 In step S102, the feature point determination unit 31 determines feature points in the first image and the second image acquired in step S101.

ステップS103において、ペア決定部32は、ステップS102で決定した特徴点について、ペアを決定する。 In step S103, the pair determining unit 32 determines pairs of the feature points determined in step S102.

ステップS104において、第一算出部33は、ステップS101で取得した第一画像及び第二画像における部分画像ごとの代表ベクトルを算出する。 In step S104, the first calculator 33 calculates a representative vector for each partial image in the first image and the second image acquired in step S101.

ステップS105において、第二算出部34は、ステップS104で算出された代表ベクトルを用いて、画素列ごとの個別ベクトルを算出する。 In step S105, the second calculator 34 calculates an individual vector for each pixel row using the representative vector calculated in step S104.

ステップS106において、合成部23は、ステップS105で算出された画素列ごとの個別ベクトルを用いて境界線90付近の画素値の演算を行うことによって、第一画像及び第二画像を合成する。 In step S106, the synthesizing unit 23 synthesizes the first image and the second image by calculating the pixel values in the vicinity of the boundary line 90 using the individual vector for each pixel row calculated in step S105.

ステップS107において、表示制御部24は、ステップS106で合成した合成画像を電子ミラー40に表示するよう制御する。 In step S<b>107 , the display control unit 24 controls the electronic mirror 40 to display the synthesized image synthesized in step S<b>106 .

このようにして、画像合成装置10は、画像合成に伴う違和感を抑制しながら画像を合成することができる。 In this way, the image synthesizing device 10 can synthesize images while suppressing the feeling of strangeness that accompanies image synthesis.

以上のように本実施の形態にかかる画像合成装置は、第一画像と第二画像とに映っている、同一の物が撮像された特徴点を互いに近づけるような画素値の演算を施した上で、第一画像と第二画像とを合成する。この演算の際に、第一代表ベクトル等を一旦算出した後に、算出した第一代表ベクトルを用いて画素列ごとの個別ベクトルを算出し、個別ベクトルを用いて画素値の演算が行われる。このように第一代表ベクトル等を一旦算出することにより、特徴点の誤マッチングにより生じ得る、他と大きく異なるベクトルの影響が画像合成に及ぶことを排除することができる。その結果、画像合成装置は、画像合成に伴う違和感を抑制しながら画像を合成することができる。 As described above, the image synthesizing apparatus according to the present embodiment calculates pixel values so that the feature points of the same object captured in the first image and the second image are brought closer to each other. , synthesize the first image and the second image. In this calculation, after the first representative vector and the like are once calculated, an individual vector for each pixel row is calculated using the calculated first representative vector, and the pixel value is calculated using the individual vector. By once calculating the first representative vector and the like in this way, it is possible to eliminate the influence of vectors that are significantly different from others, which may be caused by incorrect matching of feature points, from affecting image synthesis. As a result, the image synthesizing device can synthesize images while suppressing a sense of incongruity that accompanies image synthesizing.

また、画像合成装置は、複数のベクトルの中央値を第一代表ベクトル等として算出する。これにより、特徴点の誤マッチングにより生じ得る、他と大きく異なるベクトルの影響が個別ベクトルに及ぶことを排除することができる。よって、画像合成装置は、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 Also, the image synthesizing device calculates the median value of the plurality of vectors as the first representative vector or the like. This makes it possible to eliminate the influence of vectors that are significantly different from each other, which can be caused by mismatching of feature points, from affecting individual vectors. Therefore, the image synthesizing device can more easily synthesize images while suppressing the sense of incongruity that accompanies image synthesis.

また、画像合成装置は、代表ベクトルの線形補間により個別ベクトルを算出する。よって、画像合成装置は、より具体的な構成に基づいて、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 Also, the image synthesizing device calculates individual vectors by linear interpolation of representative vectors. Therefore, based on a more specific configuration, the image synthesizing device can more easily synthesize images while suppressing the sense of incongruity that accompanies image synthesis.

また、画像合成装置は、一の部分画像の代表ベクトルと、それと隣接する部分画像の代表ベクトルとの差分を小さくすることで、部分画像間での個別ベクトルの差分を小さくし、その結果、合成画像において歪が生ずることを回避することができる。よって、画像合成装置は、画像における部分の間で歪が生ずることを未然に回避することで、画像合成に伴う違和感を抑制しながら画像を合成することができる。 Further, the image synthesizing device reduces the difference between the representative vector of one partial image and the representative vector of the adjacent partial image, thereby reducing the difference of the individual vectors between the partial images. Distortions in the image can be avoided. Therefore, the image synthesizing device can synthesize an image while suppressing a sense of incongruity caused by image synthesizing by avoiding occurrence of distortion between portions of the image.

また、画像合成装置は、一の部分画像の代表ベクトルと、それと同じ位置の過去の部分画像の代表ベクトルとの差分を小さくすることで、個別ベクトルの時間的な変化量を小さくし、その結果、合成画像において歪が生ずることを回避することができる。よって、画像合成装置は、画像における部分の間で歪が生ずることを未然に回避することで、画像合成に伴う違和感を抑制しながら画像を合成することができる。 In addition, the image synthesizing device reduces the amount of temporal change in the individual vectors by reducing the difference between the representative vector of one partial image and the representative vector of the past partial image at the same position. , distortions in the composite image can be avoided. Therefore, the image synthesizing device can synthesize an image while suppressing a sense of incongruity caused by image synthesizing by avoiding occurrence of distortion between portions of the image.

また、画像合成装置は、部分画像に含まれる特徴点のペアの数を適正範囲に収めることができる。部分画像に含まれる特徴点の数が適正範囲より大きい場合、特徴点と、特徴点間の中点を結ぶベクトルのばらつきが多くなり、算出される代表ベクトルから離れたベクトルも多くなる。そのため、適切な代表ベクトルが算出されないことがある。一方、部分画像に含まれる特徴点の数が適正範囲より小さい場合、計算の基礎となる特徴点の数が少なく、算出される代表ベクトルが必ずしも、部分画像に含まれるベクトルを代表するベクトルでない場合も生じ得る。そこで、部分画像に含まれる特徴点のペアの数を適正範囲に収めることで、適切な代表ベクトルを算出することによって、画像合成に伴う違和感を抑制しながら画像を合成することができる。 Also, the image synthesizing device can keep the number of pairs of feature points included in the partial images within an appropriate range. If the number of feature points included in the partial image is larger than the appropriate range, the variation in the vectors connecting the feature points and the midpoints between the feature points increases, and the number of vectors apart from the calculated representative vector also increases. Therefore, an appropriate representative vector may not be calculated. On the other hand, if the number of feature points included in the partial image is smaller than the appropriate range, or if the number of feature points used as the basis for calculation is small and the calculated representative vector does not necessarily represent the vectors included in the partial image. can also occur. Therefore, by keeping the number of pairs of feature points included in the partial images within an appropriate range and by calculating an appropriate representative vector, it is possible to synthesize images while suppressing the sense of incongruity that accompanies image compositing.

また、画像合成装置は、水平方向の分割線を用いて部分画像を生成する。よって、画像合成装置は、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 Also, the image synthesizing device generates a partial image using a horizontal dividing line. Therefore, the image synthesizing device can more easily synthesize images while suppressing the sense of incongruity that accompanies image synthesis.

また、画像合成装置は、GPUによるハードウェア処理を用いて画像合成を行う。よって、画像合成装置は、処理量及び処理時間を削減しながら、画像合成に伴う違和感を抑制しながら画像を合成することができる。 Also, the image synthesizing device performs image synthesizing using hardware processing by a GPU. Therefore, the image synthesizing device can synthesize images while reducing the amount of processing and the processing time, and suppressing the sense of incongruity that accompanies image synthesizing.

また、画像合成装置は、車両に搭載されたカメラの位置及び向きを用いて、第一画像と第二画像とが配置される位置関係を予め定める。よって、画像合成装置は、予め定められた位置関係を用いて、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 Also, the image synthesizing device determines in advance the positional relationship between the first image and the second image using the position and orientation of the camera mounted on the vehicle. Therefore, the image synthesizing device can synthesize images more easily by using a predetermined positional relationship while suppressing a sense of incompatibility that accompanies image synthesizing.

また、画像合成装置は、車両に当該された左カメラ、右カメラ及び中央カメラそれぞれにより撮像された画像を合成する。これにより、画像合成装置は、画像合成に伴う違和感を抑制しながら、車両の左側後方から中央後方を経て右側後方まで、あるいは、車両の右側後方から中央後方を経て左側後方までの広い範囲を合成した画像を合成することができる。 Also, the image synthesizing device synthesizes images captured by the left camera, the right camera, and the center camera attached to the vehicle. As a result, the image synthesizing device synthesizes a wide range from the rear left side of the vehicle to the rear right side through the rear center, or from the rear right side of the vehicle to the rear left side through the rear center while suppressing a sense of incongruity accompanying image synthesis. It is possible to synthesize images that have been

(実施の形態2)
本実施の形態において、画像合成に伴う違和感を抑制しながら画像を合成する画像合成装置について説明する。なお、本実施の形態での画像の合成の方法は、実施の形態1の画像の合成の方法と独立に実行されてもよいし、組み合わせて実行されてもよい。組み合わせて実行される場合の形態は、下記の変形例で説明される。
(Embodiment 2)
In the present embodiment, an image synthesizing apparatus that synthesizes images while suppressing a sense of incongruity that accompanies image synthesis will be described. The image composition method according to the present embodiment may be executed independently of the image composition method according to the first embodiment, or may be executed in combination. Forms when implemented in combination are described in the following variations.

以降において、本実施の形態に係る画像合成装置110の機能及び処理を説明する。本実施の形態に係る画像合成装置110は、実施の形態1における画像合成装置10に相当する。 Hereinafter, functions and processing of the image synthesizing device 110 according to this embodiment will be described. An image synthesizing device 110 according to the present embodiment corresponds to the image synthesizing device 10 according to the first exemplary embodiment.

図11は、本実施の形態に係る画像合成装置110の機能構成を示すブロック図である。 FIG. 11 is a block diagram showing the functional configuration of the image synthesizing device 110 according to this embodiment.

図11に示されるように、画像合成装置110は、取得部121と、決定部122と、合成部123と、表示制御部124とを備える。上記の各構成要素は、プロセッサがメモリ等を用いて所定のプログラムを実行することで実現されてもよいし、専用ハードウェアで実現されてもよい。 As shown in FIG. 11, the image synthesizing device 110 includes an acquisition unit 121, a determination unit 122, a synthesizing unit 123, and a display control unit . Each component described above may be implemented by a processor executing a predetermined program using a memory or the like, or may be implemented by dedicated hardware.

取得部121は、一の対象を互いに異なる撮像条件の下で撮像した第一画像及び第二画像を取得し、取得した第一画像及び第二画像を一部が重なる所定の位置関係で配置する処理部である。取得部121は、コンピュータによる演算により、仮想的な空間内に第一画像及び第二画像を配置する。取得部121が第一画像及び第二画像を仮想的な空間内に配置するときには、配置する画像に対して、当該画像を撮影したカメラ等の光学系の光学特性に応じた補正をかけた上で、画像を配置してもよい。補正は、具体的には、レンズのゆがみに基づく修正、並びに、サイズ及び角度の調整のための補正を含む。この補正をかけることで、カメラごとの光学系の差異を抑制し、つなぎ合わせて生成される後方画像50に含まれる、第一画像に由来する画像と、第二画像に由来する画像との間の色又は大きさ等の差異を、より小さくすることができる。第一画像及び第二画像が配置される所定の位置関係は、第一画像及び第二画像を取得したカメラの位置及び向きに応じて定められたものである。 The acquisition unit 121 acquires a first image and a second image obtained by imaging one target under mutually different imaging conditions, and arranges the acquired first image and second image in a predetermined positional relationship in which a part overlaps. processing unit. Acquisition unit 121 arranges the first image and the second image in a virtual space through computation by a computer. When the acquisition unit 121 arranges the first image and the second image in the virtual space, the images to be arranged are corrected according to the optical characteristics of the optical system such as the camera that captured the images. You can place the image in . Corrections specifically include corrections based on lens distortion, as well as corrections for size and angle adjustments. By applying this correction, the difference between the optical systems of the cameras is suppressed, and the difference between the image derived from the first image and the image derived from the second image included in the rear image 50 generated by stitching is corrected. can have smaller differences such as color or size. The predetermined positional relationship in which the first image and the second image are arranged is determined according to the position and orientation of the camera that acquired the first image and the second image.

決定部122は、第一画像及び第二画像を合成するための境界を決定する処理部である。決定部122は、その詳細な構成要素として、特徴点決定部131と、ペア決定部132と、曲線決定部133とを有する。 The determination unit 122 is a processing unit that determines a boundary for synthesizing the first image and the second image. The determination unit 122 has a feature point determination unit 131, a pair determination unit 132, and a curve determination unit 133 as its detailed components.

特徴点決定部131は、取得部121が配置した第一画像における1以上の第一特徴点と、取得部121が配置した第二画像における1以上の第二特徴点とを決定する処理部である。決定部122は、第一画像及び第二画像のそれぞれにおける特徴点を抽出する。特徴点を抽出処理は、画像から、当該画像に含まれる画素又は画素の集合であって、その周囲と異なる色又は形状等を有する画素又は画素の集合を発見する処理などにより実現され、公知の画像認識技術によりなされ得る。 The feature point determination unit 131 is a processing unit that determines one or more first feature points in the first image arranged by the acquisition unit 121 and one or more second feature points in the second image arranged by the acquisition unit 121. be. The determination unit 122 extracts feature points in each of the first image and the second image. The process of extracting feature points is realized by, for example, a process of finding a pixel or a set of pixels included in the image and having a different color or shape from its surroundings. It can be done by image recognition technology.

ペア決定部132は、特徴点決定部131が決定した第一特徴点及び第二特徴点に基づいて、同一の物が撮像された点である、1以上の第一特徴点のうちの一の第一特徴点と、1以上の第二特徴点のうちの一の第二特徴点とのペアを複数決定する。具体的には、特徴点決定部131が第一画像において特徴点として発見した画素又は画素の集合と、第二画像において特徴点として発見した画素又は画素の集合との色又は形状等を比較することで、同一の物が撮像されたものを発見して、上記ペアとして決定する。 Based on the first feature point and the second feature point determined by the feature point determination unit 131, the pair determination unit 132 determines one of the one or more first feature points at which the same object is captured. A plurality of pairs of the first feature point and one second feature point out of the one or more second feature points are determined. Specifically, the feature point determination unit 131 compares the color, shape, etc. of the pixel or the set of pixels found as the feature point in the first image with the pixel or the set of pixels found as the feature point in the second image. By doing so, images of the same object are found and determined as the pair.

曲線決定部133は、ペア決定部132により決定された複数のペアのうち、当該ペアに係る一の第一特徴点と一の第二特徴点との離間距離が所定以下である複数のペア(近距離ペアともいう)の近傍を通る一の曲線を決定する。複数の近距離ペアの近傍とは、当該近距離ペアに係る一の第一特徴点又は一の第二特徴点の近傍と、第一特徴点及び一の第二特徴点を結ぶ線分の近傍を含む。 The curve determining unit 133 selects, from among the plurality of pairs determined by the pair determining unit 132, pairs ( Determine a curve through the neighborhood of the near pair). The vicinity of a plurality of short-range pairs means the vicinity of one first feature point or one second feature point related to the short-range pair, and the vicinity of a line segment connecting the first feature point and one second feature point. including.

例えば、曲線決定部133は、決定された複数の近距離ペアを順に辿ることで上記一の曲線を決定する。例えば、曲線決定部133は、決定された複数の近距離ペアの近似曲線を上記曲線として決定してもよい。また、この曲線は、非線形最小二乗法により決定されたものであってもよい。また、曲線決定部133は、決定された複数のペアのうち、当該ペアに係る一の第一特徴点と一の第二特徴点との離間距離が所定以上である複数の遠距離ペアの近傍を通らない一の曲線を決定してもよい。 For example, the curve determination unit 133 determines the one curve by sequentially tracing the determined short-distance pairs. For example, the curve determining unit 133 may determine approximate curves of the determined short-distance pairs as the curves. Alternatively, this curve may be determined by a nonlinear least-squares method. In addition, the curve determination unit 133 determines the vicinity of a plurality of long-distance pairs in which the separation distance between one first feature point and one second feature point of the pair is equal to or greater than a predetermined distance, among the determined pairs. A curve that does not pass through may be determined.

合成部123は、決定部122により決定された境界、つまり、曲線決定部133により決定された曲線を境界として、第一画像及び第二画像を合成することで合成画像を生成する処理部である。合成は、原則、第一画像及び第二画像を境界線によって切断してつなぎ合わせることでなされる。その際、境界付近において、第一画像及び第二画像の画素値の加重平均をとるなどの処理を施してもよい。 The synthesis unit 123 is a processing unit that generates a synthetic image by synthesizing the first image and the second image using the boundary determined by the determination unit 122, that is, the curve determined by the curve determination unit 133 as the boundary. . Synthesis is performed by, in principle, cutting the first image and the second image by the boundary line and connecting them. At that time, processing such as obtaining a weighted average of the pixel values of the first image and the second image may be performed near the boundary.

表示制御部124は、合成部123が生成した合成画像の表示を制御する処理部である。表示制御部124は、合成画像を表示装置である電子ミラー40に表示させるように、合成画像に含まれる各画素を電子ミラー40に出力する。 The display control unit 124 is a processing unit that controls display of the synthesized image generated by the synthesizing unit 123 . The display control unit 124 outputs each pixel included in the composite image to the electronic mirror 40 so as to display the composite image on the electronic mirror 40, which is a display device.

以降において画像の例を示しながら画像の合成処理について具体的に説明する。 Hereinafter, the image synthesizing process will be specifically described while showing examples of images.

図12は、本実施の形態に係る車両1の右側後方画像である画像151の一例を示す説明図である。図12に示される画像151は、図1におけるカメラ13による撮像により生成される画像の一例であり、図2の画像51に相当する。画像151には、車両1の右側後方に存在する車両、道路及び橋脚などが映っている。画像151のうちの領域161は、車両の中央後方画像(画像153)と重なりを有する部分である。 FIG. 12 is an explanatory diagram showing an example of an image 151 that is a right rear image of the vehicle 1 according to this embodiment. An image 151 shown in FIG. 12 is an example of an image generated by imaging with the camera 13 in FIG. 1, and corresponds to the image 51 in FIG. The image 151 shows a vehicle, a road, a bridge pier, and the like existing behind the right side of the vehicle 1 . A region 161 of the image 151 is a portion that overlaps the central rear image (image 153) of the vehicle.

図13は、本実施の形態に係る車両1の中央後方画像である画像153の一例を示す説明図である。図13に示される画像153は、図1におけるカメラ14による撮像により生成される画像の一例であり、図2の画像53に相当する。画像153には、車両1の右側後方に存在する車両、道路及び橋脚の他、車両1の中央後方の風景も映っている。画像153のうちの領域163は、車両の右側後方画像(画像151)と重なりを有する部分である。 FIG. 13 is an explanatory diagram showing an example of an image 153 that is a central rear image of the vehicle 1 according to the present embodiment. An image 153 shown in FIG. 13 is an example of an image generated by imaging by the camera 14 in FIG. 1, and corresponds to the image 53 in FIG. The image 153 shows not only the vehicle, the road, and the bridge piers existing behind the vehicle 1 on the right side, but also the scenery behind the center of the vehicle 1 . A region 163 of the image 153 is a portion overlapping the right rear image (image 151) of the vehicle.

ここで画像151と画像153とを合成する関連技術を説明する。関連技術は、画像151と画像153とを直線状の境界線を用いて合成する技術である。 A related technique for synthesizing the image 151 and the image 153 will now be described. A related technique is a technique for synthesizing the image 151 and the image 153 using a straight boundary line.

図14は、関連技術に係る車両1の左側後方画像と中央後方画像とをつなぎ合わせた画像の一例を示す説明図である。 FIG. 14 is an explanatory diagram showing an example of an image obtained by joining a left rear image and a center rear image of the vehicle 1 according to the related art.

ここでは、画像151と画像153とが、境界線170を境界として合成される例を示す。図14において、画像151Aは、画像151を境界線170で切断した画像のうちの左側の画像である。画像153Aは、画像153を境界線170で切断した画像のうちの右側の画像である。合成画像である画像155Aは、画像151Aと画像153Aとを境界線170を境界としてつなぎあわせることで構成された画像である。 Here, an example in which the image 151 and the image 153 are combined with the boundary line 170 as the boundary is shown. In FIG. 14, the image 151A is the image on the left side of the images obtained by cutting the image 151 along the boundary line 170. In FIG. Image 153A is the image on the right side of the images obtained by cutting image 153 along boundary line 170 . The image 155A, which is a composite image, is an image formed by connecting the image 151A and the image 153A with the boundary line 170 as a boundary.

画像155Aは、車両1の右側後方と中央後方とを含む後方画像である。しかしながら、画像155Aにおいて、車両1の右側後方に存在する車両が歪んでおり、言い換えれば、車両1の右側後方に存在する車両に対応する画像の一部に消失が生じている。 The image 155A is a rearward image including the right rearward side and the central rearward side of the vehicle 1 . However, in the image 155A, the vehicle existing behind the vehicle 1 on the right side is distorted, in other words, part of the image corresponding to the vehicle existing behind the vehicle 1 on the right side disappears.

画像155Aは、車両1の運転手が物理ミラーを通してみる車両1の後方の光景とは異なる。そのため、画像155Aが電子ミラー40に表示されると、運転者には違和感が生じ得る。 Image 155A is different from the view behind vehicle 1 as seen by the driver of vehicle 1 through a physical mirror. Therefore, when the image 155A is displayed on the electronic mirror 40, the driver may feel uncomfortable.

次に、画像合成装置110による画像の合成方法を説明する。 Next, a method for synthesizing images by the image synthesizing device 110 will be described.

図15は、本実施の形態に係る車両1の左側後方画像である画像151と、中央後方画像である画像153とを一部を重ねて配置した状態を示す説明図である。 FIG. 15 is an explanatory diagram showing a state in which an image 151 that is a left rear image of the vehicle 1 and an image 153 that is a center rear image of the vehicle 1 according to the present embodiment are partially overlapped.

取得部121は、カメラ13及びカメラ14を用いてそれぞれ画像151及び画像153を取得して、各画像の一部が重なる所定の位置関係で配置する。この位置関係は、カメラ13及びカメラ14の車両1に対する位置及び方向に応じて予め定められている。より具体的には、図15のように画像151が紙面上の左側に配置され、画像151に対して紙面上の右方向に距離Mずらして画像153が配置されている。このように、画像151に対して画像153が距離Mだけ紙面右方向にずれているという位置関係が、所定の位置関係に相当する。 The acquiring unit 121 acquires the image 151 and the image 153 using the camera 13 and the camera 14, respectively, and arranges the images in a predetermined positional relationship in which each image partially overlaps. This positional relationship is predetermined according to the positions and directions of the cameras 13 and 14 with respect to the vehicle 1 . More specifically, as shown in FIG. 15, an image 151 is arranged on the left side of the paper, and an image 153 is arranged by shifting the image 151 to the right on the paper by a distance M. Thus, the positional relationship in which the image 153 is displaced from the image 151 by the distance M in the right direction of the drawing corresponds to the predetermined positional relationship.

そして、特徴点決定部131が、画像151及び画像153の特徴点を決定する。特徴点決定部131が決定する各画像の特徴点を図12及び図13に示している。図12の特徴点は丸印で、図13の特徴点は三角印で、それぞれ示される。これらの特徴点は、公知の画像認識技術などにより、画像に含まれる画素又は画素の集合であって、その周囲と異なる色又は形状等を有する画素又は画素の集合を発見することでなされ得る。 Then, the feature point determination unit 131 determines feature points of the images 151 and 153 . The feature points of each image determined by the feature point determination unit 131 are shown in FIGS. 12 and 13. FIG. The feature points in FIG. 12 are indicated by circles, and the feature points in FIG. 13 are indicated by triangles. These feature points can be obtained by using a known image recognition technique or the like to find a pixel or a set of pixels contained in an image that has a different color or shape from its surroundings.

なお、図15では、画像151及び画像153のうちの重なり部分である、画像151における領域161、及び、画像153における領域163を、特に処理を施さずに領域164として示している。 Note that in FIG. 15, an area 161 in the image 151 and an area 163 in the image 153, which are overlapping portions of the images 151 and 153, are shown as an area 164 without performing any particular processing.

図16は、本実施の形態に係る画像の合成のための境界線の一例を示す説明図である。図17は、図16における枠XVIIの拡大図である。 FIG. 16 is an explanatory diagram showing an example of boundary lines for synthesizing images according to the present embodiment. 17 is an enlarged view of frame XVII in FIG. 16. FIG.

ペア決定部132は、図16に示されるように配置された画像151及び画像153において、特徴点決定部131によって決定された特徴点同士のペアを決定する。このペアは、同一の対象物が撮像された点同士のペアである。例えば、図16において特徴点p1及びq1は、それぞれ、画像151及び153における橋脚の右端が映った点である。よって、ペア決定部132は特徴点p1及びq1をペアと決定する。同様に、特徴点p2及びq2は、それぞれ、画像151及び153における橋脚上の道路照明灯の屈曲部が映った点であるので、ペアと決定される。特徴点p3及びq3は、それぞれ、画像151及び153における車両の車体の一部が映った点であるのでペアと決定される。その他も同様である。 The pair determination unit 132 determines pairs of feature points determined by the feature point determination unit 131 in the images 151 and 153 arranged as shown in FIG. This pair is a pair of points where the same object is imaged. For example, feature points p1 and q1 in FIG. 16 are the points where the right ends of the piers in images 151 and 153 are reflected. Therefore, the pair determination unit 132 determines the feature points p1 and q1 as a pair. Similarly, feature points p2 and q2 are determined as a pair because they are the points where the curved portion of the road lighting on the pier in images 151 and 153 are reflected. Feature points p3 and q3 are determined as a pair because they are points where a part of the body of the vehicle appears in images 151 and 153, respectively. Others are the same.

なお、2枚の画像151、153で検出した特徴点におけるペアの決定に関しては、例えば検出した特徴点の特徴量を算出し、特徴量の比較(マッチング)を行い、同じ特徴量をもった特徴点をペアとしてみなせばよい。 Regarding the determination of pairs of feature points detected in the two images 151 and 153, for example, the feature amounts of the detected feature points are calculated, the feature amounts are compared (matching), and the feature values having the same feature amount are calculated. Consider the points as pairs.

また、ペア決定部132は、ペアと決定した特徴点の離間距離を計測する。そして、ペア決定部132は、離間距離が第一所定値以下のペアを近距離ペアとする。ここで第一所定値は、電子ミラー40に表示される画像を視認した運転手が、近距離ペアに係る2つの特徴点を同一の点であると判断する程度の距離であり、例えば、図16に示されるように配置された画像151及び153の全幅Lが10インチ程度のフルハイビジョンの画素(ピクセル)数のものであったとすると、10~20ピクセル程度以下の距離とすることができる。また、ペア決定部132は、特徴点間の離間距離が第二所定値以上のペアを遠距離ペアとする。ここで、第二所定値は、電子ミラー40に表示される画像を視認した運転手が、遠距離ペアに係る2つの特徴点が明らかに離れた点であると判断する程度の距離であり、例えば、図16に示されるように配置された画像151及び153の全幅Lが10インチ程度のフルハイビジョンの画素(ピクセル)数のものであったとすると、30~40ピクセル程度以上の距離とすることができる。 In addition, the pair determination unit 132 measures the distance between feature points determined to be paired. Then, the pair determination unit 132 determines pairs whose separation distance is equal to or less than the first predetermined value as short-distance pairs. Here, the first predetermined value is a distance at which the driver who visually recognizes the image displayed on the electronic mirror 40 determines that the two feature points related to the short-distance pair are the same point. Assuming that the total width L of the images 151 and 153 arranged as shown in 16 is about 10 inches in the number of full high-definition pixels, the distance can be about 10 to 20 pixels or less. Also, the pair determining unit 132 determines pairs in which the separation distance between the feature points is equal to or greater than the second predetermined value as long-distance pairs. Here, the second predetermined value is a distance at which the driver who visually recognizes the image displayed on the electronic mirror 40 judges that the two characteristic points related to the long-distance pair are clearly separate points, For example, if the total width L of the images 151 and 153 arranged as shown in FIG. can be done.

曲線決定部133は、ペア決定部132が決定したペアに基づいて、曲線を決定する。ここで、曲線決定部133は、ペア決定部132が決定した近距離ペアの近傍を通る一の曲線を決定する。なお、近距離ペアの近傍とは、近距離ペアに係る特徴点(特徴点p1、q1など)の近傍と、近距離ペアに係る2つの特徴点を結ぶ線分の近傍とを含む。また、必ずしもすべての近距離ペアの近傍を通ることを要しない。 The curve determination section 133 determines a curve based on the pairs determined by the pair determination section 132 . Here, the curve determination unit 133 determines one curve passing through the vicinity of the short distance pair determined by the pair determination unit 132 . Note that the vicinity of the short-range pair includes the vicinity of the feature points (feature points p1, q1, etc.) related to the short-range pair and the vicinity of the line connecting the two feature points related to the short-range pair. Also, it is not necessary to pass through the neighborhood of all short range pairs.

ここで、一の曲線は、図16に示されるように配置された画像151及び153の上辺及び下辺に端点を有する曲線である。このように一の曲線は、画像の辺上に始点及び終点を有する曲線である。なお、一の曲線は、その一部に直線の部分を含んでいてもよい。 Here, one curve is a curve having endpoints on the upper and lower sides of images 151 and 153 arranged as shown in FIG. A curve is thus a curve that has a starting point and an ending point on an edge of the image. In addition, one curved line may partially include a straight line portion.

一例として、画像151及び153の下辺から特徴点を辿って曲線を決定する方法を図17を参照しながら説明する。 As an example, a method of determining a curve by tracing feature points from the lower sides of images 151 and 153 will be described with reference to FIG.

まず、曲線決定部133は、下辺の近傍に位置するペアsを発見し、下辺上におけるペアsの近傍から曲線を開始する。曲線決定部133は、ペアsの近くのペアを探索し、ペアaとペアbとを発見する。ここで、曲線決定部133は、ペアaとペアbとのどちらへ曲線を延ばすかを以下のように決定する。ペアaの近傍には2個のペアが存在しており、ペアbの近傍にはペアが存在していない。そこで、曲線決定部133は、ペアaに向かって曲線を延ばすと決定する。 First, the curve determination unit 133 finds the pair s located near the lower side, and starts the curve from the vicinity of the pair s on the lower side. The curve determining unit 133 searches for pairs near pair s and finds pair a and pair b. Here, the curve determination unit 133 determines to which of the pair a and the pair b the curve is extended as follows. Two pairs exist near pair a, and no pair exists near pair b. Therefore, the curve determination unit 133 determines to extend the curve toward the pair a.

次に、曲線決定部133は、ペアcとペアdとのどちらへ曲線を延ばすかを以下のように決定する。ペアcの近傍には、特徴点の離間距離が比較的大きいペアが多く存在している。一方、ペアdの近傍には、特徴点の離間距離が比較的小さいペアが存在するだけである。そこで、曲線決定部133は、ペアdに向かって曲線を延ばすと決定する。 Next, the curve determination unit 133 determines to which of pair c and pair d the curve should be extended as follows. In the vicinity of pair c, there are many pairs whose feature points are separated by a relatively large distance. On the other hand, in the vicinity of pair d, there are only pairs with relatively small distances between feature points. Therefore, the curve determination unit 133 determines to extend the curve toward the pair d.

このようにして、曲線決定部133は、ペアを順にたどって一の曲線を決定する。 In this way, the curve determination unit 133 sequentially traces the pairs to determine one curve.

次に合成部123が画像151と画像153とを合成する。合成部123は、曲線決定部133が決定した一の曲線を境界として画像151と画像153とを合成する。 Next, the synthesizing unit 123 synthesizes the images 151 and 153 . Synthesizing unit 123 synthesizes image 151 and image 153 with one curve determined by curve determining unit 133 as a boundary.

図18は、本実施の形態に係る車両1の左側後方画像である画像151から抜き出した画像の一例を示す説明図である。図19は、本実施の形態に係る車両1の中央後方画像である画像153から抜き出した画像の一例を示す説明図である。図20は、本実施の形態に係る車両1の左側後方画像である画像151と中央後方画像である画像153とをつなぎ合わせた画像の一例を示す説明図である。 FIG. 18 is an explanatory diagram showing an example of an image extracted from an image 151 that is a left rear image of the vehicle 1 according to this embodiment. FIG. 19 is an explanatory diagram showing an example of an image extracted from the image 153, which is the central rear image of the vehicle 1 according to the present embodiment. FIG. 20 is an explanatory diagram showing an example of an image obtained by joining an image 151 that is a left rear image of the vehicle 1 and an image 153 that is a center rear image of the vehicle 1 according to the present embodiment.

合成部123は、図12に示される画像151のうち、曲線決定部133が決定した曲線である境界線171より紙面上左側の部分である画像151Bを切断して抜き出す(図18参照)。また、合成部123は、図13に示される画像153のうち、境界線171より紙面上右側の部分である画像153Bを切断して抜き出す(図19参照)。そして、合成部123は、所定の位置関係で配置された画像151Bと画像153Bとを接合することで、合成画像である画像155として得る。 The synthesizing unit 123 cuts and extracts an image 151B, which is a portion on the left side of the boundary line 171, which is the curve determined by the curve determination unit 133, from the image 151 shown in FIG. 12 (see FIG. 18). Further, the synthesizing unit 123 cuts and extracts an image 153B, which is a portion on the right side of the boundary line 171 on the paper surface, from the image 153 shown in FIG. 13 (see FIG. 19). Then, the synthesizer 123 obtains an image 155 that is a synthesized image by joining the image 151B and the image 153B arranged in a predetermined positional relationship.

図14に示される画像155Aと比較して、画像155では車両の歪、つまり画像の消失が抑制されている。これは、画像を合成する境界が、合成前の2つの画像における特徴点の離間距離が比較的小さい特徴点の近傍に設定されたことによる効果であるといえる。これにより、画像合成装置110は、画像合成に伴う違和感を抑制しながら画像を合成することで、違和感が抑制された自然な後方画像50(図2参照)を生成することができる。 Compared to the image 155A shown in FIG. 14, the distortion of the vehicle, that is, the disappearance of the image, is suppressed in the image 155. FIG. This can be said to be the result of setting the boundary for synthesizing the images in the vicinity of feature points with a relatively small separation distance between the feature points in the two images before synthesizing. As a result, the image synthesizing device 110 can generate a natural rear image 50 (see FIG. 2) in which the sense of discomfort is suppressed by synthesizing the images while suppressing the sense of discomfort that accompanies the image synthesis.

以降において、画像合成装置110の処理について説明する。 Hereinafter, the processing of the image composition device 110 will be described.

図21は、本実施の形態に係る画像合成装置110の処理を示すフロー図である。 FIG. 21 is a flow chart showing processing of the image synthesizing device 110 according to this embodiment.

図21に示されるように、ステップS201において、取得部121は、第一画像及び第二画像を取得する。例えば、第一画像は左側後方画像であり、第二画像は中央後方画像である。 As shown in FIG. 21, in step S201, the acquisition unit 121 acquires a first image and a second image. For example, the first image is the left rear image and the second image is the center rear image.

ステップS202において、特徴点決定部131は、第一画像及び第二画像における特徴点を決定する。 In step S202, the feature point determination unit 131 determines feature points in the first image and the second image.

ステップS203において、ペア決定部132は、ステップS202で決定した特徴点のペアを決定し、さらに、ペアのうち特徴点間の離間距離が比較的小さい近距離ペアを決定する。 In step S203, the pair determining unit 132 determines pairs of the feature points determined in step S202, and further determines short-distance pairs in which the separation distance between the feature points is relatively small among the pairs.

ステップS204において、曲線決定部133は、ステップS203で決定した特徴点の近距離ペアの近傍を通る曲線を決定する。 In step S204, the curve determining unit 133 determines a curve that passes through the vicinity of the short-range pair of feature points determined in step S203.

ステップS205において、合成部123は、ステップS204で決定した曲線を境界として第一画像及び第二画像を合成することで合成画像を生成する。 In step S205, the synthesizing unit 123 generates a synthesized image by synthesizing the first image and the second image using the curve determined in step S204 as a boundary.

ステップS206において、表示制御部124は、ステップS205で合成した合成画像を電子ミラー40に表示するよう制御する。 In step S<b>206 , the display control unit 124 controls the electronic mirror 40 to display the synthesized image synthesized in step S<b>205 .

このようにして、画像合成装置110は、画像合成に伴う違和感を抑制しながら画像を合成することができる。 In this way, the image synthesizing device 110 can synthesize images while suppressing the feeling of strangeness that accompanies image synthesis.

なお、曲線決定部133による曲線の決定は、以下のように、できるだけ多くの近距離ペアの近傍を通るようにしてもよい。 Note that the curve determination unit 133 may determine a curve through the vicinity of as many short-distance pairs as possible, as described below.

図22は、本実施の形態に係る車両1の左側後方画像である画像151と中央後方画像である画像153とを合成する境界線の別の一例を示す説明図である。 FIG. 22 is an explanatory diagram showing another example of a boundary line for synthesizing image 151, which is the left rear image, and image 153, which is the center rear image, of vehicle 1 according to the present embodiment.

図22に示される境界線171は、曲線決定部133によって、できるだけ多くの近距離ペアの近傍を通るようにして決定されたものである。このような曲線は、近距離ペアと当該曲線との離間距離がなるべく小さくなるような曲線として、公知の算出方法により決定され得る。具体的には、非線形最小二乗法により決定されるものを採用し得る。 The boundary line 171 shown in FIG. 22 is determined by the curve determination unit 133 so as to pass through the vicinity of as many short-distance pairs as possible. Such a curve can be determined by a known calculation method as a curve that minimizes the distance between the short distance pair and the curve. Specifically, one determined by a nonlinear least squares method can be adopted.

(実施の形態2の変形例)
本変形例において、画像合成装置が、実施の形態2での画像の合成の方法と、実施の形態1の画像の合成の方法とを組み合わせて実行する形態について説明する。
(Modification of Embodiment 2)
In this modified example, an image synthesizing apparatus executes a combination of the image synthesizing method of the second embodiment and the image synthesizing method of the first embodiment.

図23は、本変形例に係る画像合成装置により算出された個別ベクトルと境界線とを示す説明図である。 FIG. 23 is an explanatory diagram showing individual vectors and boundary lines calculated by the image synthesizing device according to this modification.

図23に示される境界線90Aは、実施の形態2の曲線決定部133が決定した境界線171である。本変形例に係る画像合成装置は、実施の形態1の合成部23が第一画像と第二画像とを接合するときに用いる境界線90Aとして、実施の形態2の曲線決定部133が決定した境界線171を用いる。 Boundary line 90A shown in FIG. 23 is boundary line 171 determined by curve determination unit 133 of the second embodiment. In the image synthesizing device according to the present modification, the boundary line 90A used by the synthesizing unit 23 of the first embodiment to join the first image and the second image is the Boundary 171 is used.

また、図23には、図6と同じベクトル71~78に加えて、第二算出部34により算出された個別ベクトル81~84が示されている。これらのベクトルは、図8に示されるものと同一であるが、境界線90Aを終点とするように平行移動して描かれている。 23 also shows individual vectors 81 to 84 calculated by the second calculator 34 in addition to the same vectors 71 to 78 as in FIG. These vectors are the same as those shown in FIG. 8, but are drawn with a parallel shift so as to end at boundary line 90A.

そして、実施の形態1の合成部23は、境界線90Aを境界として、個別ベクトルを用いて画素値の演算をすることによって第一画像及び第二画像を接合する。接合の方法の詳細は、実施の形態1における方法と同じであるので説明を省略する。 Then, the synthesizing unit 23 of the first embodiment joins the first image and the second image by calculating the pixel values using the individual vectors with the boundary line 90A as the boundary. The details of the bonding method are the same as those in the first embodiment, so the description is omitted.

以上のように、本実施の形態及び本変形例の画像合成装置は、第一画像と第二画像との内容に応じて定められる境界線を用いて、第一画像と第二画像とを合成する。この境界線は、同一の物が撮像された、第一画像における特徴点と、第二画像における特徴点とのペアのうち、特徴点の離間距離が比較的小さいものの近傍を通るように設定されているので、境界の近くで発生し得る画像の二重化又は消失が抑制される。その結果、画像合成装置は、画像合成に伴う違和感を抑制しながら画像を合成することができる。 As described above, the image synthesizing device according to the present embodiment and the present modified example synthesizes the first image and the second image using the boundary line determined according to the contents of the first image and the second image. do. This boundary line is set so as to pass through the vicinity of the pair of the feature points in the first image and the feature points in the second image in which the same object is imaged, and the separation distance between the feature points is relatively small. Therefore, the image doubling or loss that can occur near the border is suppressed. As a result, the image synthesizing device can synthesize images while suppressing a sense of incongruity that accompanies image synthesizing.

また、画像合成装置は、近似曲線を用いて、画像の合成に用いる境界線を決定する。よって、画像合成装置は、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 Also, the image synthesizing device uses an approximate curve to determine a boundary line to be used for synthesizing the images. Therefore, the image synthesizing device can more easily synthesize images while suppressing the sense of incongruity that accompanies image synthesis.

また、画像合成装置は、非線形最小二乗法を用いて、画像の合成に用いる境界線を決定する。よって、画像合成装置は、より具体的な構成に基づいて、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 Also, the image synthesizing device uses the nonlinear least squares method to determine the boundary line used for synthesizing the images. Therefore, based on a more specific configuration, the image synthesizing device can more easily synthesize images while suppressing the sense of incongruity that accompanies image synthesis.

また、画像合成装置は、遠距離ペアの近傍、つまり、遠距離ペアに係る第一画像の特徴点及び第二画像の特徴点の近傍、並びに、これらの特徴点を結ぶ直線の近傍を通らない境界線を設定する。よって、境界の近くで発生し得る二重化又は消失がより一層抑制される。その結果、画像合成装置は、画像合成に伴う違和感をより一層抑制しながら画像を合成することができる。 In addition, the image synthesizing device does not pass near the long-distance pair, that is, near the feature points of the first image and the second image relating to the long-distance pair, and near the straight line connecting these feature points. Set boundaries. Therefore, doubling or disappearance that can occur near the boundary is further suppressed. As a result, the image synthesizing device can synthesize images while further suppressing discomfort associated with image synthesizing.

また、画像合成装置は、車両に搭載されたカメラの位置及び向きを用いて、第一画像と第二画像とが配置される位置関係を予め定める。よって、画像合成装置は、予め定められた位置関係を用いて、より容易に、画像合成に伴う違和感を抑制しながら画像を合成することができる。 Also, the image synthesizing device determines in advance the positional relationship between the first image and the second image using the position and orientation of the camera mounted on the vehicle. Therefore, the image synthesizing device can synthesize images more easily by using a predetermined positional relationship while suppressing a sense of incompatibility that accompanies image synthesizing.

また、画像合成装置は、車両に当該された左カメラ、右カメラ及び中央カメラそれぞれにより撮像された画像を合成する。これにより、画像合成装置は、画像合成に伴う違和感を抑制しながら、車両の左側後方から中央後方を経て右側後方まで、あるいは、車両の右側後方から中央後方を経て左側後方までの広い範囲を合成した画像を合成することができる。 Also, the image synthesizing device synthesizes images captured by the left camera, the right camera, and the center camera attached to the vehicle. As a result, the image synthesizing device synthesizes a wide range from the rear left side of the vehicle to the rear right side through the rear center, or from the rear right side of the vehicle to the rear left side through the rear center while suppressing a sense of incongruity accompanying image synthesis. It is possible to synthesize images that have been

なお、本実施の形態における画像合成装置は、車両の後方画像を合成するものとして説明したが、それに限定されるものではなく、車両の前方や周囲の画像を合成するものであってもよいし、車両以外の任意の画像合成に適用してもよい。 Although the image synthesizing device according to the present embodiment has been described as synthesizing an image behind the vehicle, the present invention is not limited to this, and may be an image synthesizing image in front of or around the vehicle. , may be applied to any image composition other than a vehicle.

以上、一つまたは複数の態様に係る画像合成装置などについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。 Although the image synthesizing device and the like according to one or more aspects have been described above based on the embodiments, the present invention is not limited to these embodiments. As long as it does not deviate from the spirit of the present invention, the scope of one or more embodiments includes various modifications that can be made by those skilled in the art, and configurations constructed by combining the components of different embodiments. may be included within

本発明は、画像合成に伴う違和感を抑制しながら画像を合成する画像合成装置等に利用可能である。具体的には、車両に搭載したカメラの映像を合成して電子ミラーに表示する画像合成装置に利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used for an image synthesizing device or the like that synthesizes images while suppressing a sense of incompatibility that accompanies image synthesis. Specifically, it can be used for an image synthesizing device that synthesizes images from a camera mounted on a vehicle and displays them on an electronic mirror.

1 車両
10、110 画像合成装置
12、13、14 カメラ
21、121 取得部
22、122 決定部
23、123 合成部
24、124 表示制御部
31、131 特徴点決定部
32、132 ペア決定部
33 第一算出部
34 第二算出部
40 電子ミラー
50 後方画像
51、52、53、151、151A、151B、153、153A、153B、155、155A 画像
61、62、63、64 部分画像
62c、63c 中央画素列
66 画素列
71、72、73、74、75、76、77、78、u、v ベクトル
81、81i、81j、81k、82、83、84、w 個別ベクトル
90、90A、170、171、172 境界線
91、91i、91j、92、92i、92j、92k、93、94 画素
133 曲線決定部
161、163、164 領域
a、b、c、d、s ペア
m 中点
p、q 特徴点
p1、p2、p3、q1、q2、q3 特徴点
1 vehicle 10, 110 image synthesis device 12, 13, 14 camera 21, 121 acquisition unit 22, 122 determination unit 23, 123 synthesis unit 24, 124 display control unit 31, 131 feature point determination unit 32, 132 pair determination unit 33 First calculator 34 Second calculator 40 Electron mirror 50 Rear image 51, 52, 53, 151, 151A, 151B, 153, 153A, 153B, 155, 155A Image 61, 62, 63, 64 Partial image 62c, 63c Central pixel Column 66 Pixel Column 71, 72, 73, 74, 75, 76, 77, 78, u, v Vector 81, 81i, 81j, 81k, 82, 83, 84, w Individual Vector 90, 90A, 170, 171, 172 Boundary lines 91, 91i, 91j, 92, 92i, 92j, 92k, 93, 94 Pixels 133 Curve determination units 161, 163, 164 Regions a, b, c, d, s Pairs m Midpoints p, q Feature points p1, p2, p3, q1, q2, q3 Feature points

Claims (16)

一の対象を互いに異なる撮像条件の下で撮像した第一画像及び第二画像を取得し、取得した前記第一画像及び前記第二画像を一部が重なる所定の位置関係で配置する取得部と、
前記取得部が配置した前記第一画像における1以上の第一特徴点と、前記取得部が配置した前記第二画像における1以上の第二特徴点とを決定する特徴点決定部と、
同一の物が撮像された点である、前記1以上の第一特徴点のうちの一の第一特徴点と、前記1以上の第二特徴点のうちの一の第二特徴点とのペアを複数決定するペア決定部と、
配置された前記第一画像及び前記第二画像が第一方向に延びる分割線によって分割された複数の部分画像ごとに、当該部分画像に含まれるペアに係る一の第一特徴点から、一の第一特徴点及び一の第二特徴点の中点に至るベクトルを代表する第一代表ベクトルを算出し、前記ペアに係る一の第二特徴点から前記中点に至るベクトルを代表する第二代表ベクトルを算出する第一算出部と、
前記第一算出部が算出した前記複数の部分画像ごとの前記第一代表ベクトルを補間することで前記第一画像及び前記第二画像に含まれる画素列ごとの第一個別ベクトルを算出し、前記第一算出部が算出した前記複数の部分画像ごとの前記第二代表ベクトルを補間することで前記第一画像及び前記第二画像に含まれる画素列ごとの第二個別ベクトルを算出する第二算出部と、
前記第一画像に含まれる画素列に対し前記第一個別ベクトルを用いて画素値を演算し、前記第二画像に含まれる画素列に対し前記第二個別ベクトルを用いて画素値を演算してから、前記第一画像及び前記第二画像を合成する合成部とを備える
画像合成装置。
an acquisition unit that acquires a first image and a second image obtained by imaging one target under mutually different imaging conditions, and arranges the acquired first image and the second image in a predetermined positional relationship in which the acquired first image and the second image partially overlap; ,
a feature point determination unit that determines one or more first feature points in the first image arranged by the acquisition unit and one or more second feature points in the second image arranged by the acquisition unit;
A pair of one first feature point out of the one or more first feature points and one second feature point out of the one or more second feature points, which are points at which the same object is imaged. A pair determination unit that determines a plurality of
For each of a plurality of partial images obtained by dividing the arranged first image and the second image by a dividing line extending in the first direction, from one first feature point associated with a pair included in the partial image, one calculating a first representative vector representing a vector reaching the midpoint of the first feature point and the one second feature point; a first calculation unit that calculates a representative vector;
calculating a first individual vector for each pixel row included in the first image and the second image by interpolating the first representative vector for each of the plurality of partial images calculated by the first calculation unit; a second calculation of calculating a second individual vector for each pixel row included in the first image and the second image by interpolating the second representative vector for each of the plurality of partial images calculated by the first calculation unit; Department and
calculating a pixel value for a pixel row included in the first image using the first individual vector, and calculating a pixel value for a pixel row included in the second image using the second individual vector; , and a synthesizing unit that synthesizes the first image and the second image from.
前記第一算出部は、前記複数の部分画像ごとに、
当該部分画像に含まれる複数のペアに係る一の第一特徴点から、一の第一特徴点及び一の第二特徴点の中点に至るベクトルの中央値を前記第一代表ベクトルとして算出し、
前記ペアに係る一の第二特徴点から前記中点に至るベクトルの中央値を前記第二代表ベクトルとして算出する
請求項1に記載の画像合成装置。
The first calculation unit, for each of the plurality of partial images,
calculating, as the first representative vector, a median value of vectors from one first feature point to a midpoint between one first feature point and one second feature point relating to a plurality of pairs included in the partial image; ,
2. The image synthesizing device according to claim 1, wherein a median value of vectors from one second feature point related to said pair to said midpoint is calculated as said second representative vector.
前記第二算出部は、
前記第一画像及び前記第二画像に含まれる画素列ごとに、前記複数の部分画像それぞれの中心画素列に当該部分画像における前記第一代表ベクトルを対応付けて、線形補間によって前記第一個別ベクトルを算出し、
前記第一画像及び前記第二画像に含まれる画素列ごとに、前記複数の部分画像それぞれの中心画素列に当該部分画像における前記第二代表ベクトルを対応付けて、線形補間によって前記第二個別ベクトルを算出する
請求項1又は2に記載の画像合成装置。
The second calculation unit
for each pixel row included in the first image and the second image, the first representative vector in the partial image is associated with the center pixel row of each of the plurality of partial images, and the first individual vector is obtained by linear interpolation; to calculate
for each pixel row included in the first image and the second image, the second individual vector is obtained by linear interpolation by associating the second representative vector in the partial image with the center pixel row of each of the plurality of partial images; 3. The image synthesizing device according to claim 1 or 2, wherein .
前記第一算出部は、
前記複数の部分画像ごとの前記第一代表ベクトル及び前記第二代表ベクトルそれぞれと、当該部分画像に隣接する部分画像の前記第一代表ベクトル及び前記第二代表ベクトルそれぞれとの差分を小さくする統計処理を施し、
前記第二算出部は、
前記第一算出部による前記統計処理の後に、前記第一個別ベクトル及び前記第二個別ベクトルを算出する
請求項1~3のいずれか1項に記載の画像合成装置。
The first calculation unit
Statistical processing for reducing differences between the first representative vector and the second representative vector of each of the plurality of partial images and the first and second representative vectors of partial images adjacent to the partial image. and
The second calculation unit
The image synthesizing device according to any one of claims 1 to 3, wherein the first individual vector and the second individual vector are calculated after the statistical processing by the first calculator.
前記取得部は、互いに異なる時刻に撮像された複数の前記第一画像及び前記第二画像を取得し、
前記第一算出部は、
前記複数の部分画像ごとの前記第一代表ベクトル及び前記第二代表ベクトルそれぞれと、当該部分画像と同じ位置に位置し、当該部分画像より前に取得された部分画像の前記第一代表ベクトル及び前記第二代表ベクトルそれぞれとの差分を小さくする統計処理を施し、
前記第二算出部は、
前記第一算出部による前記統計処理の後に、前記第一個別ベクトル及び前記第二個別ベクトルを算出する
請求項1~4のいずれか1項に記載の画像合成装置。
The acquisition unit acquires a plurality of the first images and the second images captured at different times,
The first calculation unit
The first representative vector and the second representative vector for each of the plurality of partial images, and the first representative vector and the second representative vector of a partial image located at the same position as the partial image and acquired before the partial image. Statistical processing is performed to reduce the difference from each of the second representative vectors,
The second calculation unit
The image synthesizing device according to any one of claims 1 to 4, wherein the first individual vector and the second individual vector are calculated after the statistical processing by the first calculator.
前記取得部は、互いに異なる時刻に撮像された複数の前記第一画像及び前記第二画像を取得し、
前記第一算出部は、
一の時刻に撮像された前記第一画像及び前記第二画像が分割された前記複数の部分画像のうち、当該部分画像に含まれる前記ペアの数が所定以上である場合には、前記一の時刻より後の時刻に撮像された前記第一画像及び前記第二画像についての当該部分画像のサイズを小さくし、
当該部分画像に含まれる前記ペアの数が所定以下である場合には、前記一の時刻より後の時刻に撮像された前記第一画像及び前記第二画像についての当該部分画像のサイズを大きくする
請求項1~5のいずれか1項に記載の画像合成装置。
The acquisition unit acquires a plurality of the first images and the second images captured at different times,
The first calculation unit
When the number of pairs included in the partial images among the plurality of partial images obtained by dividing the first image and the second image captured at one time is a predetermined number or more, the one reducing the size of the partial images of the first image and the second image captured at a time later than the time;
When the number of pairs included in the partial image is equal to or less than a predetermined number, increasing the size of the partial images of the first image and the second image captured at a time later than the one time. The image synthesizing device according to any one of claims 1 to 5.
前記第一方向は、水平方向である
請求項1~6のいずれか1項に記載の画像合成装置。
The image synthesizing device according to any one of claims 1 to 6, wherein the first direction is a horizontal direction.
前記第二算出部は、GPU(Graphics Processing Unit)によるハードウェア処理により前記第一代表ベクトル及び前記第二代表ベクトルを算出し、
前記合成部は、前記GPUによるハードウェア処理により前記第一画像及び前記第二画像を合成する
請求項1~7のいずれか1項に記載の画像合成装置。
The second calculation unit calculates the first representative vector and the second representative vector by hardware processing by a GPU (Graphics Processing Unit),
The image synthesizing device according to any one of claims 1 to 7, wherein the synthesizing unit synthesizes the first image and the second image by hardware processing by the GPU.
前記画像合成装置は、さらに、
決定された複数の前記ペアのうち、当該ペアに係る前記一の第一特徴点と前記一の第二特徴点との離間距離が所定以下である複数の近距離ペアの近傍を通る一の曲線を決定する曲線決定部を備え、
前記合成部は、前記曲線決定部により決定された前記一の曲線を境界として、前記第一画像及び前記第二画像を合成する
請求項1~8のいずれか1項に記載の画像合成装置。
The image synthesizing device further comprises:
One curve passing through the vicinity of a plurality of short-distance pairs in which the separation distance between the one first feature point and the one second feature point of the pair is equal to or less than a predetermined distance among the determined pairs. A curve determination unit for determining
The image synthesizing device according to any one of claims 1 to 8, wherein the synthesizing unit synthesizes the first image and the second image using the one curve determined by the curve determining unit as a boundary.
前記曲線決定部は、決定された前記複数の近距離ペアの近傍を通る一の近似曲線を、前記一の曲線として決定する
請求項9に記載の画像合成装置。
10. The image synthesizing device according to claim 9, wherein the curve determining unit determines, as the one curve, one approximated curve that passes through the vicinity of the plurality of determined short distance pairs.
前記曲線決定部は、非線形最小二乗法により前記一の曲線を決定する
請求項10に記載の画像合成装置。
11. The image synthesizing device according to claim 10, wherein the curve determination unit determines the one curve by a nonlinear least-squares method.
前記曲線決定部は、決定された複数の前記ペアのうち、当該ペアに係る前記一の第一特徴点と前記一の第二特徴点との離間距離が所定以上である複数の遠距離ペアの近傍を通らない前記一の曲線を決定する
請求項9~11のいずれか1項に記載の画像合成装置。
The curve determination unit selects a plurality of long-distance pairs in which a separation distance between the one first feature point and the one second feature point of the pair is equal to or greater than a predetermined distance among the determined pairs. The image synthesizing device according to any one of claims 9 to 11, wherein said one curve that does not pass through a neighborhood is determined.
前記第一画像及び前記第二画像は、一の車両に固定された2つのカメラにより同時に撮像された画像であり、
前記所定の位置関係は、前記2つのカメラの位置及び向きに応じて予め定められた位置関係である
請求項1~12のいずれか1項に記載の画像合成装置。
The first image and the second image are images captured simultaneously by two cameras fixed to one vehicle,
The image synthesizing device according to any one of claims 1 to 12, wherein the predetermined positional relationship is a positional relationship predetermined according to the positions and orientations of the two cameras.
前記画像合成装置は、
(a)一の車両の左側の後方を映す左カメラにより撮像された左後方画像と、
(b)前記一の車両の右側の後方を映す右カメラにより撮像された右後方画像と、
(c)前記一の車両の中央の後方を映す中央カメラにより撮像された中央後方画像と、
を取得し、
前記左後方画像と前記右後方画像との一方、及び、前記中央後方画像を、それぞれ、前記第一画像及び前記第二画像として前記取得部により取得し、前記特徴点決定部及び前記ペア決定部それぞれによる決定と、前記第一算出部及び前記第二算出部それぞれによる算出とを行い、前記合成部による合成により第三画像を生成し、
前記第三画像、及び、前記左後方画像と前記右後方画像との他方を、それぞれ、前記第一画像及び前記第二画像として前記取得部により取得し、前記特徴点決定部及び前記ペア決定部それぞれによる決定と、前記第一算出部及び前記第二算出部それぞれによる算出とを行い、前記合成部による合成により第四画像を生成する
請求項1~9のいずれか1項に記載の画像合成装置。
The image synthesizing device,
(a) a left rear image captured by a left camera that reflects the left rear of one vehicle;
(b) a right rear image captured by a right camera that reflects the right rear of the one vehicle;
(c) a central rear image captured by a central camera that reflects the central rear of the one vehicle;
and get
One of the left rear image and the right rear image and the central rear image are acquired by the acquisition unit as the first image and the second image, respectively, and the feature point determination unit and the pair determination unit determination by each, calculation by each of the first calculation unit and the second calculation unit, and generation of a third image by synthesis by the synthesis unit;
obtaining the third image and the other of the left rear image and the right rear image as the first image and the second image, respectively, and obtaining the feature point determination unit and the pair determination unit; The image composition according to any one of claims 1 to 9, wherein determination by each and calculation by each of the first calculation unit and the second calculation unit are performed, and a fourth image is generated by synthesis by the synthesis unit. Device.
画像合成装置の制御方法であって、
一の対象を互いに異なる撮像条件の下で撮像した第一画像及び第二画像を取得し、取得した前記第一画像及び前記第二画像を一部が重なる所定の位置関係で配置する取得ステップと、
前記取得ステップで配置した前記第一画像における1以上の第一特徴点と、前記取得ステップで配置した前記第二画像における1以上の第二特徴点とを決定する特徴点決定ステップと、
同一の物が撮像された点である、前記1以上の第一特徴点のうちの一の第一特徴点と、前記1以上の第二特徴点のうちの一の第二特徴点とのペアを複数決定するペア決定ステップと、
配置された前記第一画像及び前記第二画像が第一方向に延びる分割線によって分割された複数の部分画像ごとに、当該部分画像に含まれるペアに係る一の第一特徴点から、一の第一特徴点及び一の第二特徴点の中点に至るベクトルを代表する第一代表ベクトルを算出し、前記ペアに係る一の第二特徴点から前記中点に至るベクトルを代表する第二代表ベクトルを算出する第一算出ステップと、
前記第一算出ステップで算出した前記複数の部分画像ごとの前記第一代表ベクトルを補間することで前記第一画像及び前記第二画像に含まれる画素列ごとの第一個別ベクトルを算出し、前記第一算出ステップで算出した前記複数の部分画像ごとの前記第二代表ベクトルを補間することで前記第一画像及び前記第二画像に含まれる画素列ごとの第二個別ベクトルを算出する第二算出ステップと、
前記第一画像に含まれる画素列に対し前記第一個別ベクトルを用いて画素値を演算し、前記第二画像に含まれる画素列に対し前記第二個別ベクトルを用いて画素値を演算してから、前記第一画像及び前記第二画像を合成する合成ステップとを含む
制御方法。
A control method for an image synthesizer, comprising:
an acquisition step of acquiring a first image and a second image obtained by imaging one target under mutually different imaging conditions, and arranging the acquired first image and the second image in a predetermined positional relationship in which a portion of the acquired first image and the second image overlap; ,
A feature point determination step of determining one or more first feature points in the first image arranged in the obtaining step and one or more second feature points in the second image arranged in the obtaining step;
A pair of one first feature point out of the one or more first feature points and one second feature point out of the one or more second feature points, which are points at which the same object is imaged. a pair determination step of determining a plurality of
For each of a plurality of partial images obtained by dividing the arranged first image and the second image by a dividing line extending in the first direction, from one first feature point associated with a pair included in the partial image, one calculating a first representative vector representing a vector reaching the midpoint of the first feature point and the one second feature point; a first calculation step of calculating a representative vector;
calculating a first individual vector for each pixel row included in the first image and the second image by interpolating the first representative vector for each of the plurality of partial images calculated in the first calculation step; a second calculation of calculating a second individual vector for each pixel row included in the first image and the second image by interpolating the second representative vector for each of the plurality of partial images calculated in the first calculation step; a step;
calculating a pixel value for a pixel row included in the first image using the first individual vector, and calculating a pixel value for a pixel row included in the second image using the second individual vector; a combining step of combining said first image and said second image from.
前記制御方法は、さらに、
決定された複数の前記ペアのうち、当該ペアに係る前記一の第一特徴点と前記一の第二特徴点との離間距離が所定以下である複数の近距離ペアの近傍を通る一の曲線を決定する曲線決定ステップを含み、
前記合成ステップでは、前記曲線決定ステップにより決定された前記一の曲線を境界として、前記第一画像及び前記第二画像を合成する
請求項15に記載の制御方法。
The control method further comprises:
A curve passing through the vicinity of a plurality of short-distance pairs in which the distance between the one first feature point and the one second feature point of the pair is equal to or less than a predetermined distance among the determined pairs. a curve determination step of determining
16. The control method according to claim 15 , wherein in the synthesizing step, the first image and the second image are synthesized using the one curve determined by the curve determining step as a boundary.
JP2018160826A 2018-02-27 2018-08-29 Image synthesizing device and control method Active JP7108855B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019104397.2A DE102019104397B4 (en) 2018-02-27 2019-02-21 Image synthesis apparatus and control method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018033834 2018-02-27
JP2018033740 2018-02-27
JP2018033834 2018-02-27
JP2018033740 2018-02-27

Publications (2)

Publication Number Publication Date
JP2019149143A JP2019149143A (en) 2019-09-05
JP7108855B2 true JP7108855B2 (en) 2022-07-29

Family

ID=67850662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018160826A Active JP7108855B2 (en) 2018-02-27 2018-08-29 Image synthesizing device and control method

Country Status (1)

Country Link
JP (1) JP7108855B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7558950B2 (en) 2019-08-15 2024-10-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Transmitting device, receiving device, transmitting method, receiving method, and integrated circuit
CN110719411B (en) * 2019-12-16 2020-04-03 长沙智能驾驶研究院有限公司 Panoramic all-around view image generation method of vehicle and related equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006121587A (en) 2004-10-25 2006-05-11 Nissan Motor Co Ltd Operation supporting device and bird's-eye view creation method
JP2014086076A (en) 2012-10-23 2014-05-12 Avisonic Technology Corp Dynamic image processing method and system for processing vehicle image
WO2014178234A1 (en) 2013-04-30 2014-11-06 ソニー株式会社 Image processing device, image processing method and program
JP2017085296A (en) 2015-10-26 2017-05-18 日本電気株式会社 Network monitoring device, method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006121587A (en) 2004-10-25 2006-05-11 Nissan Motor Co Ltd Operation supporting device and bird's-eye view creation method
JP2014086076A (en) 2012-10-23 2014-05-12 Avisonic Technology Corp Dynamic image processing method and system for processing vehicle image
WO2014178234A1 (en) 2013-04-30 2014-11-06 ソニー株式会社 Image processing device, image processing method and program
JP2017085296A (en) 2015-10-26 2017-05-18 日本電気株式会社 Network monitoring device, method, and program

Also Published As

Publication number Publication date
JP2019149143A (en) 2019-09-05

Similar Documents

Publication Publication Date Title
US9050931B2 (en) Vehicle periphery monitoring system
JP5049300B2 (en) Obstacle detection display
JP6371553B2 (en) Video display device and video display system
US6184781B1 (en) Rear looking vision system
WO2014069471A1 (en) Image processing system and image processing method
WO2012096058A1 (en) Image generating device
JP5853457B2 (en) Vehicle perimeter monitoring system
WO2020218024A1 (en) Panoramic video image synthesis device, panoramic video image synthesis method, and panoramic video image synthesis program
JP4830380B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP5225313B2 (en) Image generating apparatus, image generating method, and program
KR20090109437A (en) Method and System for Image Matching While Driving Vehicle
JP7108855B2 (en) Image synthesizing device and control method
JP2012257107A (en) Image generating device
JP5516997B2 (en) Image generation device
JP2005311666A (en) Device for visually confirming periphery of vehicle
JP7081265B2 (en) Image processing equipment
JP2020052671A (en) Display control device, vehicle, and display control method
JP6293089B2 (en) Rear monitor
JP7029350B2 (en) Image processing device and image processing method
JP2013115738A (en) Vehicle periphery imaging apparatus and method of processing vehicle peripheral image
JP6785480B2 (en) Image synthesizer and control method
JP2019159840A (en) Image synthesizing apparatus and image synthesizing method
US12080075B2 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings
JP7398637B2 (en) Display control device, vehicle and display control method
JP2017117357A (en) Three-dimensional object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220415

R151 Written notification of patent or utility model registration

Ref document number: 7108855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350