JP2018142963A - Image processing system, image processing device, and image processing method - Google Patents
Image processing system, image processing device, and image processing method Download PDFInfo
- Publication number
- JP2018142963A JP2018142963A JP2018060585A JP2018060585A JP2018142963A JP 2018142963 A JP2018142963 A JP 2018142963A JP 2018060585 A JP2018060585 A JP 2018060585A JP 2018060585 A JP2018060585 A JP 2018060585A JP 2018142963 A JP2018142963 A JP 2018142963A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- cameras
- shadow
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 10
- 239000002131 composite material Substances 0.000 claims abstract description 58
- 238000003384 imaging method Methods 0.000 claims abstract description 39
- 239000000203 mixture Substances 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims description 37
- 230000002159 abnormal effect Effects 0.000 claims description 23
- 230000015572 biosynthetic process Effects 0.000 claims description 14
- 238000003786 synthesis reaction Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 14
- 230000005856 abnormality Effects 0.000 description 10
- 238000009825 accumulation Methods 0.000 description 7
- 230000010365 information processing Effects 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
Images
Abstract
Description
本発明は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理システム、画像処理装置および画像処理方法に関するものである。 The present invention performs image composition processing on a plurality of captured images acquired from a plurality of cameras arranged so that the imaging areas partially overlap between adjacent cameras, and outputs a panorama composite image to a display unit The present invention relates to a system, an image processing apparatus, and an image processing method.
複数のカメラにより撮像された画像を合成して1つの合成画像(パノラマ画像)を生成する、いわゆるスティッチング処理を行うことで、1台のカメラでは得ることができない広角画像をシームレスな状態で生成することができる。このようなスティッチング処理では、隣り合う2つのカメラを、各々の撮像エリアが一部重複するように配置して、2つのカメラの撮像エリアの重複部分に対応する境界部の画像領域を重ね合わせ、また、適宜にトリミングを行って画像を合成する。 A wide-angle image that cannot be obtained with a single camera can be generated seamlessly by performing a so-called stitching process that combines images captured by multiple cameras to generate a single composite image (panoramic image). can do. In such stitching processing, two adjacent cameras are arranged so that the respective imaging areas partially overlap, and the image areas at the boundary portions corresponding to the overlapping portions of the imaging areas of the two cameras are overlapped. In addition, the image is synthesized by appropriately trimming.
一方、2つのカメラの撮像エリアの重複部分に、カメラからの距離が大きく異なる被写体が存在する、すなわち、遠景となる被写体と近影となる被写体とが存在すると、2つのカメラの各撮像画像の間には、遠景となる被写体の像と近影となる被写体の像との位置関係がずれた状態、いわゆる視差が発生し、合成画像に、近影の像が2重に現れたり、近影の像の一部が消失したりする不具合が発生する。そこで、スティッチングでは、視差に起因する画像の不具合を抑制する視差補正が行われる。 On the other hand, if there is a subject whose distance from the camera is significantly different in the overlapping area of the imaging areas of the two cameras, that is, if there is a subject that is a distant view and a subject that is a close-up view, between the captured images of the two cameras In this case, the positional relationship between the image of the subject in the distant view and the image of the subject in the close shadow is shifted, so-called parallax occurs, and the close-up image appears twice in the composite image, or one of the close-up images. The trouble that a part disappears occurs. Thus, in stitching, parallax correction is performed to suppress image defects caused by parallax.
このような視差補正に関するものとして、従来、エッジや特徴量に基づくブロックマッチングにより、2つのカメラの各撮像画像に現れる被写体の像の位置関係を取得して、この情報に基づいて画像を変形させる視差補正を行う技術が知られている(特許文献1参照)。特にこの技術では、視差補正時の画像の変形度合いを規定するスティッチングポイントをフレームごとに変化させて、フレームごとに適切な合成画像を生成するようにしている。 As for such parallax correction, conventionally, the positional relationship between the images of the subjects appearing in the captured images of the two cameras is obtained by block matching based on edges and feature amounts, and the image is deformed based on this information. A technique for performing parallax correction is known (see Patent Document 1). In particular, in this technique, a stitching point that defines the degree of deformation of an image at the time of parallax correction is changed for each frame, and an appropriate composite image is generated for each frame.
また、人物など近景の像が現れている画像領域、すなわちコスト関数が高い画像領域を回避するように、2つの画像に対して屈曲したスティッチング境界を設定し、このスティッチング境界に沿って2つの画像を切り出すトリミングを行った上で画像合成する技術が知られている(特許文献2参照)。特にこの技術では、フレームの連続性を考慮してスティッチング境界の最適化を行うようにしており、これにより時間的に安定したスティッチング境界を設定することができるため、動画で表示する際に、画像に現れる被写体の像に不自然な動きが発生することを避けることができる。 Further, a bent stitching boundary is set with respect to the two images so as to avoid an image region in which a near-field image such as a person appears, that is, an image region having a high cost function, and 2 along the stitching boundary. A technique for synthesizing images after performing trimming to cut out two images is known (see Patent Document 2). In particular, in this technology, the stitching boundary is optimized in consideration of the continuity of the frame, and this enables the setting of a stable stitching boundary in terms of time. Therefore, it is possible to avoid an unnatural movement in the image of the subject appearing in the image.
本発明は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、隣接するカメラ同士で撮像エリアが一部重複するよう複数のカメラを配置して、複数のカメラから取得した複数の撮像画像に対して画像合成を行って合成画像を出力する場合に、撮像エリアの重複部分に対応する境界部の画像領域に近影の像と遠景の像とが現れる状態でも、適切な合成画像を生成することができるように構成された画像処理システム、画像処理装置および画像処理方法を提供することにある。 The present invention has been devised to solve such problems of the prior art, and its main purpose is to arrange a plurality of cameras so that the imaging areas partially overlap between adjacent cameras. When a plurality of captured images acquired from a plurality of cameras are combined to output a combined image, a near-shadow image and a distant view image are displayed in the boundary image region corresponding to the overlapping portion of the imaging area. An object of the present invention is to provide an image processing system, an image processing apparatus, and an image processing method configured to generate an appropriate composite image even when it appears.
本発明の画像処理システムは、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラと、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置と、を備える画像処理システムであって、前記画像処理装置は、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。 An image processing system according to the present invention performs panorama processing by performing image synthesis processing on a plurality of cameras arranged so that imaging areas partially overlap between adjacent cameras and a plurality of captured images acquired from the plurality of cameras. An image processing system comprising: an image processing device that outputs a composite image to a display unit, wherein the image processing device is based on an image of a distant view that appears in an image area at a boundary corresponding to an overlapping portion of the imaging area. In the state where the captured images of the adjacent cameras are combined and a near-shadow image and the distant view image appear in the image area of the boundary portion, the near-shadow image is obtained for each of the captured images of the adjacent cameras. The image in the image area where the image appears is deformed to compose the image.
また、本発明の画像処理装置は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置であって、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。 In addition, the image processing apparatus of the present invention displays a panoramic composite image by performing image composition processing on a plurality of captured images acquired from a plurality of cameras arranged so that the imaging areas partially overlap between adjacent cameras. An image processing apparatus that outputs to the image processing unit, and combines the captured images of the adjacent cameras based on a distant view image that appears in the image area of the boundary corresponding to the overlapping portion of the imaging area, and the image of the boundary In a state where a near-shadow image and a distant view image appear in a region, an image in the image region where the near-shadow image appears is deformed and combined with each of the captured images of the adjacent cameras.
また、本発明の画像処理方法は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理方法であって、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。 Further, the image processing method of the present invention displays a panorama composite image by performing image composition processing on a plurality of captured images acquired from a plurality of cameras arranged so that the imaging areas partially overlap between adjacent cameras. An image processing method for outputting to an image capturing section, wherein the captured image of the adjacent camera is synthesized with reference to a distant view image appearing in an image area of the boundary corresponding to the overlapping portion of the image capturing area, and the image of the boundary In a state where a near-shadow image and a distant view image appear in a region, an image in the image region where the near-shadow image appears is deformed and combined with each of the captured images of the adjacent cameras.
本発明によれば、隣接するカメラ同士で撮像エリアが一部重複するよう複数のカメラを配置して、複数のカメラから取得した複数の撮像画像に対して画像合成を行って合成画像を出力する場合に、撮像エリアの重複部分に対応する境界部の画像領域に近影の像と遠景の像とが現れる状態でも、適切な合成画像を生成することができる。 According to the present invention, a plurality of cameras are arranged so that imaging areas partially overlap between adjacent cameras, and a composite image is output by performing image composition on a plurality of captured images acquired from the plurality of cameras. In this case, an appropriate composite image can be generated even in a state in which a near-shadow image and a distant view image appear in the image area at the boundary portion corresponding to the overlapping portion of the imaging area.
前記課題を解決するためになされた第1の発明は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラと、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置と、を備える画像処理システムであって、前記画像処理装置は、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。 1st invention made | formed in order to solve the said subject is with respect to the some captured image acquired from the several camera arrange | positioned so that an imaging area may partially overlap between adjacent cameras, and the said several camera An image processing system that performs an image synthesis process and outputs a panorama composite image to a display unit, wherein the image processing apparatus applies an image area to a boundary portion corresponding to an overlapping portion of the imaging area. The captured image of the adjacent camera is synthesized based on the image of the distant view that appears, and in the state where the near-shadow image and the distant view image appear in the image area of the boundary portion, On the other hand, the image in the image area in which the near-shadow image appears is deformed to compose the image.
これによると、隣接するカメラ同士で撮像エリアが一部重複するよう複数のカメラを配置して、複数のカメラから取得した複数の撮像画像に対して画像合成を行って合成画像を出力する場合に、撮像エリアの重複部分に対応する境界部の画像領域に近影の像と遠景の像とが現れる状態でも、適切な合成画像を生成することができる。 According to this, when a plurality of cameras are arranged so that imaging areas partially overlap between adjacent cameras, and a composite image is output by performing image composition on a plurality of captured images acquired from the plurality of cameras. An appropriate composite image can be generated even in the state in which a near-shadow image and a distant view image appear in the image area at the boundary corresponding to the overlapping portion of the imaging area.
また、第2の発明は、前記画像処理装置は、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を横方向にずらすように変形させて画像合成する構成とする。 According to a second aspect of the present invention, in the state in which the near-shadow image and the distant view image appear in the image area of the boundary portion, the image processing apparatus applies the near-shadow to each of the captured images of the adjacent cameras. The image in the image area where the image appears is deformed so as to be shifted in the horizontal direction, and the image is synthesized.
また、第3の発明は、前記画像処理装置は、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記境界部の画像領域に近影の像と前記遠景の像との位置関係が整合するように、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。 According to a third aspect of the present invention, in the state in which the near-shadow image and the distant view image appear in the boundary image area, the image processing apparatus has a close-shadow image and the distant view image in the boundary image area. So that the images in the image areas where the near-shadow images appear are deformed with respect to each of the images taken by the adjacent cameras so as to match the positional relationship.
また、第4の発明は、前記画像処理装置は、前記境界部の画像領域に前記近影の像がない状態で求められる前記遠景の像の位置関係を基準として前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記遠景の像と前記近影の像との位置関係のずれを補正するように、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。 According to a fourth aspect of the present invention, the image processing device synthesizes the captured images of the adjacent cameras based on the positional relationship of the distant view image obtained in a state where there is no near-shadow image in the boundary image area. In the state where the near-shadow image and the distant view image appear in the image area of the boundary portion, the image pickup by the adjacent camera is performed so as to correct the positional relationship between the distant view image and the close-view image. For each of the images, an image in an image region where the close-shadow image appears is deformed and image composition is performed.
また、第5の発明は、前記画像処理装置は、前記近影の像がない状態で前記遠景の像の位置関係を予め求めて、前記隣接するカメラの撮像画像を合成する構成とする。 According to a fifth aspect of the present invention, the image processing apparatus obtains a positional relationship between the distant view images in the absence of the near-shadow image and combines the captured images of the adjacent cameras.
また、第6の発明は、前記画像処理装置は、前記画像合成をフレームごとに行って前記表示部に動画で表示し、前記境界部の画像領域において前記近影の像が変化する場合、前記隣接するカメラの各撮像エリアの重複部分を前記近影の像が横切って移動する場合又は前記境界部の画像領域において前記近影の像が現れている状態から前記近影の像がなくなって前記遠景の像のみとなる状態に変化する場合には、前記境界部の画像領域における画像の変形を段階的に行う構成とする。 According to a sixth aspect of the present invention, when the image processing device performs the image composition for each frame and displays the image on the display unit as a moving image, and the near-shadow image changes in the image area of the boundary, the adjacent When the near-shadow image moves across the overlapping part of each imaging area of the camera or when the near-shadow image disappears from the state in which the near-shadow image appears in the boundary image area, only the far-field image When the state changes to the state, the image in the image area at the boundary is deformed step by step.
また、第7の発明は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置であって、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。 In addition, according to a seventh aspect of the present invention, image synthesis processing is performed on a plurality of captured images acquired from a plurality of cameras arranged so that imaging areas partially overlap between adjacent cameras, and a panoramic composite image is displayed on the display unit. An image processing device for outputting, wherein a captured image of the adjacent camera is synthesized with reference to an image of a distant view that appears in an image area of a boundary corresponding to an overlapping portion of the imaging area, and the image area of the boundary is In a state in which a near-shadow image and a distant view image appear, an image region image in which the near-shadow image appears is deformed with respect to each of the captured images of the adjacent cameras to perform image composition.
また、第8の発明は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理方法であって、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。 Further, according to an eighth aspect of the present invention, image synthesis processing is performed on a plurality of captured images acquired from a plurality of cameras arranged so that imaging areas are partially overlapped between adjacent cameras, and a panoramic composite image is displayed on the display unit. An image processing method for outputting, wherein a captured image of the adjacent camera is synthesized based on an image of a distant view that appears in an image area of a boundary corresponding to an overlapping portion of the imaging area, and the image area of the boundary is In a state in which a near-shadow image and a distant view image appear, an image region image in which the near-shadow image appears is deformed with respect to each of the captured images of the adjacent cameras to perform image composition.
以下、本発明の実施の形態を、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1実施形態)
図1は、第1実施形態に係る画像処理システムを示す全体構成図である。図2は、図1に示した画像処理装置3で生成されて表示装置4で表示される合成画像を示す説明図である。
(First embodiment)
FIG. 1 is an overall configuration diagram showing an image processing system according to the first embodiment. FIG. 2 is an explanatory diagram showing a composite image generated by the
本画像処理システムは、図1に示すように、第1〜第7のカメラ1a〜1gを有するカメラユニット2と、画像処理装置3と、表示装置4と、を備えている。
As shown in FIG. 1, the image processing system includes a
カメラ1a〜1gは、広角な画角(例えば120°)を有し、第1〜第6のカメラ1a〜1fは、光軸が略水平方向の放射状となるように周方向に等間隔をおいて配置され、第7のカメラ1gは、光軸が略垂直方向上向きとなるように配置されている。カメラ1a〜1gは、隣り合う2つのカメラ1a〜1g同士で撮像エリアが一部重複するように配置されている。
The
画像処理装置3では、図2に示すように、第1〜第7のカメラ1a〜1gにより撮像された撮像画像を合成して1つの合成画像(パノラマ画像)を生成する処理(スティッチング)がフレームごとに行われ、このフレームごとの合成画像が表示装置4に出力されて、表示装置4に合成画像が動画で表示される。
As shown in FIG. 2, the
次に、図1に示した画像処理装置3で行われる視差補正について説明する。図3は、視差補正を実施しない場合および視差補正を実施した場合の画像の状態を模式的に示す説明図である。図4は、視差補正を実施しない場合および視差補正を実施した場合の画像の実際の状態を示す説明図である。なお、ここでは、説明の便宜上、隣り合う2つのカメラ1a,1bの画像を処理する例を示す。
Next, parallax correction performed by the
図3(A)は、隣り合う2つのカメラ1a,1bによる撮像状況を示している。この図3(A)に示す例では、人物とその背景となる山とが2つのカメラ1a,1bにより同時に撮像される。
FIG. 3A shows an imaging state by two
図3(B−1),(B−2)は、2つのカメラ1a,1bによる撮像画像を示している。この図3(B−1),(B−2)に示すように、2つのカメラ1a,1bによる撮像画像には、2つのカメラ1a,1bの撮像エリアの重複部分に対応する境界部の画像領域に、山を表す遠景の像と人物を表す近影の像とが現れる。ここで、遠景となる山と近影となる人物とでは、カメラ1a,1bからの距離が大きく異なり、2つの撮像画像では、遠景の像と近影の像との位置関係がずれた状態となる。
3 (B-1) and (B-2) show images captured by the two
図3(C−1),(C−2)は、2つのカメラ1a,1bによる撮像画像に対して遠景の像を基準にした単純合成を行って得られた合成画像を示している。前記のように、2つの撮像画像では遠景の像と近影の像との位置関係がずれているため、遠景の像を基準にして2つの撮像画像を単純に合成すると、図3(C−1),(C−2)に示すように、合成画像に、近影の像が2重に現れたり、近影の像の一部が消失したりする不具合が発生する。
FIGS. 3C-1 and 3C-2 show synthesized images obtained by performing simple synthesis on the images taken by the two
ここで、遠景の像を基準にしたときの近影の像のずれは、2つのカメラ1a,1bの各撮像画像の間の視差を表している。2つのカメラ1a,1bにそれぞれ現れる遠景の像の位置関係は、近影がない状態で予め求めておくことができ、この情報に基づいて画像合成が行われる。したがって、近影の像がない状態では2つのカメラ1a,1bの撮像画像には視差は存在せず、近影の像が現れると、2つのカメラ1a,1bの撮像画像間に視差が発生する。
Here, the shift of the near-shadow image when the distant view image is used as a reference represents the parallax between the captured images of the two
このように、2つのカメラ1a,1bの撮像画像における境界部の画像領域に遠景の像と近影の像とが現れる状態では、2つの撮像画像間に発生する視差が原因で、合成画像に近影の像が2重に現れるなどの不具合が発生する。そこで、この不具合を解消するための視差補正が必要となり、この視差補正には代表的には2種類の補正方式がある。図3(C−3)は、第1の補正方式による場合であり、図3(C−4)は、第2の補正方式による場合である。
In this way, in a state where a distant view image and a close-up image appear in the image area at the boundary between the picked-up images of the two
図3(C−3)に示すように、第1の補正方式は、2つのカメラ1a,1bの撮像画像の間で遠景の像と近影の像との位置関係が整合するように、2つのカメラ1a,1bの撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行った上で画像合成するものである。
As shown in FIG. 3 (C-3), the first correction method uses two images so that the positional relationship between the distant view image and the close-up image matches between the captured images of the two
図3(C−4)に示すように、第2の補正方式は、近影の像が現れる画像領域を避けるように屈曲したスティッチング境界を設定し、このスティッチング境界に沿って2つのカメラ1a,1bの撮像画像を切り出すトリミングを行った上で画像合成するものである。
As shown in FIG. 3 (C-4), the second correction method sets a stitching boundary that is bent so as to avoid an image region in which a near-shadow image appears, and two
図4(A−1)は、視差補正を実施しない単純合成による合成画像を示し、図4(A−2)は、視差補正を実施した合成画像を示している。図4(B−1),(B−2)はそれぞれ、図4(A−1),(A−2)に示した合成画像における近景の像の周辺部を拡大して示している。 FIG. 4A-1 shows a composite image by simple synthesis without performing parallax correction, and FIG. 4A-2 shows a composite image with parallax correction performed. FIGS. 4B-1 and 4B-2 show enlarged peripheral portions of the foreground image in the composite image shown in FIGS. 4A-1 and 4A-2, respectively.
図4(A−1),(B−1)に示すように、視差補正を実施しない単純合成では、合成画像に、近影の像の一部が消失したり、近影の像が2重に現れたりする不具合が発生しているが、図4(A−2),(B−2)に示すように、視差補正を実施すると、単純合成のような不具合が改善され、適切な画像を生成することができる。 As shown in FIGS. 4 (A-1) and (B-1), in simple composition without parallax correction, a part of the near-shadow image disappears or the near-shadow image appears twice in the composite image. However, when parallax correction is performed as shown in FIGS. 4A-2 and 4B-2, a problem such as simple composition is improved and an appropriate image is generated. be able to.
このように視差補正を行うことで適切な画像を生成することができ、本実施形態では、第1の補正方式、すなわち、2つのカメラ1a,1bの撮像画像の間で遠景の像と近影の像との位置関係が整合するように、2つのカメラ1a,1bの撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行う。
By performing parallax correction in this way, an appropriate image can be generated. In the present embodiment, the first correction method, that is, the image of the distant view and the near-shadow between the captured images of the two
ここで、人物などの近影の像は、その背景となる山などの遠景の像とは異なり、短時間に大きく変化する場合があり、この近影の像の変化により2つの撮像画像間の視差が短時間で大きく異なる状態になると、視差補正時の画像の変形度合いを規定する視差補正量が急激に変化して、フレーム間で顕著な画像変化が発生し、合成画像を動画で表示する際に、画像に現れる被写体の像に不自然な動きが生じて見る人に違和感を与える。 Here, unlike a distant view image such as a mountain as a background, a near-shadow image such as a person may change greatly in a short time, and due to this change in the near-shadow image, the parallax between two captured images varies. When the state becomes significantly different in a short time, the amount of parallax correction that defines the degree of image deformation at the time of parallax correction changes abruptly, causing significant image changes between frames, and when displaying a composite image as a moving image Unnatural movement occurs in the image of the subject appearing in the image, giving the viewer a sense of incongruity.
例えば、2つのカメラ1a,1bの各撮像エリアの重複部分を近景となる人物が横切るように移動すると、2つのカメラ1a,1bの撮像画像における境界部の画像領域は、近影の像が現れている状態から近影の像がなくなって遠景の像のみとなる状態に変化し、このとき、近影の像の有無に応じて境界部の画像領域の奥行き、すなわち、境界部の画像領域に現れる被写体までの距離が急激に変化する。このように境界部の画像領域の奥行きが急激に変化すると、これに応じて視差補正量も急激に変化し、視差補正時の画像変形も急激なものとなる。
For example, when a person in the foreground moves across an overlapping portion of the imaging areas of the two
特に、画像を見る人にとっては近影の像が重要となることから、近影の像に注目して、近影の像に不具合が生じないように近影の像を優先させた処理を行うと、近影の像が現れている状態では、遠景の像は、実際の形状とは多少異なるものとなる。このため、2つのカメラ1a,1bの各撮像エリアの重複部分を人物が横切る場合のように、近影の像が現れている状態から近影の像がなくなって遠景の像のみとなる状態に変化して、視差補正量が急激に変化すると、遠景の像に大きな変化が現れ、例えば変化することがない山の像が変化するようになり、見る人に大きな違和感を与える。
In particular, for the person who sees the image, the near-shadow image is important, so if you focus on the near-shadow image and perform processing that prioritizes the near-shadow image so that there is no problem with the near-shadow image, In the state where the image appears, the distant view image is slightly different from the actual shape. For this reason, as in the case where a person crosses the overlapping part of the imaging areas of the two
そこで、本実施形態では、第1の補正方式による視差補正、すなわち、2つのカメラ1a,1bの撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行う際に、2つのカメラ1a,1bの撮像画像間の視差から求められた視差補正量にフィルタを適用して、視差補正量に対して時間的な変化量を制限する処理を実施するようにする。これにより、視差補正時の急激な画像変形を抑え、視差補正による画像変形を目立ちにくくして、合成画像を動画で表示する際に見る人に違和感を与えることがないようにする。
Therefore, in the present embodiment, the parallax correction by the first correction method, that is, the image is deformed so that the image region in which the near-shadow image mainly appears is shifted in the horizontal direction with respect to the captured images of the two
次に、図1に示した画像処理装置3で行われる処理について説明する。図5は、画像処理装置3の概略構成を示す機能ブロック図である。図6は、画像処理装置3で行われる処理の概要を説明する説明図である。
Next, processing performed by the
画像処理装置3は、視差補正量算出部11と、フィルタ12と、視差補正量蓄積部13と、パノラマ画像生成部14と、視差補正部15と、画像合成部16と、を備えている。
The
なお、ここでは、2つのカメラ1a.1bの撮像画像を処理する部分のみを示しているが、図1に示したように、本実施形態では、7つのカメラ1a〜1gが設けられており、視差補正量算出部11およびフィルタ12は、隣り合う2つのカメラ1a〜1gの組み合わせごとに設けられ、また、パノラマ画像生成部14および視差補正部15はカメラ1a〜1gごとに設けられる。
Here, two
視差補正量算出部11では、視差補正時の画像の変形度合いを規定する視差補正量をフレームごとに算出する処理が行われる。具体的には、図6に示すように、平行化(円柱への投影)、処理領域切り出し、および視差算出の各処理が行われる。視差算出処理では、2つの撮像画像間のブロックマッチングにより視差(ずれ量)を算出する。すなわち、2つの撮像画像を少しずつずらしながら2つの撮像画像間の差分を算出し、その差分が最も小さくなる位置関係から視差を求める。ここで、撮像画像に近影の像が現れる場合には、通常、近影の像が大きな面積を占めていることから、近影の像がブロックマッチングの結果に大きく影響し、ブロックマッチングにより得られる画像のずれは、近影の像のずれとなる。
The parallax correction
フィルタ12では、視差補正量算出部11から出力される視差補正量に対して時間的な変化量を制限する処理が行われる。本実施形態では、視差補正量蓄積部13に、フィルタ12から出力される視差補正量が蓄積され、フィルタ12では、現在(今回)のフレームの視差補正量を、視差補正量蓄積部13に蓄積された直前(前回)のフレームの視差補正量からの変化量が所定の許容範囲に収まるように制限する処理が行われる。
The
具体的には、視差補正量蓄積部13から直前のフレームの視差補正量Pt−1'を取得し、これを、視差補正量算出部11から入力された現在のフレームの視差補正量Ptと比較して、変化量(ΔP=Pt−Pt−1')を求める。そして、この変化量ΔPを、変化量の許容範囲を規定する制限値(最小値および最大値)−A,Aと比較して、変化量ΔPが許容範囲内に収まる場合には、視差補正量算出部11から入力された視差補正量Ptをそのまま出力し、変化量ΔPが許容範囲から外れる場合には、視差補正量蓄積部13から取得した直前のフレームの視差補正量Pt−1'に制限値±Aを加算して出力する。このフィルタ12で行われる処理を数式で示すと、次のようになり、この数式によりフィルタ12から出力させる視差補正量Pt'を求めることができる。
Pt'=min(max(Pt−Pt−1',−A),A)+Pt−1'
Specifically, the parallax correction amount P t−1 ′ of the immediately previous frame is acquired from the parallax correction
P t ′ = min (max (P t −P t−1 ′, −A), A) + P t−1 ′
なお、本実施形態では、現在のフレームの視差補正量と直前のフレームの視差補正量との差分(変化量)で視差補正量を制限するようにしたが、直前のフレームの視差補正量に対する現在のフレームの視差補正量の比率(変化率)で視差補正量を制限するようにしてもよい。この場合、フィルタ12で行われる処理を数式で示すと、次のようになる。ここで、Bmin,Bmaxは、変化率の許容範囲を規定する制限値(最小値および最大値)である。
Pt'=min(max(Pt/Pt−1',Bmin),Bmax)×Pt−1'
In this embodiment, the parallax correction amount is limited by the difference (change amount) between the parallax correction amount of the current frame and the parallax correction amount of the previous frame. The parallax correction amount may be limited by the ratio (change rate) of the parallax correction amounts of the frames. In this case, the processing performed by the
P t ′ = min (max (P t / P t−1 ′, B min ), B max ) × P t−1 ′
この他、今回のフレームの視差補正量を、過去または前後の複数のフレームごとの視差補正量の平均値として算出するようにしてもよい。 In addition, the parallax correction amount of the current frame may be calculated as an average value of the parallax correction amounts for a plurality of previous or previous frames.
パノラマ画像生成部14では、2つのカメラ1a,1bからそれぞれ出力される撮像画像に対してパノラマ化(球への投影)を行って、2つのパノラマ画像を生成する処理が行われる。
In the panorama
視差補正部15では、フィルタ12から出力される視差補正量に基づいて、パノラマ画像生成部14で生成した2つのパノラマ画像に対して視差補正を行って、2つの視差補正画像を生成する処理が行われる。
The
画像合成部16では、視差補正部15でそれぞれ生成した2つの視差補正画像に対して画像合成処理を行って、1つの合成画像を生成する処理が行われる。この画像合成部16で生成した合成画像は表示装置4に出力され、表示装置4に合成画像が表示される。
The
なお、図5に示した画像処理装置3の各部は、情報処理装置のCPUで画像処理用のプログラムを実行させることで実現される。このプログラムは、情報処理装置に予め導入して専用の画像処理装置として構成されるようにする他、情報処理装置としてのPCにおいて汎用OS上で動作するアプリケーションプログラムとして適宜なプログラム記録媒体に記録して、またネットワークを介して、ユーザに提供されるようにしてもよい。
Each unit of the
以上のように本実施形態では、フィルタ12において、視差補正量算出部11で取得した視差補正量に対して時間的な変化量を制限するようにしたため、2つの撮像画像間の視差が大きく異なる変化が生じた場合でも、視差補正量が急激に変化することなく段階的に変化するようになる。これにより、視差補正量に基づいて視差補正部15で行われる画像変形を小さく抑える、例えば、1つのフレームで1ピクセルしか移動させないようにして、画像変形が段階的に行われるようになる。このため、合成画像を動画で表示する際に、画像に現れる被写体の像に不自然な動きが生じて見る人に違和感を与えることを避けることができる。
As described above, in this embodiment, since the temporal change amount is limited with respect to the parallax correction amount acquired by the parallax correction
特に、本実施形態では、視差補正量蓄積部13において、フィルタ12から出力される視差補正量を蓄積し、フィルタ12において、今回のフレームの視差補正量を、視差補正量蓄積部13に蓄積された前回のフレームの視差補正量からの変化量が所定の許容範囲に収まるように制限するようにしており、未来のフレームの情報が不要となるため、カメラで撮像された画像を合成処理しながらリアルタイムに出力するリアルタイム処理を実現することができる。
In particular, in the present embodiment, the parallax correction
(第2実施形態)
次に、第2実施形態について説明する。図7は、第2実施形態に係るカメラユニット21を示す説明図である。図8は、第2実施形態に係る画像処理装置23の概略構成を示す機能ブロック図である。なお、ここで特に言及しない点は前記の実施形態と同様である。
(Second Embodiment)
Next, a second embodiment will be described. FIG. 7 is an explanatory diagram showing the
第1実施形態では、カメラ1a〜1gによる撮像画像から視差補正量を算出するようにしたが、この第2実施形態では、図7に示すように、カメラユニット21に、デプスセンサ(距離検出装置)22a〜22fを設けて、このデプスセンサ22a〜22fの検出結果に基づいて視差補正量を算出するようにしている。
In the first embodiment, the parallax correction amount is calculated from images captured by the
デプスセンサ22a〜22fは、TOF(Time-Of-Flight)方式などにより、画像の奥行き、すなわち、画像に現れる近景の像に対応する被写体までの距離を検出する距離画像センサである。このデプスセンサ22a〜22fは、隣り合う2つのカメラ1a〜1fの撮像エリアの重複部分に対応する境界部の画像領域の奥行きを検出することができるように、各カメラ1a〜1fの間に配置されている。
The
図8に示すように、画像処理装置23は、第1実施形態と同様に、視差補正量算出部24を備えているが、この視差補正量算出部24には、デプスセンサ22aの検出結果が入力され、視差補正量算出部24において、デプスセンサ22aの検出結果に基づいて視差補正量を算出する処理が行われる。ここで、被写体までの距離と視差との間には相関関係があり、この相関関係に基づいて、デプスセンサ22aの検出結果から視差補正量を算出することができる。
As shown in FIG. 8, the
(第3実施形態)
次に、第3実施形態について説明する。図9は、第3実施形態に係る画像処理システムを示す全体構成図である。図10は、図9に示したPC31の概略構成を示す機能ブロック図である。図11は、図9に示した表示装置4に表示される画面を示す説明図である。なお、ここで特に言及しない点は前記の実施形態と同様である。
(Third embodiment)
Next, a third embodiment will be described. FIG. 9 is an overall configuration diagram showing an image processing system according to the third embodiment. FIG. 10 is a functional block diagram showing a schematic configuration of the
この第3実施形態に係る画像処理システムは、図9に示すように、カメラユニット2と、PC(情報処理装置)31と、表示装置4と、マウス(操作入力装置)32と、を備えている。
As shown in FIG. 9, the image processing system according to the third embodiment includes a
図10に示すように、PC31は、画像蓄積部41と、第1の画像処理部42と、第2の画像処理部43と、画像異常検出部44と、補正領域設定部45と、視差補正量設定部46と、入出力制御部47と、を備えている。
As shown in FIG. 10, the
画像蓄積部41は、カメラ1a,1bごとに設けられ、各カメラ1a,1bによる撮像画像が蓄積される。
The
第1の画像処理部42および第2の画像処理部43では、カメラ1a,1bの撮像画像を合成して合成画像を生成する処理が行われる。第1の画像処理部42は、視差補正に、第1実施形態と同様に、第1の補正方式を採用したものであり、2つのカメラ1a,1bの撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行った上で画像を合成する処理が行われる。この第1の画像処理部42は、第1実施形態の画像処理装置3(図5参照)と同様の構成となっている。第2の画像処理部43は、視差補正に第2の補正方式を採用したものであり、近影の像が現れる画像領域を避けるように屈曲したスティッチング境界を設定して、このスティッチング境界に沿って2つの画像を切り出して合成する処理が行われる。
In the 1st
画像異常検出部44では、合成画像における異常な画像領域、すなわち、近影の像が2重に現れたり、近影の像の一部が消失したりする不具合が発生している画像領域を検出する処理が行われる。補正領域設定部45では、マウス32を用いたユーザの入力操作に応じて、第1の画像処理部42で行われる視差補正の対象となる補正領域を設定する処理が行われる。視差補正量設定部46では、マウス32を用いたユーザの入力操作に応じて、第1の画像処理部42で用いられる視差補正量を設定する処理が行われる。入出力制御部47では、第1の画像処理部42および第2の画像処理部43で生成した合成画像を表示装置4に出力して表示させ、また、マウス32を用いたユーザの入力操作に応じた操作入力情報を取得する処理が行われる。
The image
本実施形態では、画像異常警告モードと、視差補正量調整モードと、スティッチング境界指定モードと、がある。以下に、各モードについて説明する。 In the present embodiment, there are an image abnormality warning mode, a parallax correction amount adjustment mode, and a stitching boundary designation mode. Each mode will be described below.
まず、画像異常警告モードについて説明する。画像異常警告モードは、合成画像における異常な画像領域を検出して、その異常な画像領域に関する警告を表示装置4に出力する。ユーザは、この警告を見て、異常な画像領域を認識することができ、これに続けて、図11(B),(C)に示すように、視差補正に関する操作を行う。
First, the image abnormality warning mode will be described. In the image abnormality warning mode, an abnormal image area in the composite image is detected, and a warning regarding the abnormal image area is output to the
このとき、PC31では、第1の画像処理部42または第2の画像処理部43において、撮像画像に対して視差補正を実施しない単純合成が行われ、画像異常検出部44において、合成画像における異常な画像領域が検出され、入出力制御部47において、画像異常検出部44の検出結果に基づいて、表示装置4の画面に、合成画像上に異常な画像領域を表す警告の画像を重畳して表示される処理が行われる。
At this time, in the
具体的には、図11(A)に示すように、第1の画像処理部42または第2の画像処理部43から出力される合成画像51が、表示装置4の画面に表示される。この表示装置4の画面に表示される合成画像上には、異常な画像領域を表す警告の画像52が表示されている。この警告の画像52は、異常な画像領域、すなわち、近影の像が2重に現れたり、近影の像の一部が消失したりする不具合が発生している画像領域を取り囲むように表示され、さらに、赤色などの着色が施されるとともに透過性の塗り潰しが施されている。これにより、ユーザが、異常な画像領域を容易に識別することができる。
Specifically, as illustrated in FIG. 11A, the
このように、画像異常警告モードでは、異常な画像領域に関する警告が行われるため、合成画像における異常な画像領域、すなわち視差補正を行うべき画像領域をユーザが容易に認識することができる。 In this way, in the image abnormality warning mode, a warning regarding an abnormal image region is performed, so that the user can easily recognize an abnormal image region in the composite image, that is, an image region to be subjected to parallax correction.
なお、画像異常検出部44では、視差補正部15から出力される2つの画像同士でブロックマッチングを行い、差分が大きくなる画像領域を、合成画像における異常な画像領域として検出するようにすればよい。
Note that the image
次に、視差補正量調整モードについて説明する。この視差補正量調整モードは、第1の画像処理部42で行われる第1の補正方式による視差補正、すなわち、撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行った上で画像を合成する処理において、視差補正に用いられる視差補正量をユーザが調整するものであり、この視差補正量調整モードでは、マウス32を用いたユーザの入力操作に応じて視差補正量が設定されて、その視差補正量に基づく合成画像が表示装置4に表示される。
Next, the parallax correction amount adjustment mode will be described. In this parallax correction amount adjustment mode, parallax correction by the first correction method performed by the first
このとき、PC31では、入出力制御部47において、マウス32の操作に応じた入力情報を取得し、補正領域設定部45において、入出力制御部47で取得した操作入力情報に基づいて補正領域を設定する処理が行われ、視差補正量設定部46において、入出力制御部47で取得した操作入力情報に基づいて視差補正量を設定する処理が行われ、第1の画像処理部42の視差補正部15において、補正領域設定部45および視差補正量設定部46でそれぞれ設定された補正領域および視差補正量に基づいて視差補正処理が行われる。
At this time, in the
具体的には、図11(B)に示すように、第1の画像処理部42から出力される合成画像が表示装置4の画面に表示され、この表示装置4の画面に表示される合成画像をユーザが見て、異常な画像領域をユーザがマウスポインタ53で指定する。すると、第1の画像処理部42において、マウスポインタ53で指定された位置の周辺の画像領域を対象にして視差補正が行われる。このとき、ユーザがマウスホイール33を操作することで、視差補正量が調整され、ユーザの操作に応じた視差補正量で視差補正が行われた合成画像が表示装置4の画面に表示される。
Specifically, as illustrated in FIG. 11B, the composite image output from the first
したがって、視差補正量調整モードでは、ユーザが、表示装置4の画面に表示される合成画像の状態を見ながら、適切な合成画像が得られるように視差補正量を調整することができる。
Therefore, in the parallax correction amount adjustment mode, the user can adjust the parallax correction amount so that an appropriate composite image can be obtained while viewing the state of the composite image displayed on the screen of the
なお、本実施形態では、マウスホイール33で視差補正量を調整するようにしたが、タブレット端末のようにタッチパネルディスプレイを備えた情報処理装置では、ピンチインおよびピンチアウトなどのタッチ操作により視差補正量を調整することができるようにするとよい。また、マウス32を用いる場合でも、ドラッグ操作などの別の操作で視差補正量を調整することができるようにしてもよい。
In this embodiment, the parallax correction amount is adjusted by the
次に、スティッチング境界指定モードについて説明する。このスティッチング境界指定モードは、第2の画像処理部43で行われる第2の補正方式による視差補正、すなわち、近影の像が現れる画像領域を避けるように屈曲したスティッチング境界を設定して、このスティッチング境界に沿って2つの画像を切り出して画像合成する処理において、スティッチング境界をユーザが指定するものであり、このスティッチング境界指定モードでは、マウス32を用いたユーザの入力操作に応じて、スティッチング境界に関する操作入力情報を取得し、この操作入力情報に基づいてスティッチング境界を設定する。
Next, the stitching boundary designation mode will be described. In this stitching boundary designation mode, parallax correction by the second correction method performed in the second
このとき、PC31では、入出力制御部47において、マウス32の操作に応じた操作入力情報を取得し、第2の画像処理部43において、入出力制御部47で取得した操作入力情報に基づいてスティッチング境界を設定し、このスティッチング境界に沿って画像を切り出して合成する処理が行われる。
At this time, in the
具体的には、図11(C)に示すように、ユーザが、マウス32のドラッグ操作で、異常な画像領域を避けるようにスティッチング境界を指定する。このとき、マウスポインタ53の軌跡がスティッチング境界となり、このスティッチング境界に基づいて画像合成処理が行われる。
Specifically, as shown in FIG. 11C, the user designates a stitching boundary so as to avoid an abnormal image region by dragging the
ここで、ユーザにより指定されたスティッチング境界をそのまま実際のスティッチング境界として画像合成処理を行うようにしてもよいが、ユーザにより指定されたスティッチング境界を参考にして、コスト関数に基づくスティッチング境界の最適化を行うようにしてもよい。 Here, the stitching boundary specified by the user may be used as it is as the actual stitching boundary, but the stitching based on the cost function is performed with reference to the stitching boundary specified by the user. You may make it optimize a boundary.
このスティッチング境界の最適化では、人物などの近景の像が現れている画像領域、すなわちコスト関数が高い画像領域を避けるようにスティッチング境界が設定される。換言すると、人物などの近景の像が現れておらず、画素値に大きな変化がない領域、すなわちコスト関数が低い画像領域を通過するようにスティッチング境界が設定される。このとき、ユーザにより指定されたスティッチング境界の周辺を、特にコスト関数が低い画像領域とすることで、ユーザにより指定されたスティッチング境界の周辺部が優先的にスティッチング境界に設定される。 In the optimization of the stitching boundary, the stitching boundary is set so as to avoid an image region where a near-field image such as a person appears, that is, an image region having a high cost function. In other words, the stitching boundary is set so as to pass through an area where a near-field image such as a person does not appear and the pixel value does not change greatly, that is, an image area with a low cost function. At this time, by setting the periphery of the stitching boundary specified by the user as an image region having a particularly low cost function, the peripheral portion of the stitching boundary specified by the user is preferentially set as the stitching boundary.
このように、スティッチング境界指定モードでは、ユーザが、表示装置4の画面に表示される合成画像の状態を見ながら、スティッチング境界を指定することができる。また、ユーザにより指定されたスティッチング境界を参考にしてスティッチング境界の最適化を行う場合には、スティッチング境界の最適化が容易になり、適切なスティッチング境界を効率よく設定することができる。
As described above, in the stitching boundary designation mode, the user can designate the stitching boundary while looking at the state of the composite image displayed on the screen of the
なお、本実施形態では、マウス32のドラッグ操作でスティッチング境界を指定するようにしたが、タブレット端末のようにタッチパネルディスプレイを備えた情報処理装置では、画面上を指でなぞるタッチ操作によりスティッチング境界を指定することができるようにするとよい。
In this embodiment, the stitching boundary is specified by dragging the
以上、本発明を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。また、上記実施形態に示した本発明に係る画像処理装置の各構成要素は、必ずしも全てが必須ではなく、少なくとも本発明の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。 As mentioned above, although this invention was demonstrated based on specific embodiment, these embodiment is an illustration to the last, Comprising: This invention is not limited by these embodiment. Further, all the components of the image processing apparatus according to the present invention shown in the above-described embodiments are not necessarily essential, and can be appropriately selected as long as they do not depart from the scope of the present invention.
例えば、前記の実施形態では、複数のカメラを備えたカメラユニットと別に設けられた画像処理装置(PCを含む)で、視差補正処理および画像合成処理を行って合成画像を出力するようにしたが、画像処理装置を内蔵するカメラユニット(撮像装置)として構成することもできる。 For example, in the above-described embodiment, an image processing apparatus (including a PC) provided separately from a camera unit including a plurality of cameras performs a parallax correction process and an image synthesis process to output a synthesized image. It can also be configured as a camera unit (imaging device) incorporating an image processing device.
また、前記の実施形態では、被写体までの距離を検出する距離検出装置として距離画像センサ(デプスセンサ)を用いた例を示したが、本発明の距離検出装置は、撮像画像に現れる近景の像に対応する被写体までの距離を検出することができるものであればよく、距離画像センサに限定されるものではない。 In the above embodiment, the distance image sensor (depth sensor) is used as the distance detection device for detecting the distance to the subject. However, the distance detection device according to the present invention is applied to an image of a foreground that appears in a captured image. The distance image sensor is not limited as long as it can detect the distance to the corresponding subject.
本発明に係る画像処理システム、画像処理装置および画像処理方法は、複数のカメラの撮像エリアの重複部分に対応する境界部の画像領域に近影の像と遠景の像とが現れる状態でも、適切な合成画像を生成できる効果を有し、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理システム、画像処理装置および画像処理方法などとして有用である。 The image processing system, the image processing apparatus, and the image processing method according to the present invention are suitable even in a state where a close-up image and a distant view image appear in an image area of a boundary portion corresponding to an overlapping portion of imaging areas of a plurality of cameras. It has the effect of generating a composite image, and displays a panorama composite image by performing image composition processing on multiple captured images acquired from multiple cameras that are arranged so that the imaging areas partially overlap between adjacent cameras This is useful as an image processing system, an image processing apparatus, an image processing method, etc.
1a〜1g カメラ
2 カメラユニット
3 画像処理装置
4 表示装置
11 視差補正量算出部
12 フィルタ
13 視差補正量蓄積部
14 パノラマ画像生成部
15 視差補正部
16 画像合成部
21 カメラユニット
21a デプスセンサ(距離検出装置)
23 画像処理装置
24 視差補正量算出部
32 マウス(操作入力装置)
33 マウスホイール
52 警告の画像
DESCRIPTION OF
23
33
Claims (8)
前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置と、を備える画像処理システムであって、
前記画像処理装置は、
前記撮像エリアの重複部分に対応する境界部の画像領域に近影の像が無い状態で現れる遠景の像に基づいて前記隣接するカメラの撮像画像を合成し、
前記近影の像が無い状態で前記遠景の像が現れる前記境界部の画像領域に前記近影の像が現れると、前記隣接するカメラの撮像画像の単純合成画像上における異常な画像領域を検出し、前記異常な画像領域に関する警告を表示する、
画像処理システム。 A plurality of cameras arranged such that the imaging areas partially overlap between adjacent cameras;
An image processing system comprising: an image processing device that performs image composition processing on a plurality of captured images acquired from the plurality of cameras and outputs a panorama composite image to a display unit;
The image processing apparatus includes:
Synthesize the captured image of the adjacent camera based on a distant view image that appears in the absence of a near-shadow image in the image area of the boundary corresponding to the overlapping portion of the imaging area,
When the near-shadow image appears in the image area of the boundary where the distant view image appears in the absence of the near-shadow image, an abnormal image area on the simple composite image of the image captured by the adjacent camera is detected, Display a warning about the abnormal image area;
Image processing system.
前記画像処理装置は、前記異常な画像領域に関する警告として、前記近影の像が二重に現れるか、または前記近影の像の一部が消失している画像領域を取り囲むように、前記異常な画像領域を表す警告の画像を重畳して表示する、
画像処理システム。 The image processing system according to claim 1,
The image processing apparatus may be configured to use the abnormal image so as to surround an image region in which the near-shadow image appears twice or a part of the near-shadow image disappears as a warning regarding the abnormal image region. Display a warning image that represents the area,
Image processing system.
前記画像処理装置は、前記単純合成画像に対するユーザの指定を入力する入力部をさらに備え、
前記入力部により前記異常な画像領域が指定されると、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を横方向にずらすように変形させて画像合成する、
画像処理システム。 The image processing system according to claim 1 or 2,
The image processing apparatus further includes an input unit for inputting a user designation for the simple composite image,
When the abnormal image area is specified by the input unit, the image of the image area in which the near shadow image appears is deformed so as to be shifted in the horizontal direction with respect to each of the captured images of the adjacent cameras. To
Image processing system.
前記画像処理装置は、前記近影の像が無い状態で前記遠景の像の位置関係を予め求めて、前記隣接するカメラの撮像画像を合成する、
画像処理システム。 The image processing system according to claim 3,
The image processing apparatus obtains the positional relationship of the distant view image in advance in the absence of the near-shadow image, and combines the captured images of the adjacent cameras;
Image processing system.
前記画像処理装置は、前記単純合成画像に対するユーザの指定を入力する入力部をさらに備え、
前記入力部により前記異常な画像領域およびスティッチング境界が指定されると、前記スティッチング境界に基づいて前記隣接するカメラの撮像画像を合成する、
画像処理システム。 The image processing system according to claim 1 or 2,
The image processing apparatus further includes an input unit for inputting a user designation for the simple composite image,
When the abnormal image region and the stitching boundary are specified by the input unit, the captured images of the adjacent cameras are synthesized based on the stitching boundary.
Image processing system.
前記画像処理装置は、前記入力部により指定された前記スティッチング境界に基づいて、前記近影の像が現れていない画像領域を通過するように前記スティッチング境界を設定する、
画像処理システム。 The image processing system according to claim 5,
The image processing device sets the stitching boundary based on the stitching boundary specified by the input unit so as to pass through an image region where the near-shadow image does not appear.
Image processing system.
前記撮像エリアの重複部分に対応する境界部の画像領域に近影の像が無い状態で現れる遠景の像に基づいて前記隣接するカメラの撮像画像を合成し、
前記近影の像が無い状態で前記遠景の像が現れる前記境界部の画像領域に前記近影の像が現れると、前記隣接するカメラの撮像画像の単純合成画像上における異常な画像領域を検出し、前記異常な画像領域に関する警告を表示する、
画像処理装置。 An image processing apparatus that performs image synthesis processing on a plurality of captured images acquired from a plurality of cameras arranged so that imaging areas partially overlap between adjacent cameras and outputs a panoramic composite image to a display unit. ,
Synthesize the captured image of the adjacent camera based on a distant view image that appears in the absence of a near-shadow image in the image area of the boundary corresponding to the overlapping portion of the imaging area,
When the near-shadow image appears in the image area of the boundary where the distant view image appears in the absence of the near-shadow image, an abnormal image area on the simple composite image of the image captured by the adjacent camera is detected, Display a warning about the abnormal image area;
Image processing device.
前記撮像エリアの重複部分に対応する境界部の画像領域に近影の像が無い状態で現れる遠景の像に基づいて前記隣接するカメラの撮像画像を合成し、
前記近影の像が無い状態で前記遠景の像が現れる前記境界部の画像領域に前記近影の像が現れると、前記隣接するカメラの撮像画像の単純合成画像上における異常な画像領域を検出し、前記異常な画像領域に関する警告を表示する、
画像処理方法。 An image processing method for performing an image synthesis process on a plurality of captured images acquired from a plurality of cameras arranged so that imaging areas partially overlap between adjacent cameras and outputting a panorama composite image to a display unit. ,
Synthesize the captured image of the adjacent camera based on a distant view image that appears in the absence of a near-shadow image in the image area of the boundary corresponding to the overlapping portion of the imaging area,
When the near-shadow image appears in the image area of the boundary where the distant view image appears in the absence of the near-shadow image, an abnormal image area on the simple composite image of the image captured by the adjacent camera is detected, Display a warning about the abnormal image area;
Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018060585A JP6664082B2 (en) | 2018-03-27 | 2018-03-27 | Image processing system, image processing apparatus, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018060585A JP6664082B2 (en) | 2018-03-27 | 2018-03-27 | Image processing system, image processing apparatus, and image processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017222620A Division JP6323739B2 (en) | 2017-11-20 | 2017-11-20 | Image processing system, image processing apparatus, and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018142963A true JP2018142963A (en) | 2018-09-13 |
JP6664082B2 JP6664082B2 (en) | 2020-03-13 |
Family
ID=63528424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018060585A Active JP6664082B2 (en) | 2018-03-27 | 2018-03-27 | Image processing system, image processing apparatus, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6664082B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020161871A1 (en) * | 2019-02-07 | 2020-08-13 | マクセル株式会社 | Composite reception/emission apparatus |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10178564A (en) * | 1996-10-17 | 1998-06-30 | Sharp Corp | Panorama image generator and recording medium |
JP2001067488A (en) * | 1999-08-27 | 2001-03-16 | Canon Inc | Image processor and method for image processing, and storage medium |
JP2011004340A (en) * | 2009-06-22 | 2011-01-06 | Fujifilm Corp | Imaging apparatus and control method therefor |
JP2011171813A (en) * | 2010-02-16 | 2011-09-01 | Fujifilm Corp | Imaging apparatus and stereoscopic image display method |
JP2011211556A (en) * | 2010-03-30 | 2011-10-20 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for generating image, and program |
JP2014230051A (en) * | 2013-05-22 | 2014-12-08 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2016530831A (en) * | 2013-09-06 | 2016-09-29 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Interactive image composition |
-
2018
- 2018-03-27 JP JP2018060585A patent/JP6664082B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10178564A (en) * | 1996-10-17 | 1998-06-30 | Sharp Corp | Panorama image generator and recording medium |
JP2001067488A (en) * | 1999-08-27 | 2001-03-16 | Canon Inc | Image processor and method for image processing, and storage medium |
JP2011004340A (en) * | 2009-06-22 | 2011-01-06 | Fujifilm Corp | Imaging apparatus and control method therefor |
JP2011171813A (en) * | 2010-02-16 | 2011-09-01 | Fujifilm Corp | Imaging apparatus and stereoscopic image display method |
JP2011211556A (en) * | 2010-03-30 | 2011-10-20 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for generating image, and program |
JP2014230051A (en) * | 2013-05-22 | 2014-12-08 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2016530831A (en) * | 2013-09-06 | 2016-09-29 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Interactive image composition |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020161871A1 (en) * | 2019-02-07 | 2020-08-13 | マクセル株式会社 | Composite reception/emission apparatus |
US11418710B2 (en) | 2019-02-07 | 2022-08-16 | Maxell, Ltd. | Composite reception/emission apparatus |
US11765464B2 (en) | 2019-02-07 | 2023-09-19 | Maxell, Ltd. | Composite reception/emission apparatus |
JP7445027B2 (en) | 2019-02-07 | 2024-03-06 | マクセル株式会社 | Composite imaging and ranging device |
Also Published As
Publication number | Publication date |
---|---|
JP6664082B2 (en) | 2020-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210073942A1 (en) | Image processing device, imaging system provided therewith, and calibration method | |
JP5906028B2 (en) | Image processing apparatus and image processing method | |
JP6253030B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5049300B2 (en) | Obstacle detection display | |
US10536633B2 (en) | Image processing device, imaging system and imaging apparatus including the same, and image processing method | |
JP6226539B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP5835384B2 (en) | Information processing method, information processing apparatus, and program | |
JP5984493B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and program | |
JP2015176559A (en) | information processing method, information processing apparatus, and program | |
US11141557B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JPWO2017179722A1 (en) | Image processing apparatus and imaging apparatus | |
JP2013239986A (en) | Auxiliary information generation apparatus, photographic image display system, auxiliary information generation method, photographic image display method, and computer program | |
JP2011035638A (en) | Virtual reality space video production system | |
JP6664082B2 (en) | Image processing system, image processing apparatus, and image processing method | |
JP2017199958A (en) | Imaging apparatus, control method thereof, and control program | |
JP6323739B2 (en) | Image processing system, image processing apparatus, and image processing method | |
JP2015179432A (en) | Projection position determination apparatus and projection position determination program | |
JP2015220662A (en) | Information processing apparatus, method for the same, and program | |
JP2018137786A (en) | Picture processing device and imaging system comprising the same, and calibration method | |
JP2019211944A (en) | Image processing device, and image processing method | |
JP2013085041A (en) | Information processing apparatus, processing method thereof, and program | |
JP2017163261A (en) | Image display device an image display method | |
JP2009258862A (en) | Video display device and image display method | |
JP2006295329A (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2016208429A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200130 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6664082 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |