JP2018142963A - Image processing system, image processing device, and image processing method - Google Patents

Image processing system, image processing device, and image processing method Download PDF

Info

Publication number
JP2018142963A
JP2018142963A JP2018060585A JP2018060585A JP2018142963A JP 2018142963 A JP2018142963 A JP 2018142963A JP 2018060585 A JP2018060585 A JP 2018060585A JP 2018060585 A JP2018060585 A JP 2018060585A JP 2018142963 A JP2018142963 A JP 2018142963A
Authority
JP
Japan
Prior art keywords
image
image processing
cameras
shadow
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018060585A
Other languages
Japanese (ja)
Other versions
JP6664082B2 (en
Inventor
純哉 桑田
Junya Kuwata
純哉 桑田
亮司 荻野
Ryoji Ogino
亮司 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018060585A priority Critical patent/JP6664082B2/en
Publication of JP2018142963A publication Critical patent/JP2018142963A/en
Application granted granted Critical
Publication of JP6664082B2 publication Critical patent/JP6664082B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate a proper composite image even in a state in which an image of short-distance view and an image of long-distance view appear in an image region at a border part corresponding to an overlap part of imaging areas of a plurality of cameras.SOLUTION: The present invention relates to an image processing system comprising: a plurality of cameras arranged such that imaging areas of adjacent cameras overlap with each other; and an image processing device which performs image composition processing on a plurality of picked-up images acquired by the plurality of cameras and outputs a panoramic composite image to a display part. The image processing device composes an image of picked-up images of the adjacent cameras based upon images of long-distance view appearing in an image region at a border part corresponding to overlap parts of image pickup areas, and also composes an image of the picked-up images of the adjacent cameras by deforming an image of the image region where an image of short-distance view appears when the image of short-distance view and an image of long-distance view appear in the image region at the border part.SELECTED DRAWING: Figure 3

Description

本発明は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理システム、画像処理装置および画像処理方法に関するものである。   The present invention performs image composition processing on a plurality of captured images acquired from a plurality of cameras arranged so that the imaging areas partially overlap between adjacent cameras, and outputs a panorama composite image to a display unit The present invention relates to a system, an image processing apparatus, and an image processing method.

複数のカメラにより撮像された画像を合成して1つの合成画像(パノラマ画像)を生成する、いわゆるスティッチング処理を行うことで、1台のカメラでは得ることができない広角画像をシームレスな状態で生成することができる。このようなスティッチング処理では、隣り合う2つのカメラを、各々の撮像エリアが一部重複するように配置して、2つのカメラの撮像エリアの重複部分に対応する境界部の画像領域を重ね合わせ、また、適宜にトリミングを行って画像を合成する。   A wide-angle image that cannot be obtained with a single camera can be generated seamlessly by performing a so-called stitching process that combines images captured by multiple cameras to generate a single composite image (panoramic image). can do. In such stitching processing, two adjacent cameras are arranged so that the respective imaging areas partially overlap, and the image areas at the boundary portions corresponding to the overlapping portions of the imaging areas of the two cameras are overlapped. In addition, the image is synthesized by appropriately trimming.

一方、2つのカメラの撮像エリアの重複部分に、カメラからの距離が大きく異なる被写体が存在する、すなわち、遠景となる被写体と近影となる被写体とが存在すると、2つのカメラの各撮像画像の間には、遠景となる被写体の像と近影となる被写体の像との位置関係がずれた状態、いわゆる視差が発生し、合成画像に、近影の像が2重に現れたり、近影の像の一部が消失したりする不具合が発生する。そこで、スティッチングでは、視差に起因する画像の不具合を抑制する視差補正が行われる。   On the other hand, if there is a subject whose distance from the camera is significantly different in the overlapping area of the imaging areas of the two cameras, that is, if there is a subject that is a distant view and a subject that is a close-up view, between the captured images of the two cameras In this case, the positional relationship between the image of the subject in the distant view and the image of the subject in the close shadow is shifted, so-called parallax occurs, and the close-up image appears twice in the composite image, or one of the close-up images. The trouble that a part disappears occurs. Thus, in stitching, parallax correction is performed to suppress image defects caused by parallax.

このような視差補正に関するものとして、従来、エッジや特徴量に基づくブロックマッチングにより、2つのカメラの各撮像画像に現れる被写体の像の位置関係を取得して、この情報に基づいて画像を変形させる視差補正を行う技術が知られている(特許文献1参照)。特にこの技術では、視差補正時の画像の変形度合いを規定するスティッチングポイントをフレームごとに変化させて、フレームごとに適切な合成画像を生成するようにしている。   As for such parallax correction, conventionally, the positional relationship between the images of the subjects appearing in the captured images of the two cameras is obtained by block matching based on edges and feature amounts, and the image is deformed based on this information. A technique for performing parallax correction is known (see Patent Document 1). In particular, in this technique, a stitching point that defines the degree of deformation of an image at the time of parallax correction is changed for each frame, and an appropriate composite image is generated for each frame.

また、人物など近景の像が現れている画像領域、すなわちコスト関数が高い画像領域を回避するように、2つの画像に対して屈曲したスティッチング境界を設定し、このスティッチング境界に沿って2つの画像を切り出すトリミングを行った上で画像合成する技術が知られている(特許文献2参照)。特にこの技術では、フレームの連続性を考慮してスティッチング境界の最適化を行うようにしており、これにより時間的に安定したスティッチング境界を設定することができるため、動画で表示する際に、画像に現れる被写体の像に不自然な動きが発生することを避けることができる。   Further, a bent stitching boundary is set with respect to the two images so as to avoid an image region in which a near-field image such as a person appears, that is, an image region having a high cost function, and 2 along the stitching boundary. A technique for synthesizing images after performing trimming to cut out two images is known (see Patent Document 2). In particular, in this technology, the stitching boundary is optimized in consideration of the continuity of the frame, and this enables the setting of a stable stitching boundary in terms of time. Therefore, it is possible to avoid an unnatural movement in the image of the subject appearing in the image.

特開2010−50842号公報JP 2010-50842 A 特許第5225313号公報Japanese Patent No. 5225313

本発明は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、隣接するカメラ同士で撮像エリアが一部重複するよう複数のカメラを配置して、複数のカメラから取得した複数の撮像画像に対して画像合成を行って合成画像を出力する場合に、撮像エリアの重複部分に対応する境界部の画像領域に近影の像と遠景の像とが現れる状態でも、適切な合成画像を生成することができるように構成された画像処理システム、画像処理装置および画像処理方法を提供することにある。   The present invention has been devised to solve such problems of the prior art, and its main purpose is to arrange a plurality of cameras so that the imaging areas partially overlap between adjacent cameras. When a plurality of captured images acquired from a plurality of cameras are combined to output a combined image, a near-shadow image and a distant view image are displayed in the boundary image region corresponding to the overlapping portion of the imaging area. An object of the present invention is to provide an image processing system, an image processing apparatus, and an image processing method configured to generate an appropriate composite image even when it appears.

本発明の画像処理システムは、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラと、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置と、を備える画像処理システムであって、前記画像処理装置は、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。   An image processing system according to the present invention performs panorama processing by performing image synthesis processing on a plurality of cameras arranged so that imaging areas partially overlap between adjacent cameras and a plurality of captured images acquired from the plurality of cameras. An image processing system comprising: an image processing device that outputs a composite image to a display unit, wherein the image processing device is based on an image of a distant view that appears in an image area at a boundary corresponding to an overlapping portion of the imaging area. In the state where the captured images of the adjacent cameras are combined and a near-shadow image and the distant view image appear in the image area of the boundary portion, the near-shadow image is obtained for each of the captured images of the adjacent cameras. The image in the image area where the image appears is deformed to compose the image.

また、本発明の画像処理装置は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置であって、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。   In addition, the image processing apparatus of the present invention displays a panoramic composite image by performing image composition processing on a plurality of captured images acquired from a plurality of cameras arranged so that the imaging areas partially overlap between adjacent cameras. An image processing apparatus that outputs to the image processing unit, and combines the captured images of the adjacent cameras based on a distant view image that appears in the image area of the boundary corresponding to the overlapping portion of the imaging area, and the image of the boundary In a state where a near-shadow image and a distant view image appear in a region, an image in the image region where the near-shadow image appears is deformed and combined with each of the captured images of the adjacent cameras.

また、本発明の画像処理方法は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理方法であって、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。   Further, the image processing method of the present invention displays a panorama composite image by performing image composition processing on a plurality of captured images acquired from a plurality of cameras arranged so that the imaging areas partially overlap between adjacent cameras. An image processing method for outputting to an image capturing section, wherein the captured image of the adjacent camera is synthesized with reference to a distant view image appearing in an image area of the boundary corresponding to the overlapping portion of the image capturing area, and the image of the boundary In a state where a near-shadow image and a distant view image appear in a region, an image in the image region where the near-shadow image appears is deformed and combined with each of the captured images of the adjacent cameras.

本発明によれば、隣接するカメラ同士で撮像エリアが一部重複するよう複数のカメラを配置して、複数のカメラから取得した複数の撮像画像に対して画像合成を行って合成画像を出力する場合に、撮像エリアの重複部分に対応する境界部の画像領域に近影の像と遠景の像とが現れる状態でも、適切な合成画像を生成することができる。   According to the present invention, a plurality of cameras are arranged so that imaging areas partially overlap between adjacent cameras, and a composite image is output by performing image composition on a plurality of captured images acquired from the plurality of cameras. In this case, an appropriate composite image can be generated even in a state in which a near-shadow image and a distant view image appear in the image area at the boundary portion corresponding to the overlapping portion of the imaging area.

第1実施形態に係る画像処理システムを示す全体構成図1 is an overall configuration diagram showing an image processing system according to a first embodiment. 画像処理装置3で生成されて表示装置4で表示される合成画像を示す説明図Explanatory drawing which shows the synthesized image produced | generated by the image processing apparatus 3, and displayed on the display apparatus 4 視差補正を実施しない場合および視差補正を実施した場合の画像の状態を模式的に示す説明図Explanatory drawing which shows typically the state of the image when not implementing parallax correction, and when parallax correction is implemented 視差補正を実施しない場合および視差補正を実施した場合の画像の実際の状態を示す説明図Explanatory drawing which shows the actual state of the image when parallax correction is not performed and when parallax correction is performed 画像処理装置3の概略構成を示す機能ブロック図Functional block diagram showing a schematic configuration of the image processing apparatus 3 画像処理装置3で行われる処理の概要を説明する説明図Explanatory drawing explaining the outline | summary of the process performed by the image processing apparatus 3 第2実施形態に係るカメラユニット21を示す説明図Explanatory drawing which shows the camera unit 21 which concerns on 2nd Embodiment. 第2実施形態に係る画像処理装置23の概略構成を示す機能ブロック図Functional block diagram showing a schematic configuration of an image processing apparatus 23 according to the second embodiment. 第3実施形態に係る画像処理システムを示す全体構成図Overall configuration diagram showing an image processing system according to a third embodiment 図9に示したPC31の概略構成を示す機能ブロック図Functional block diagram showing a schematic configuration of the PC 31 shown in FIG. 図9に示した表示装置4に表示される画面を示す説明図Explanatory drawing which shows the screen displayed on the display apparatus 4 shown in FIG.

前記課題を解決するためになされた第1の発明は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラと、前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置と、を備える画像処理システムであって、前記画像処理装置は、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。   1st invention made | formed in order to solve the said subject is with respect to the some captured image acquired from the several camera arrange | positioned so that an imaging area may partially overlap between adjacent cameras, and the said several camera An image processing system that performs an image synthesis process and outputs a panorama composite image to a display unit, wherein the image processing apparatus applies an image area to a boundary portion corresponding to an overlapping portion of the imaging area. The captured image of the adjacent camera is synthesized based on the image of the distant view that appears, and in the state where the near-shadow image and the distant view image appear in the image area of the boundary portion, On the other hand, the image in the image area in which the near-shadow image appears is deformed to compose the image.

これによると、隣接するカメラ同士で撮像エリアが一部重複するよう複数のカメラを配置して、複数のカメラから取得した複数の撮像画像に対して画像合成を行って合成画像を出力する場合に、撮像エリアの重複部分に対応する境界部の画像領域に近影の像と遠景の像とが現れる状態でも、適切な合成画像を生成することができる。   According to this, when a plurality of cameras are arranged so that imaging areas partially overlap between adjacent cameras, and a composite image is output by performing image composition on a plurality of captured images acquired from the plurality of cameras. An appropriate composite image can be generated even in the state in which a near-shadow image and a distant view image appear in the image area at the boundary corresponding to the overlapping portion of the imaging area.

また、第2の発明は、前記画像処理装置は、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を横方向にずらすように変形させて画像合成する構成とする。   According to a second aspect of the present invention, in the state in which the near-shadow image and the distant view image appear in the image area of the boundary portion, the image processing apparatus applies the near-shadow to each of the captured images of the adjacent cameras. The image in the image area where the image appears is deformed so as to be shifted in the horizontal direction, and the image is synthesized.

また、第3の発明は、前記画像処理装置は、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記境界部の画像領域に近影の像と前記遠景の像との位置関係が整合するように、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。   According to a third aspect of the present invention, in the state in which the near-shadow image and the distant view image appear in the boundary image area, the image processing apparatus has a close-shadow image and the distant view image in the boundary image area. So that the images in the image areas where the near-shadow images appear are deformed with respect to each of the images taken by the adjacent cameras so as to match the positional relationship.

また、第4の発明は、前記画像処理装置は、前記境界部の画像領域に前記近影の像がない状態で求められる前記遠景の像の位置関係を基準として前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記遠景の像と前記近影の像との位置関係のずれを補正するように、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。   According to a fourth aspect of the present invention, the image processing device synthesizes the captured images of the adjacent cameras based on the positional relationship of the distant view image obtained in a state where there is no near-shadow image in the boundary image area. In the state where the near-shadow image and the distant view image appear in the image area of the boundary portion, the image pickup by the adjacent camera is performed so as to correct the positional relationship between the distant view image and the close-view image. For each of the images, an image in an image region where the close-shadow image appears is deformed and image composition is performed.

また、第5の発明は、前記画像処理装置は、前記近影の像がない状態で前記遠景の像の位置関係を予め求めて、前記隣接するカメラの撮像画像を合成する構成とする。   According to a fifth aspect of the present invention, the image processing apparatus obtains a positional relationship between the distant view images in the absence of the near-shadow image and combines the captured images of the adjacent cameras.

また、第6の発明は、前記画像処理装置は、前記画像合成をフレームごとに行って前記表示部に動画で表示し、前記境界部の画像領域において前記近影の像が変化する場合、前記隣接するカメラの各撮像エリアの重複部分を前記近影の像が横切って移動する場合又は前記境界部の画像領域において前記近影の像が現れている状態から前記近影の像がなくなって前記遠景の像のみとなる状態に変化する場合には、前記境界部の画像領域における画像の変形を段階的に行う構成とする。   According to a sixth aspect of the present invention, when the image processing device performs the image composition for each frame and displays the image on the display unit as a moving image, and the near-shadow image changes in the image area of the boundary, the adjacent When the near-shadow image moves across the overlapping part of each imaging area of the camera or when the near-shadow image disappears from the state in which the near-shadow image appears in the boundary image area, only the far-field image When the state changes to the state, the image in the image area at the boundary is deformed step by step.

また、第7の発明は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置であって、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。   In addition, according to a seventh aspect of the present invention, image synthesis processing is performed on a plurality of captured images acquired from a plurality of cameras arranged so that imaging areas partially overlap between adjacent cameras, and a panoramic composite image is displayed on the display unit. An image processing device for outputting, wherein a captured image of the adjacent camera is synthesized with reference to an image of a distant view that appears in an image area of a boundary corresponding to an overlapping portion of the imaging area, and the image area of the boundary is In a state in which a near-shadow image and a distant view image appear, an image region image in which the near-shadow image appears is deformed with respect to each of the captured images of the adjacent cameras to perform image composition.

また、第8の発明は、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理方法であって、前記撮像エリアの重複部分に対応する境界部の画像領域に現れる遠景の像を基準にして前記隣接するカメラの撮像画像を合成し、前記境界部の画像領域に近影の像と前記遠景の像とが現れる状態では、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を変形させて画像合成する構成とする。   Further, according to an eighth aspect of the present invention, image synthesis processing is performed on a plurality of captured images acquired from a plurality of cameras arranged so that imaging areas are partially overlapped between adjacent cameras, and a panoramic composite image is displayed on the display unit. An image processing method for outputting, wherein a captured image of the adjacent camera is synthesized based on an image of a distant view that appears in an image area of a boundary corresponding to an overlapping portion of the imaging area, and the image area of the boundary is In a state in which a near-shadow image and a distant view image appear, an image region image in which the near-shadow image appears is deformed with respect to each of the captured images of the adjacent cameras to perform image composition.

以下、本発明の実施の形態を、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
図1は、第1実施形態に係る画像処理システムを示す全体構成図である。図2は、図1に示した画像処理装置3で生成されて表示装置4で表示される合成画像を示す説明図である。
(First embodiment)
FIG. 1 is an overall configuration diagram showing an image processing system according to the first embodiment. FIG. 2 is an explanatory diagram showing a composite image generated by the image processing device 3 shown in FIG. 1 and displayed on the display device 4.

本画像処理システムは、図1に示すように、第1〜第7のカメラ1a〜1gを有するカメラユニット2と、画像処理装置3と、表示装置4と、を備えている。   As shown in FIG. 1, the image processing system includes a camera unit 2 having first to seventh cameras 1 a to 1 g, an image processing device 3, and a display device 4.

カメラ1a〜1gは、広角な画角(例えば120°)を有し、第1〜第6のカメラ1a〜1fは、光軸が略水平方向の放射状となるように周方向に等間隔をおいて配置され、第7のカメラ1gは、光軸が略垂直方向上向きとなるように配置されている。カメラ1a〜1gは、隣り合う2つのカメラ1a〜1g同士で撮像エリアが一部重複するように配置されている。   The cameras 1a to 1g have a wide angle of view (for example, 120 °), and the first to sixth cameras 1a to 1f are spaced equidistantly in the circumferential direction so that the optical axes are substantially radial in the horizontal direction. The seventh camera 1g is arranged so that the optical axis is substantially upward in the vertical direction. The cameras 1a to 1g are arranged such that two adjacent cameras 1a to 1g partially overlap imaging areas.

画像処理装置3では、図2に示すように、第1〜第7のカメラ1a〜1gにより撮像された撮像画像を合成して1つの合成画像(パノラマ画像)を生成する処理(スティッチング)がフレームごとに行われ、このフレームごとの合成画像が表示装置4に出力されて、表示装置4に合成画像が動画で表示される。   As shown in FIG. 2, the image processing apparatus 3 performs a process (stitching) for synthesizing the captured images captured by the first to seventh cameras 1 a to 1 g to generate one composite image (panoramic image). This is performed for each frame, and a composite image for each frame is output to the display device 4, and the composite image is displayed as a moving image on the display device 4.

次に、図1に示した画像処理装置3で行われる視差補正について説明する。図3は、視差補正を実施しない場合および視差補正を実施した場合の画像の状態を模式的に示す説明図である。図4は、視差補正を実施しない場合および視差補正を実施した場合の画像の実際の状態を示す説明図である。なお、ここでは、説明の便宜上、隣り合う2つのカメラ1a,1bの画像を処理する例を示す。   Next, parallax correction performed by the image processing apparatus 3 illustrated in FIG. 1 will be described. FIG. 3 is an explanatory diagram schematically illustrating the state of an image when parallax correction is not performed and when parallax correction is performed. FIG. 4 is an explanatory diagram illustrating an actual state of an image when parallax correction is not performed and when parallax correction is performed. Here, for convenience of explanation, an example in which images of two adjacent cameras 1a and 1b are processed is shown.

図3(A)は、隣り合う2つのカメラ1a,1bによる撮像状況を示している。この図3(A)に示す例では、人物とその背景となる山とが2つのカメラ1a,1bにより同時に撮像される。   FIG. 3A shows an imaging state by two adjacent cameras 1a and 1b. In the example shown in FIG. 3A, a person and a mountain as a background are simultaneously imaged by two cameras 1a and 1b.

図3(B−1),(B−2)は、2つのカメラ1a,1bによる撮像画像を示している。この図3(B−1),(B−2)に示すように、2つのカメラ1a,1bによる撮像画像には、2つのカメラ1a,1bの撮像エリアの重複部分に対応する境界部の画像領域に、山を表す遠景の像と人物を表す近影の像とが現れる。ここで、遠景となる山と近影となる人物とでは、カメラ1a,1bからの距離が大きく異なり、2つの撮像画像では、遠景の像と近影の像との位置関係がずれた状態となる。   3 (B-1) and (B-2) show images captured by the two cameras 1a and 1b. As shown in FIGS. 3B-1 and 3B-2, images taken by the two cameras 1a, 1b are images of boundaries corresponding to overlapping portions of the imaging areas of the two cameras 1a, 1b. A distant view image representing a mountain and a close-up image representing a person appear in the region. Here, the distance from the cameras 1a and 1b differs greatly between a mountain that is a distant view and a person that is a close view, and in the two captured images, the positional relationship between the distant view image and the close view image is shifted.

図3(C−1),(C−2)は、2つのカメラ1a,1bによる撮像画像に対して遠景の像を基準にした単純合成を行って得られた合成画像を示している。前記のように、2つの撮像画像では遠景の像と近影の像との位置関係がずれているため、遠景の像を基準にして2つの撮像画像を単純に合成すると、図3(C−1),(C−2)に示すように、合成画像に、近影の像が2重に現れたり、近影の像の一部が消失したりする不具合が発生する。   FIGS. 3C-1 and 3C-2 show synthesized images obtained by performing simple synthesis on the images taken by the two cameras 1a, 1b with reference to a distant view image. As described above, since the positional relationship between the distant view image and the close-up image is shifted in the two captured images, when the two captured images are simply combined on the basis of the distant view image, FIG. ), (C-2), there arises a problem that double images of near shadows appear in the composite image or a part of the close shadow images disappears.

ここで、遠景の像を基準にしたときの近影の像のずれは、2つのカメラ1a,1bの各撮像画像の間の視差を表している。2つのカメラ1a,1bにそれぞれ現れる遠景の像の位置関係は、近影がない状態で予め求めておくことができ、この情報に基づいて画像合成が行われる。したがって、近影の像がない状態では2つのカメラ1a,1bの撮像画像には視差は存在せず、近影の像が現れると、2つのカメラ1a,1bの撮像画像間に視差が発生する。   Here, the shift of the near-shadow image when the distant view image is used as a reference represents the parallax between the captured images of the two cameras 1a and 1b. The positional relationship between the images of the distant views that appear in the two cameras 1a and 1b can be obtained in advance in the absence of a close shadow, and image synthesis is performed based on this information. Accordingly, there is no parallax in the captured images of the two cameras 1a and 1b in a state where there is no near-shadow image, and when the near-shadow image appears, parallax occurs between the captured images of the two cameras 1a and 1b.

このように、2つのカメラ1a,1bの撮像画像における境界部の画像領域に遠景の像と近影の像とが現れる状態では、2つの撮像画像間に発生する視差が原因で、合成画像に近影の像が2重に現れるなどの不具合が発生する。そこで、この不具合を解消するための視差補正が必要となり、この視差補正には代表的には2種類の補正方式がある。図3(C−3)は、第1の補正方式による場合であり、図3(C−4)は、第2の補正方式による場合である。   In this way, in a state where a distant view image and a close-up image appear in the image area at the boundary between the picked-up images of the two cameras 1a and 1b, the close-up image appears in the composite image due to the parallax generated between the two picked-up images. Such as appearing double images. Therefore, parallax correction is necessary to eliminate this problem, and there are typically two types of correction methods for this parallax correction. FIG. 3C-3 shows the case of using the first correction method, and FIG. 3C-4 shows the case of using the second correction method.

図3(C−3)に示すように、第1の補正方式は、2つのカメラ1a,1bの撮像画像の間で遠景の像と近影の像との位置関係が整合するように、2つのカメラ1a,1bの撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行った上で画像合成するものである。   As shown in FIG. 3 (C-3), the first correction method uses two images so that the positional relationship between the distant view image and the close-up image matches between the captured images of the two cameras 1a and 1b. The image synthesis is performed on the captured images of the cameras 1a and 1b after performing parallax correction that deforms the image so that an image region in which a near-shadow image mainly appears is shifted in the horizontal direction.

図3(C−4)に示すように、第2の補正方式は、近影の像が現れる画像領域を避けるように屈曲したスティッチング境界を設定し、このスティッチング境界に沿って2つのカメラ1a,1bの撮像画像を切り出すトリミングを行った上で画像合成するものである。   As shown in FIG. 3 (C-4), the second correction method sets a stitching boundary that is bent so as to avoid an image region in which a near-shadow image appears, and two cameras 1a along the stitching boundary. , 1b, the image is synthesized after trimming to cut out the captured image.

図4(A−1)は、視差補正を実施しない単純合成による合成画像を示し、図4(A−2)は、視差補正を実施した合成画像を示している。図4(B−1),(B−2)はそれぞれ、図4(A−1),(A−2)に示した合成画像における近景の像の周辺部を拡大して示している。   FIG. 4A-1 shows a composite image by simple synthesis without performing parallax correction, and FIG. 4A-2 shows a composite image with parallax correction performed. FIGS. 4B-1 and 4B-2 show enlarged peripheral portions of the foreground image in the composite image shown in FIGS. 4A-1 and 4A-2, respectively.

図4(A−1),(B−1)に示すように、視差補正を実施しない単純合成では、合成画像に、近影の像の一部が消失したり、近影の像が2重に現れたりする不具合が発生しているが、図4(A−2),(B−2)に示すように、視差補正を実施すると、単純合成のような不具合が改善され、適切な画像を生成することができる。   As shown in FIGS. 4 (A-1) and (B-1), in simple composition without parallax correction, a part of the near-shadow image disappears or the near-shadow image appears twice in the composite image. However, when parallax correction is performed as shown in FIGS. 4A-2 and 4B-2, a problem such as simple composition is improved and an appropriate image is generated. be able to.

このように視差補正を行うことで適切な画像を生成することができ、本実施形態では、第1の補正方式、すなわち、2つのカメラ1a,1bの撮像画像の間で遠景の像と近影の像との位置関係が整合するように、2つのカメラ1a,1bの撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行う。   By performing parallax correction in this way, an appropriate image can be generated. In the present embodiment, the first correction method, that is, the image of the distant view and the near-shadow between the captured images of the two cameras 1a and 1b. In order to match the positional relationship with the image, parallax correction is performed on the captured images of the two cameras 1a and 1b so that the image is deformed so that an image region in which a near-shadow image mainly appears is shifted in the horizontal direction.

ここで、人物などの近影の像は、その背景となる山などの遠景の像とは異なり、短時間に大きく変化する場合があり、この近影の像の変化により2つの撮像画像間の視差が短時間で大きく異なる状態になると、視差補正時の画像の変形度合いを規定する視差補正量が急激に変化して、フレーム間で顕著な画像変化が発生し、合成画像を動画で表示する際に、画像に現れる被写体の像に不自然な動きが生じて見る人に違和感を与える。   Here, unlike a distant view image such as a mountain as a background, a near-shadow image such as a person may change greatly in a short time, and due to this change in the near-shadow image, the parallax between two captured images varies. When the state becomes significantly different in a short time, the amount of parallax correction that defines the degree of image deformation at the time of parallax correction changes abruptly, causing significant image changes between frames, and when displaying a composite image as a moving image Unnatural movement occurs in the image of the subject appearing in the image, giving the viewer a sense of incongruity.

例えば、2つのカメラ1a,1bの各撮像エリアの重複部分を近景となる人物が横切るように移動すると、2つのカメラ1a,1bの撮像画像における境界部の画像領域は、近影の像が現れている状態から近影の像がなくなって遠景の像のみとなる状態に変化し、このとき、近影の像の有無に応じて境界部の画像領域の奥行き、すなわち、境界部の画像領域に現れる被写体までの距離が急激に変化する。このように境界部の画像領域の奥行きが急激に変化すると、これに応じて視差補正量も急激に変化し、視差補正時の画像変形も急激なものとなる。   For example, when a person in the foreground moves across an overlapping portion of the imaging areas of the two cameras 1a and 1b, a near-shadow image appears in the image area at the boundary in the captured images of the two cameras 1a and 1b. The state changes from a close-up state to a state in which a close-up image disappears and only a distant view image appears. The distance of suddenly changes. Thus, when the depth of the image area at the boundary portion changes abruptly, the parallax correction amount also changes accordingly, and the image deformation at the time of parallax correction also becomes abrupt.

特に、画像を見る人にとっては近影の像が重要となることから、近影の像に注目して、近影の像に不具合が生じないように近影の像を優先させた処理を行うと、近影の像が現れている状態では、遠景の像は、実際の形状とは多少異なるものとなる。このため、2つのカメラ1a,1bの各撮像エリアの重複部分を人物が横切る場合のように、近影の像が現れている状態から近影の像がなくなって遠景の像のみとなる状態に変化して、視差補正量が急激に変化すると、遠景の像に大きな変化が現れ、例えば変化することがない山の像が変化するようになり、見る人に大きな違和感を与える。   In particular, for the person who sees the image, the near-shadow image is important, so if you focus on the near-shadow image and perform processing that prioritizes the near-shadow image so that there is no problem with the near-shadow image, In the state where the image appears, the distant view image is slightly different from the actual shape. For this reason, as in the case where a person crosses the overlapping part of the imaging areas of the two cameras 1a and 1b, the state in which the close-in image appears is changed to the state in which the close-in image disappears and only the distant view image appears. When the parallax correction amount changes abruptly, a large change appears in the distant view image, for example, a mountain image that does not change changes, giving the viewer a sense of incongruity.

そこで、本実施形態では、第1の補正方式による視差補正、すなわち、2つのカメラ1a,1bの撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行う際に、2つのカメラ1a,1bの撮像画像間の視差から求められた視差補正量にフィルタを適用して、視差補正量に対して時間的な変化量を制限する処理を実施するようにする。これにより、視差補正時の急激な画像変形を抑え、視差補正による画像変形を目立ちにくくして、合成画像を動画で表示する際に見る人に違和感を与えることがないようにする。   Therefore, in the present embodiment, the parallax correction by the first correction method, that is, the image is deformed so that the image region in which the near-shadow image mainly appears is shifted in the horizontal direction with respect to the captured images of the two cameras 1a and 1b. When performing the parallax correction to be performed, a process of applying a filter to the parallax correction amount obtained from the parallax between the captured images of the two cameras 1a and 1b to limit the temporal change amount with respect to the parallax correction amount. Make it happen. This suppresses rapid image deformation during parallax correction, makes image deformation due to parallax correction inconspicuous, and prevents the viewer from feeling uncomfortable when displaying the composite image as a moving image.

次に、図1に示した画像処理装置3で行われる処理について説明する。図5は、画像処理装置3の概略構成を示す機能ブロック図である。図6は、画像処理装置3で行われる処理の概要を説明する説明図である。   Next, processing performed by the image processing apparatus 3 shown in FIG. 1 will be described. FIG. 5 is a functional block diagram illustrating a schematic configuration of the image processing apparatus 3. FIG. 6 is an explanatory diagram for explaining an overview of processing performed in the image processing apparatus 3.

画像処理装置3は、視差補正量算出部11と、フィルタ12と、視差補正量蓄積部13と、パノラマ画像生成部14と、視差補正部15と、画像合成部16と、を備えている。   The image processing apparatus 3 includes a parallax correction amount calculation unit 11, a filter 12, a parallax correction amount accumulation unit 13, a panoramic image generation unit 14, a parallax correction unit 15, and an image composition unit 16.

なお、ここでは、2つのカメラ1a.1bの撮像画像を処理する部分のみを示しているが、図1に示したように、本実施形態では、7つのカメラ1a〜1gが設けられており、視差補正量算出部11およびフィルタ12は、隣り合う2つのカメラ1a〜1gの組み合わせごとに設けられ、また、パノラマ画像生成部14および視差補正部15はカメラ1a〜1gごとに設けられる。   Here, two cameras 1a. Although only the part that processes the captured image 1b is shown, as shown in FIG. 1, in the present embodiment, seven cameras 1a to 1g are provided, and the parallax correction amount calculation unit 11 and the filter 12 are The panoramic image generation unit 14 and the parallax correction unit 15 are provided for each of the cameras 1a to 1g.

視差補正量算出部11では、視差補正時の画像の変形度合いを規定する視差補正量をフレームごとに算出する処理が行われる。具体的には、図6に示すように、平行化(円柱への投影)、処理領域切り出し、および視差算出の各処理が行われる。視差算出処理では、2つの撮像画像間のブロックマッチングにより視差(ずれ量)を算出する。すなわち、2つの撮像画像を少しずつずらしながら2つの撮像画像間の差分を算出し、その差分が最も小さくなる位置関係から視差を求める。ここで、撮像画像に近影の像が現れる場合には、通常、近影の像が大きな面積を占めていることから、近影の像がブロックマッチングの結果に大きく影響し、ブロックマッチングにより得られる画像のずれは、近影の像のずれとなる。   The parallax correction amount calculation unit 11 performs a process of calculating a parallax correction amount that defines the degree of deformation of the image at the time of parallax correction for each frame. Specifically, as shown in FIG. 6, parallel processing (projection onto a cylinder), processing region cutout, and parallax calculation are performed. In the parallax calculation process, parallax (deviation amount) is calculated by block matching between two captured images. That is, the difference between the two captured images is calculated while shifting the two captured images little by little, and the parallax is obtained from the positional relationship in which the difference is the smallest. Here, when a near-shadow image appears in the captured image, since the near-shadow image usually occupies a large area, the near-shadow image greatly affects the block matching result, and the image obtained by block matching The shift is a shift of a near-shadow image.

フィルタ12では、視差補正量算出部11から出力される視差補正量に対して時間的な変化量を制限する処理が行われる。本実施形態では、視差補正量蓄積部13に、フィルタ12から出力される視差補正量が蓄積され、フィルタ12では、現在(今回)のフレームの視差補正量を、視差補正量蓄積部13に蓄積された直前(前回)のフレームの視差補正量からの変化量が所定の許容範囲に収まるように制限する処理が行われる。   The filter 12 performs a process of limiting the temporal change amount with respect to the parallax correction amount output from the parallax correction amount calculation unit 11. In the present embodiment, the parallax correction amount output from the filter 12 is accumulated in the parallax correction amount accumulation unit 13, and the parallax correction amount of the current (current) frame is accumulated in the parallax correction amount accumulation unit 13 in the filter 12. A process of limiting the amount of change from the parallax correction amount of the immediately preceding (previous) frame to be within a predetermined allowable range is performed.

具体的には、視差補正量蓄積部13から直前のフレームの視差補正量Pt−1'を取得し、これを、視差補正量算出部11から入力された現在のフレームの視差補正量Pと比較して、変化量(ΔP=P−Pt−1')を求める。そして、この変化量ΔPを、変化量の許容範囲を規定する制限値(最小値および最大値)−A,Aと比較して、変化量ΔPが許容範囲内に収まる場合には、視差補正量算出部11から入力された視差補正量Pをそのまま出力し、変化量ΔPが許容範囲から外れる場合には、視差補正量蓄積部13から取得した直前のフレームの視差補正量Pt−1'に制限値±Aを加算して出力する。このフィルタ12で行われる処理を数式で示すと、次のようになり、この数式によりフィルタ12から出力させる視差補正量P'を求めることができる。
'=min(max(P−Pt−1',−A),A)+Pt−1'
Specifically, the parallax correction amount P t−1 ′ of the immediately previous frame is acquired from the parallax correction amount accumulation unit 13, and this is used as the parallax correction amount P t of the current frame input from the parallax correction amount calculation unit 11. The amount of change (ΔP = P t −P t−1 ′) is obtained. Then, the amount of change ΔP is compared with limit values (minimum value and maximum value) −A, A that define the allowable range of the amount of change. If the amount of change ΔP is within the allowable range, the parallax correction amount When the parallax correction amount P t input from the calculation unit 11 is output as it is and the change amount ΔP is out of the allowable range, the parallax correction amount P t−1 ′ of the immediately preceding frame acquired from the parallax correction amount accumulation unit 13 is output. The limit value ± A is added to and output. The processing performed by the filter 12 can be expressed by the following formula, and the parallax correction amount P t ′ output from the filter 12 can be obtained by this formula.
P t ′ = min (max (P t −P t−1 ′, −A), A) + P t−1

なお、本実施形態では、現在のフレームの視差補正量と直前のフレームの視差補正量との差分(変化量)で視差補正量を制限するようにしたが、直前のフレームの視差補正量に対する現在のフレームの視差補正量の比率(変化率)で視差補正量を制限するようにしてもよい。この場合、フィルタ12で行われる処理を数式で示すと、次のようになる。ここで、Bmin,Bmaxは、変化率の許容範囲を規定する制限値(最小値および最大値)である。
'=min(max(P/Pt−1',Bmin),Bmax)×Pt−1'
In this embodiment, the parallax correction amount is limited by the difference (change amount) between the parallax correction amount of the current frame and the parallax correction amount of the previous frame. The parallax correction amount may be limited by the ratio (change rate) of the parallax correction amounts of the frames. In this case, the processing performed by the filter 12 is expressed by the following formula. Here, B min and B max are limit values (minimum value and maximum value) that define the allowable range of the change rate.
P t ′ = min (max (P t / P t−1 ′, B min ), B max ) × P t−1

この他、今回のフレームの視差補正量を、過去または前後の複数のフレームごとの視差補正量の平均値として算出するようにしてもよい。   In addition, the parallax correction amount of the current frame may be calculated as an average value of the parallax correction amounts for a plurality of previous or previous frames.

パノラマ画像生成部14では、2つのカメラ1a,1bからそれぞれ出力される撮像画像に対してパノラマ化(球への投影)を行って、2つのパノラマ画像を生成する処理が行われる。   In the panorama image generation unit 14, panoramaization (projection onto a sphere) is performed on the captured images output from the two cameras 1 a and 1 b to generate two panorama images.

視差補正部15では、フィルタ12から出力される視差補正量に基づいて、パノラマ画像生成部14で生成した2つのパノラマ画像に対して視差補正を行って、2つの視差補正画像を生成する処理が行われる。   The parallax correction unit 15 performs a process of performing parallax correction on the two panoramic images generated by the panoramic image generation unit 14 based on the parallax correction amount output from the filter 12 to generate two parallax correction images. Done.

画像合成部16では、視差補正部15でそれぞれ生成した2つの視差補正画像に対して画像合成処理を行って、1つの合成画像を生成する処理が行われる。この画像合成部16で生成した合成画像は表示装置4に出力され、表示装置4に合成画像が表示される。   The image synthesis unit 16 performs image synthesis processing on the two parallax correction images generated by the parallax correction unit 15 to generate one synthesized image. The composite image generated by the image composition unit 16 is output to the display device 4, and the composite image is displayed on the display device 4.

なお、図5に示した画像処理装置3の各部は、情報処理装置のCPUで画像処理用のプログラムを実行させることで実現される。このプログラムは、情報処理装置に予め導入して専用の画像処理装置として構成されるようにする他、情報処理装置としてのPCにおいて汎用OS上で動作するアプリケーションプログラムとして適宜なプログラム記録媒体に記録して、またネットワークを介して、ユーザに提供されるようにしてもよい。   Each unit of the image processing apparatus 3 illustrated in FIG. 5 is realized by causing the CPU of the information processing apparatus to execute an image processing program. This program is introduced in advance into the information processing apparatus so as to be configured as a dedicated image processing apparatus, and is recorded in an appropriate program recording medium as an application program that runs on a general-purpose OS in a PC as the information processing apparatus. It may also be provided to the user via a network.

以上のように本実施形態では、フィルタ12において、視差補正量算出部11で取得した視差補正量に対して時間的な変化量を制限するようにしたため、2つの撮像画像間の視差が大きく異なる変化が生じた場合でも、視差補正量が急激に変化することなく段階的に変化するようになる。これにより、視差補正量に基づいて視差補正部15で行われる画像変形を小さく抑える、例えば、1つのフレームで1ピクセルしか移動させないようにして、画像変形が段階的に行われるようになる。このため、合成画像を動画で表示する際に、画像に現れる被写体の像に不自然な動きが生じて見る人に違和感を与えることを避けることができる。   As described above, in this embodiment, since the temporal change amount is limited with respect to the parallax correction amount acquired by the parallax correction amount calculation unit 11 in the filter 12, the parallax between the two captured images is greatly different. Even when a change occurs, the parallax correction amount does not change rapidly but changes stepwise. Thereby, the image deformation performed by the parallax correction unit 15 based on the parallax correction amount is suppressed to be small, for example, only one pixel is moved in one frame, and the image deformation is performed step by step. For this reason, when the composite image is displayed as a moving image, it is possible to avoid giving a sense of discomfort to the viewer due to an unnatural movement in the image of the subject appearing in the image.

特に、本実施形態では、視差補正量蓄積部13において、フィルタ12から出力される視差補正量を蓄積し、フィルタ12において、今回のフレームの視差補正量を、視差補正量蓄積部13に蓄積された前回のフレームの視差補正量からの変化量が所定の許容範囲に収まるように制限するようにしており、未来のフレームの情報が不要となるため、カメラで撮像された画像を合成処理しながらリアルタイムに出力するリアルタイム処理を実現することができる。   In particular, in the present embodiment, the parallax correction amount accumulation unit 13 accumulates the parallax correction amount output from the filter 12, and the filter 12 accumulates the parallax correction amount of the current frame in the parallax correction amount accumulation unit 13. The amount of change from the amount of parallax correction of the previous frame is limited so that it falls within a predetermined allowable range, and information on future frames is no longer necessary. Real-time processing that outputs in real time can be realized.

(第2実施形態)
次に、第2実施形態について説明する。図7は、第2実施形態に係るカメラユニット21を示す説明図である。図8は、第2実施形態に係る画像処理装置23の概略構成を示す機能ブロック図である。なお、ここで特に言及しない点は前記の実施形態と同様である。
(Second Embodiment)
Next, a second embodiment will be described. FIG. 7 is an explanatory diagram showing the camera unit 21 according to the second embodiment. FIG. 8 is a functional block diagram illustrating a schematic configuration of the image processing apparatus 23 according to the second embodiment. Note that points not particularly mentioned here are the same as in the above embodiment.

第1実施形態では、カメラ1a〜1gによる撮像画像から視差補正量を算出するようにしたが、この第2実施形態では、図7に示すように、カメラユニット21に、デプスセンサ(距離検出装置)22a〜22fを設けて、このデプスセンサ22a〜22fの検出結果に基づいて視差補正量を算出するようにしている。   In the first embodiment, the parallax correction amount is calculated from images captured by the cameras 1a to 1g. However, in the second embodiment, as shown in FIG. 7, the camera unit 21 includes a depth sensor (distance detection device). 22a to 22f are provided, and the parallax correction amount is calculated based on the detection results of the depth sensors 22a to 22f.

デプスセンサ22a〜22fは、TOF(Time-Of-Flight)方式などにより、画像の奥行き、すなわち、画像に現れる近景の像に対応する被写体までの距離を検出する距離画像センサである。このデプスセンサ22a〜22fは、隣り合う2つのカメラ1a〜1fの撮像エリアの重複部分に対応する境界部の画像領域の奥行きを検出することができるように、各カメラ1a〜1fの間に配置されている。   The depth sensors 22a to 22f are distance image sensors that detect the depth of an image, that is, a distance to a subject corresponding to a foreground image appearing in the image, using a TOF (Time-Of-Flight) method or the like. The depth sensors 22a to 22f are arranged between the cameras 1a to 1f so that the depth of the image area at the boundary corresponding to the overlapping portion of the imaging areas of the two adjacent cameras 1a to 1f can be detected. ing.

図8に示すように、画像処理装置23は、第1実施形態と同様に、視差補正量算出部24を備えているが、この視差補正量算出部24には、デプスセンサ22aの検出結果が入力され、視差補正量算出部24において、デプスセンサ22aの検出結果に基づいて視差補正量を算出する処理が行われる。ここで、被写体までの距離と視差との間には相関関係があり、この相関関係に基づいて、デプスセンサ22aの検出結果から視差補正量を算出することができる。   As shown in FIG. 8, the image processing apparatus 23 includes a parallax correction amount calculation unit 24 as in the first embodiment. The detection result of the depth sensor 22 a is input to the parallax correction amount calculation unit 24. Then, the parallax correction amount calculation unit 24 performs a process of calculating the parallax correction amount based on the detection result of the depth sensor 22a. Here, there is a correlation between the distance to the subject and the parallax, and based on this correlation, the parallax correction amount can be calculated from the detection result of the depth sensor 22a.

(第3実施形態)
次に、第3実施形態について説明する。図9は、第3実施形態に係る画像処理システムを示す全体構成図である。図10は、図9に示したPC31の概略構成を示す機能ブロック図である。図11は、図9に示した表示装置4に表示される画面を示す説明図である。なお、ここで特に言及しない点は前記の実施形態と同様である。
(Third embodiment)
Next, a third embodiment will be described. FIG. 9 is an overall configuration diagram showing an image processing system according to the third embodiment. FIG. 10 is a functional block diagram showing a schematic configuration of the PC 31 shown in FIG. FIG. 11 is an explanatory diagram showing a screen displayed on the display device 4 shown in FIG. Note that points not particularly mentioned here are the same as in the above embodiment.

この第3実施形態に係る画像処理システムは、図9に示すように、カメラユニット2と、PC(情報処理装置)31と、表示装置4と、マウス(操作入力装置)32と、を備えている。   As shown in FIG. 9, the image processing system according to the third embodiment includes a camera unit 2, a PC (information processing device) 31, a display device 4, and a mouse (operation input device) 32. Yes.

図10に示すように、PC31は、画像蓄積部41と、第1の画像処理部42と、第2の画像処理部43と、画像異常検出部44と、補正領域設定部45と、視差補正量設定部46と、入出力制御部47と、を備えている。   As shown in FIG. 10, the PC 31 includes an image storage unit 41, a first image processing unit 42, a second image processing unit 43, an image abnormality detection unit 44, a correction area setting unit 45, and parallax correction. An amount setting unit 46 and an input / output control unit 47 are provided.

画像蓄積部41は、カメラ1a,1bごとに設けられ、各カメラ1a,1bによる撮像画像が蓄積される。   The image storage unit 41 is provided for each of the cameras 1a and 1b and stores images captured by the cameras 1a and 1b.

第1の画像処理部42および第2の画像処理部43では、カメラ1a,1bの撮像画像を合成して合成画像を生成する処理が行われる。第1の画像処理部42は、視差補正に、第1実施形態と同様に、第1の補正方式を採用したものであり、2つのカメラ1a,1bの撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行った上で画像を合成する処理が行われる。この第1の画像処理部42は、第1実施形態の画像処理装置3(図5参照)と同様の構成となっている。第2の画像処理部43は、視差補正に第2の補正方式を採用したものであり、近影の像が現れる画像領域を避けるように屈曲したスティッチング境界を設定して、このスティッチング境界に沿って2つの画像を切り出して合成する処理が行われる。   In the 1st image processing part 42 and the 2nd image processing part 43, the process which synthesize | combines the captured image of the cameras 1a and 1b and produces | generates a synthesized image is performed. The first image processing unit 42 adopts the first correction method for parallax correction, as in the first embodiment, and is mainly used for the near-shadow on the captured images of the two cameras 1a and 1b. Processing for synthesizing an image is performed after performing parallax correction for deforming the image so that the image region in which the image appears is shifted in the horizontal direction. The first image processing unit 42 has the same configuration as that of the image processing apparatus 3 (see FIG. 5) of the first embodiment. The second image processing unit 43 employs the second correction method for parallax correction, sets a stitching boundary that is bent so as to avoid an image region in which a near-shadow image appears, and sets the stitching boundary as the stitching boundary. A process of cutting out and synthesizing two images along is performed.

画像異常検出部44では、合成画像における異常な画像領域、すなわち、近影の像が2重に現れたり、近影の像の一部が消失したりする不具合が発生している画像領域を検出する処理が行われる。補正領域設定部45では、マウス32を用いたユーザの入力操作に応じて、第1の画像処理部42で行われる視差補正の対象となる補正領域を設定する処理が行われる。視差補正量設定部46では、マウス32を用いたユーザの入力操作に応じて、第1の画像処理部42で用いられる視差補正量を設定する処理が行われる。入出力制御部47では、第1の画像処理部42および第2の画像処理部43で生成した合成画像を表示装置4に出力して表示させ、また、マウス32を用いたユーザの入力操作に応じた操作入力情報を取得する処理が行われる。   The image abnormality detection unit 44 detects an abnormal image region in the composite image, that is, an image region in which a malfunction has occurred in which a close shadow image appears twice or a part of the close shadow image disappears. Is done. In the correction area setting unit 45, processing for setting a correction area to be subjected to parallax correction performed in the first image processing unit 42 is performed in accordance with a user input operation using the mouse 32. In the parallax correction amount setting unit 46, processing for setting the parallax correction amount used in the first image processing unit 42 is performed in accordance with a user input operation using the mouse 32. In the input / output control unit 47, the composite image generated by the first image processing unit 42 and the second image processing unit 43 is output and displayed on the display device 4, and a user input operation using the mouse 32 is performed. Processing for acquiring the corresponding operation input information is performed.

本実施形態では、画像異常警告モードと、視差補正量調整モードと、スティッチング境界指定モードと、がある。以下に、各モードについて説明する。   In the present embodiment, there are an image abnormality warning mode, a parallax correction amount adjustment mode, and a stitching boundary designation mode. Each mode will be described below.

まず、画像異常警告モードについて説明する。画像異常警告モードは、合成画像における異常な画像領域を検出して、その異常な画像領域に関する警告を表示装置4に出力する。ユーザは、この警告を見て、異常な画像領域を認識することができ、これに続けて、図11(B),(C)に示すように、視差補正に関する操作を行う。   First, the image abnormality warning mode will be described. In the image abnormality warning mode, an abnormal image area in the composite image is detected, and a warning regarding the abnormal image area is output to the display device 4. The user can recognize the abnormal image area by seeing this warning, and subsequently perform an operation related to parallax correction as shown in FIGS.

このとき、PC31では、第1の画像処理部42または第2の画像処理部43において、撮像画像に対して視差補正を実施しない単純合成が行われ、画像異常検出部44において、合成画像における異常な画像領域が検出され、入出力制御部47において、画像異常検出部44の検出結果に基づいて、表示装置4の画面に、合成画像上に異常な画像領域を表す警告の画像を重畳して表示される処理が行われる。   At this time, in the PC 31, the first image processing unit 42 or the second image processing unit 43 performs simple synthesis without performing parallax correction on the captured image, and the image abnormality detection unit 44 performs abnormality in the composite image. In the input / output control unit 47, a warning image representing the abnormal image region is superimposed on the composite image on the screen of the display device 4 based on the detection result of the image abnormality detection unit 44. The displayed process is performed.

具体的には、図11(A)に示すように、第1の画像処理部42または第2の画像処理部43から出力される合成画像51が、表示装置4の画面に表示される。この表示装置4の画面に表示される合成画像上には、異常な画像領域を表す警告の画像52が表示されている。この警告の画像52は、異常な画像領域、すなわち、近影の像が2重に現れたり、近影の像の一部が消失したりする不具合が発生している画像領域を取り囲むように表示され、さらに、赤色などの着色が施されるとともに透過性の塗り潰しが施されている。これにより、ユーザが、異常な画像領域を容易に識別することができる。   Specifically, as illustrated in FIG. 11A, the composite image 51 output from the first image processing unit 42 or the second image processing unit 43 is displayed on the screen of the display device 4. On the composite image displayed on the screen of the display device 4, a warning image 52 representing an abnormal image region is displayed. The warning image 52 is displayed so as to surround an abnormal image area, that is, an image area in which a near-shadow image appears twice or a part of the near-shadow image disappears, Furthermore, coloring such as red is given and a transparent paint is given. Thereby, the user can easily identify an abnormal image region.

このように、画像異常警告モードでは、異常な画像領域に関する警告が行われるため、合成画像における異常な画像領域、すなわち視差補正を行うべき画像領域をユーザが容易に認識することができる。   In this way, in the image abnormality warning mode, a warning regarding an abnormal image region is performed, so that the user can easily recognize an abnormal image region in the composite image, that is, an image region to be subjected to parallax correction.

なお、画像異常検出部44では、視差補正部15から出力される2つの画像同士でブロックマッチングを行い、差分が大きくなる画像領域を、合成画像における異常な画像領域として検出するようにすればよい。   Note that the image abnormality detection unit 44 may perform block matching between the two images output from the parallax correction unit 15 and detect an image region in which the difference is large as an abnormal image region in the composite image. .

次に、視差補正量調整モードについて説明する。この視差補正量調整モードは、第1の画像処理部42で行われる第1の補正方式による視差補正、すなわち、撮像画像に対して、主に近影の像が現れる画像領域を横方向にずらすように画像を変形させる視差補正を行った上で画像を合成する処理において、視差補正に用いられる視差補正量をユーザが調整するものであり、この視差補正量調整モードでは、マウス32を用いたユーザの入力操作に応じて視差補正量が設定されて、その視差補正量に基づく合成画像が表示装置4に表示される。   Next, the parallax correction amount adjustment mode will be described. In this parallax correction amount adjustment mode, parallax correction by the first correction method performed by the first image processing unit 42, that is, an image region in which a close-in image mainly appears is shifted in the horizontal direction with respect to the captured image. The user adjusts the parallax correction amount used for the parallax correction in the process of synthesizing the image after performing the parallax correction for deforming the image to the user. In this parallax correction amount adjustment mode, the user using the mouse 32 is adjusted. The parallax correction amount is set according to the input operation, and a composite image based on the parallax correction amount is displayed on the display device 4.

このとき、PC31では、入出力制御部47において、マウス32の操作に応じた入力情報を取得し、補正領域設定部45において、入出力制御部47で取得した操作入力情報に基づいて補正領域を設定する処理が行われ、視差補正量設定部46において、入出力制御部47で取得した操作入力情報に基づいて視差補正量を設定する処理が行われ、第1の画像処理部42の視差補正部15において、補正領域設定部45および視差補正量設定部46でそれぞれ設定された補正領域および視差補正量に基づいて視差補正処理が行われる。   At this time, in the PC 31, the input / output control unit 47 acquires input information corresponding to the operation of the mouse 32, and the correction region setting unit 45 sets the correction region based on the operation input information acquired by the input / output control unit 47. The setting process is performed, and the parallax correction amount setting unit 46 performs the process of setting the parallax correction amount based on the operation input information acquired by the input / output control unit 47, so that the parallax correction of the first image processing unit 42 is performed. In the unit 15, the parallax correction processing is performed based on the correction region and the parallax correction amount set by the correction region setting unit 45 and the parallax correction amount setting unit 46, respectively.

具体的には、図11(B)に示すように、第1の画像処理部42から出力される合成画像が表示装置4の画面に表示され、この表示装置4の画面に表示される合成画像をユーザが見て、異常な画像領域をユーザがマウスポインタ53で指定する。すると、第1の画像処理部42において、マウスポインタ53で指定された位置の周辺の画像領域を対象にして視差補正が行われる。このとき、ユーザがマウスホイール33を操作することで、視差補正量が調整され、ユーザの操作に応じた視差補正量で視差補正が行われた合成画像が表示装置4の画面に表示される。   Specifically, as illustrated in FIG. 11B, the composite image output from the first image processing unit 42 is displayed on the screen of the display device 4, and the composite image displayed on the screen of the display device 4. The user designates an abnormal image area with the mouse pointer 53. Then, the first image processing unit 42 performs parallax correction on the image area around the position specified by the mouse pointer 53. At this time, when the user operates the mouse wheel 33, the parallax correction amount is adjusted, and a composite image in which the parallax correction is performed with the parallax correction amount according to the user operation is displayed on the screen of the display device 4.

したがって、視差補正量調整モードでは、ユーザが、表示装置4の画面に表示される合成画像の状態を見ながら、適切な合成画像が得られるように視差補正量を調整することができる。   Therefore, in the parallax correction amount adjustment mode, the user can adjust the parallax correction amount so that an appropriate composite image can be obtained while viewing the state of the composite image displayed on the screen of the display device 4.

なお、本実施形態では、マウスホイール33で視差補正量を調整するようにしたが、タブレット端末のようにタッチパネルディスプレイを備えた情報処理装置では、ピンチインおよびピンチアウトなどのタッチ操作により視差補正量を調整することができるようにするとよい。また、マウス32を用いる場合でも、ドラッグ操作などの別の操作で視差補正量を調整することができるようにしてもよい。   In this embodiment, the parallax correction amount is adjusted by the mouse wheel 33. However, in the information processing apparatus having a touch panel display such as a tablet terminal, the parallax correction amount is adjusted by a touch operation such as pinch-in and pinch-out. It is good to be able to adjust. Even when the mouse 32 is used, the parallax correction amount may be adjusted by another operation such as a drag operation.

次に、スティッチング境界指定モードについて説明する。このスティッチング境界指定モードは、第2の画像処理部43で行われる第2の補正方式による視差補正、すなわち、近影の像が現れる画像領域を避けるように屈曲したスティッチング境界を設定して、このスティッチング境界に沿って2つの画像を切り出して画像合成する処理において、スティッチング境界をユーザが指定するものであり、このスティッチング境界指定モードでは、マウス32を用いたユーザの入力操作に応じて、スティッチング境界に関する操作入力情報を取得し、この操作入力情報に基づいてスティッチング境界を設定する。   Next, the stitching boundary designation mode will be described. In this stitching boundary designation mode, parallax correction by the second correction method performed in the second image processing unit 43, that is, a stitching boundary that is bent so as to avoid an image region in which a near-shadow image appears, is set. In the process of cutting out and synthesizing two images along the stitching boundary, the user designates the stitching boundary. In this stitching boundary designation mode, the user performs an input operation using the mouse 32. The operation input information related to the stitching boundary is acquired, and the stitching boundary is set based on the operation input information.

このとき、PC31では、入出力制御部47において、マウス32の操作に応じた操作入力情報を取得し、第2の画像処理部43において、入出力制御部47で取得した操作入力情報に基づいてスティッチング境界を設定し、このスティッチング境界に沿って画像を切り出して合成する処理が行われる。   At this time, in the PC 31, the input / output control unit 47 acquires operation input information corresponding to the operation of the mouse 32, and the second image processing unit 43 acquires the operation input information acquired by the input / output control unit 47. A stitching boundary is set, and an image is cut out and combined along the stitching boundary.

具体的には、図11(C)に示すように、ユーザが、マウス32のドラッグ操作で、異常な画像領域を避けるようにスティッチング境界を指定する。このとき、マウスポインタ53の軌跡がスティッチング境界となり、このスティッチング境界に基づいて画像合成処理が行われる。   Specifically, as shown in FIG. 11C, the user designates a stitching boundary so as to avoid an abnormal image region by dragging the mouse 32. At this time, the locus of the mouse pointer 53 becomes a stitching boundary, and image composition processing is performed based on the stitching boundary.

ここで、ユーザにより指定されたスティッチング境界をそのまま実際のスティッチング境界として画像合成処理を行うようにしてもよいが、ユーザにより指定されたスティッチング境界を参考にして、コスト関数に基づくスティッチング境界の最適化を行うようにしてもよい。   Here, the stitching boundary specified by the user may be used as it is as the actual stitching boundary, but the stitching based on the cost function is performed with reference to the stitching boundary specified by the user. You may make it optimize a boundary.

このスティッチング境界の最適化では、人物などの近景の像が現れている画像領域、すなわちコスト関数が高い画像領域を避けるようにスティッチング境界が設定される。換言すると、人物などの近景の像が現れておらず、画素値に大きな変化がない領域、すなわちコスト関数が低い画像領域を通過するようにスティッチング境界が設定される。このとき、ユーザにより指定されたスティッチング境界の周辺を、特にコスト関数が低い画像領域とすることで、ユーザにより指定されたスティッチング境界の周辺部が優先的にスティッチング境界に設定される。   In the optimization of the stitching boundary, the stitching boundary is set so as to avoid an image region where a near-field image such as a person appears, that is, an image region having a high cost function. In other words, the stitching boundary is set so as to pass through an area where a near-field image such as a person does not appear and the pixel value does not change greatly, that is, an image area with a low cost function. At this time, by setting the periphery of the stitching boundary specified by the user as an image region having a particularly low cost function, the peripheral portion of the stitching boundary specified by the user is preferentially set as the stitching boundary.

このように、スティッチング境界指定モードでは、ユーザが、表示装置4の画面に表示される合成画像の状態を見ながら、スティッチング境界を指定することができる。また、ユーザにより指定されたスティッチング境界を参考にしてスティッチング境界の最適化を行う場合には、スティッチング境界の最適化が容易になり、適切なスティッチング境界を効率よく設定することができる。   As described above, in the stitching boundary designation mode, the user can designate the stitching boundary while looking at the state of the composite image displayed on the screen of the display device 4. In addition, when the stitching boundary is optimized with reference to the stitching boundary specified by the user, the optimization of the stitching boundary is facilitated, and an appropriate stitching boundary can be set efficiently. .

なお、本実施形態では、マウス32のドラッグ操作でスティッチング境界を指定するようにしたが、タブレット端末のようにタッチパネルディスプレイを備えた情報処理装置では、画面上を指でなぞるタッチ操作によりスティッチング境界を指定することができるようにするとよい。   In this embodiment, the stitching boundary is specified by dragging the mouse 32. However, in an information processing apparatus having a touch panel display such as a tablet terminal, stitching is performed by touching the screen with a finger. It is recommended that the boundary can be specified.

以上、本発明を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。また、上記実施形態に示した本発明に係る画像処理装置の各構成要素は、必ずしも全てが必須ではなく、少なくとも本発明の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。   As mentioned above, although this invention was demonstrated based on specific embodiment, these embodiment is an illustration to the last, Comprising: This invention is not limited by these embodiment. Further, all the components of the image processing apparatus according to the present invention shown in the above-described embodiments are not necessarily essential, and can be appropriately selected as long as they do not depart from the scope of the present invention.

例えば、前記の実施形態では、複数のカメラを備えたカメラユニットと別に設けられた画像処理装置(PCを含む)で、視差補正処理および画像合成処理を行って合成画像を出力するようにしたが、画像処理装置を内蔵するカメラユニット(撮像装置)として構成することもできる。   For example, in the above-described embodiment, an image processing apparatus (including a PC) provided separately from a camera unit including a plurality of cameras performs a parallax correction process and an image synthesis process to output a synthesized image. It can also be configured as a camera unit (imaging device) incorporating an image processing device.

また、前記の実施形態では、被写体までの距離を検出する距離検出装置として距離画像センサ(デプスセンサ)を用いた例を示したが、本発明の距離検出装置は、撮像画像に現れる近景の像に対応する被写体までの距離を検出することができるものであればよく、距離画像センサに限定されるものではない。   In the above embodiment, the distance image sensor (depth sensor) is used as the distance detection device for detecting the distance to the subject. However, the distance detection device according to the present invention is applied to an image of a foreground that appears in a captured image. The distance image sensor is not limited as long as it can detect the distance to the corresponding subject.

本発明に係る画像処理システム、画像処理装置および画像処理方法は、複数のカメラの撮像エリアの重複部分に対応する境界部の画像領域に近影の像と遠景の像とが現れる状態でも、適切な合成画像を生成できる効果を有し、隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理システム、画像処理装置および画像処理方法などとして有用である。   The image processing system, the image processing apparatus, and the image processing method according to the present invention are suitable even in a state where a close-up image and a distant view image appear in an image area of a boundary portion corresponding to an overlapping portion of imaging areas of a plurality of cameras. It has the effect of generating a composite image, and displays a panorama composite image by performing image composition processing on multiple captured images acquired from multiple cameras that are arranged so that the imaging areas partially overlap between adjacent cameras This is useful as an image processing system, an image processing apparatus, an image processing method, etc.

1a〜1g カメラ
2 カメラユニット
3 画像処理装置
4 表示装置
11 視差補正量算出部
12 フィルタ
13 視差補正量蓄積部
14 パノラマ画像生成部
15 視差補正部
16 画像合成部
21 カメラユニット
21a デプスセンサ(距離検出装置)
23 画像処理装置
24 視差補正量算出部
32 マウス(操作入力装置)
33 マウスホイール
52 警告の画像
DESCRIPTION OF SYMBOLS 1a-1g Camera 2 Camera unit 3 Image processing apparatus 4 Display apparatus 11 Parallax correction amount calculation part 12 Filter 13 Parallax correction amount storage part 14 Panorama image generation part 15 Parallax correction part 16 Image composition part 21 Camera unit 21a Depth sensor (distance detection apparatus) )
23 Image processing device 24 Parallax correction amount calculation unit 32 Mouse (operation input device)
33 Mouse wheel 52 Warning image

Claims (8)

隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラと、
前記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置と、を備える画像処理システムであって、
前記画像処理装置は、
前記撮像エリアの重複部分に対応する境界部の画像領域に近影の像が無い状態で現れる遠景の像に基づいて前記隣接するカメラの撮像画像を合成し、
前記近影の像が無い状態で前記遠景の像が現れる前記境界部の画像領域に前記近影の像が現れると、前記隣接するカメラの撮像画像の単純合成画像上における異常な画像領域を検出し、前記異常な画像領域に関する警告を表示する、
画像処理システム。
A plurality of cameras arranged such that the imaging areas partially overlap between adjacent cameras;
An image processing system comprising: an image processing device that performs image composition processing on a plurality of captured images acquired from the plurality of cameras and outputs a panorama composite image to a display unit;
The image processing apparatus includes:
Synthesize the captured image of the adjacent camera based on a distant view image that appears in the absence of a near-shadow image in the image area of the boundary corresponding to the overlapping portion of the imaging area,
When the near-shadow image appears in the image area of the boundary where the distant view image appears in the absence of the near-shadow image, an abnormal image area on the simple composite image of the image captured by the adjacent camera is detected, Display a warning about the abnormal image area;
Image processing system.
請求項1に記載の画像処理システムであって、
前記画像処理装置は、前記異常な画像領域に関する警告として、前記近影の像が二重に現れるか、または前記近影の像の一部が消失している画像領域を取り囲むように、前記異常な画像領域を表す警告の画像を重畳して表示する、
画像処理システム。
The image processing system according to claim 1,
The image processing apparatus may be configured to use the abnormal image so as to surround an image region in which the near-shadow image appears twice or a part of the near-shadow image disappears as a warning regarding the abnormal image region. Display a warning image that represents the area,
Image processing system.
請求項1又は請求項2に記載の画像処理システムであって、
前記画像処理装置は、前記単純合成画像に対するユーザの指定を入力する入力部をさらに備え、
前記入力部により前記異常な画像領域が指定されると、前記隣接するカメラの撮像画像のそれぞれに対して、前記近影の像が現れる画像領域の画像を横方向にずらすように変形させて画像合成する、
画像処理システム。
The image processing system according to claim 1 or 2,
The image processing apparatus further includes an input unit for inputting a user designation for the simple composite image,
When the abnormal image area is specified by the input unit, the image of the image area in which the near shadow image appears is deformed so as to be shifted in the horizontal direction with respect to each of the captured images of the adjacent cameras. To
Image processing system.
請求項3に記載の画像処理システムであって、
前記画像処理装置は、前記近影の像が無い状態で前記遠景の像の位置関係を予め求めて、前記隣接するカメラの撮像画像を合成する、
画像処理システム。
The image processing system according to claim 3,
The image processing apparatus obtains the positional relationship of the distant view image in advance in the absence of the near-shadow image, and combines the captured images of the adjacent cameras;
Image processing system.
請求項1又は請求項2に記載の画像処理システムであって、
前記画像処理装置は、前記単純合成画像に対するユーザの指定を入力する入力部をさらに備え、
前記入力部により前記異常な画像領域およびスティッチング境界が指定されると、前記スティッチング境界に基づいて前記隣接するカメラの撮像画像を合成する、
画像処理システム。
The image processing system according to claim 1 or 2,
The image processing apparatus further includes an input unit for inputting a user designation for the simple composite image,
When the abnormal image region and the stitching boundary are specified by the input unit, the captured images of the adjacent cameras are synthesized based on the stitching boundary.
Image processing system.
請求項5に記載の画像処理システムであって、
前記画像処理装置は、前記入力部により指定された前記スティッチング境界に基づいて、前記近影の像が現れていない画像領域を通過するように前記スティッチング境界を設定する、
画像処理システム。
The image processing system according to claim 5,
The image processing device sets the stitching boundary based on the stitching boundary specified by the input unit so as to pass through an image region where the near-shadow image does not appear.
Image processing system.
隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理装置であって、
前記撮像エリアの重複部分に対応する境界部の画像領域に近影の像が無い状態で現れる遠景の像に基づいて前記隣接するカメラの撮像画像を合成し、
前記近影の像が無い状態で前記遠景の像が現れる前記境界部の画像領域に前記近影の像が現れると、前記隣接するカメラの撮像画像の単純合成画像上における異常な画像領域を検出し、前記異常な画像領域に関する警告を表示する、
画像処理装置。
An image processing apparatus that performs image synthesis processing on a plurality of captured images acquired from a plurality of cameras arranged so that imaging areas partially overlap between adjacent cameras and outputs a panoramic composite image to a display unit. ,
Synthesize the captured image of the adjacent camera based on a distant view image that appears in the absence of a near-shadow image in the image area of the boundary corresponding to the overlapping portion of the imaging area,
When the near-shadow image appears in the image area of the boundary where the distant view image appears in the absence of the near-shadow image, an abnormal image area on the simple composite image of the image captured by the adjacent camera is detected, Display a warning about the abnormal image area;
Image processing device.
隣接するカメラ同士で撮像エリアが一部重複するよう配置される複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を表示部に出力する画像処理方法であって、
前記撮像エリアの重複部分に対応する境界部の画像領域に近影の像が無い状態で現れる遠景の像に基づいて前記隣接するカメラの撮像画像を合成し、
前記近影の像が無い状態で前記遠景の像が現れる前記境界部の画像領域に前記近影の像が現れると、前記隣接するカメラの撮像画像の単純合成画像上における異常な画像領域を検出し、前記異常な画像領域に関する警告を表示する、
画像処理方法。
An image processing method for performing an image synthesis process on a plurality of captured images acquired from a plurality of cameras arranged so that imaging areas partially overlap between adjacent cameras and outputting a panorama composite image to a display unit. ,
Synthesize the captured image of the adjacent camera based on a distant view image that appears in the absence of a near-shadow image in the image area of the boundary corresponding to the overlapping portion of the imaging area,
When the near-shadow image appears in the image area of the boundary where the distant view image appears in the absence of the near-shadow image, an abnormal image area on the simple composite image of the image captured by the adjacent camera is detected, Display a warning about the abnormal image area;
Image processing method.
JP2018060585A 2018-03-27 2018-03-27 Image processing system, image processing apparatus, and image processing method Active JP6664082B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018060585A JP6664082B2 (en) 2018-03-27 2018-03-27 Image processing system, image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018060585A JP6664082B2 (en) 2018-03-27 2018-03-27 Image processing system, image processing apparatus, and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017222620A Division JP6323739B2 (en) 2017-11-20 2017-11-20 Image processing system, image processing apparatus, and image processing method

Publications (2)

Publication Number Publication Date
JP2018142963A true JP2018142963A (en) 2018-09-13
JP6664082B2 JP6664082B2 (en) 2020-03-13

Family

ID=63528424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018060585A Active JP6664082B2 (en) 2018-03-27 2018-03-27 Image processing system, image processing apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP6664082B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020161871A1 (en) * 2019-02-07 2020-08-13 マクセル株式会社 Composite reception/emission apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178564A (en) * 1996-10-17 1998-06-30 Sharp Corp Panorama image generator and recording medium
JP2001067488A (en) * 1999-08-27 2001-03-16 Canon Inc Image processor and method for image processing, and storage medium
JP2011004340A (en) * 2009-06-22 2011-01-06 Fujifilm Corp Imaging apparatus and control method therefor
JP2011171813A (en) * 2010-02-16 2011-09-01 Fujifilm Corp Imaging apparatus and stereoscopic image display method
JP2011211556A (en) * 2010-03-30 2011-10-20 Nippon Telegr & Teleph Corp <Ntt> Device and method for generating image, and program
JP2014230051A (en) * 2013-05-22 2014-12-08 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2016530831A (en) * 2013-09-06 2016-09-29 クゥアルコム・インコーポレイテッドQualcomm Incorporated Interactive image composition

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178564A (en) * 1996-10-17 1998-06-30 Sharp Corp Panorama image generator and recording medium
JP2001067488A (en) * 1999-08-27 2001-03-16 Canon Inc Image processor and method for image processing, and storage medium
JP2011004340A (en) * 2009-06-22 2011-01-06 Fujifilm Corp Imaging apparatus and control method therefor
JP2011171813A (en) * 2010-02-16 2011-09-01 Fujifilm Corp Imaging apparatus and stereoscopic image display method
JP2011211556A (en) * 2010-03-30 2011-10-20 Nippon Telegr & Teleph Corp <Ntt> Device and method for generating image, and program
JP2014230051A (en) * 2013-05-22 2014-12-08 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2016530831A (en) * 2013-09-06 2016-09-29 クゥアルコム・インコーポレイテッドQualcomm Incorporated Interactive image composition

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020161871A1 (en) * 2019-02-07 2020-08-13 マクセル株式会社 Composite reception/emission apparatus
US11418710B2 (en) 2019-02-07 2022-08-16 Maxell, Ltd. Composite reception/emission apparatus
US11765464B2 (en) 2019-02-07 2023-09-19 Maxell, Ltd. Composite reception/emission apparatus
JP7445027B2 (en) 2019-02-07 2024-03-06 マクセル株式会社 Composite imaging and ranging device

Also Published As

Publication number Publication date
JP6664082B2 (en) 2020-03-13

Similar Documents

Publication Publication Date Title
US20210073942A1 (en) Image processing device, imaging system provided therewith, and calibration method
JP5906028B2 (en) Image processing apparatus and image processing method
JP6253030B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5049300B2 (en) Obstacle detection display
US10536633B2 (en) Image processing device, imaging system and imaging apparatus including the same, and image processing method
JP6226539B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP5835384B2 (en) Information processing method, information processing apparatus, and program
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2015176559A (en) information processing method, information processing apparatus, and program
US11141557B2 (en) Information processing apparatus, information processing method, and storage medium
JPWO2017179722A1 (en) Image processing apparatus and imaging apparatus
JP2013239986A (en) Auxiliary information generation apparatus, photographic image display system, auxiliary information generation method, photographic image display method, and computer program
JP2011035638A (en) Virtual reality space video production system
JP6664082B2 (en) Image processing system, image processing apparatus, and image processing method
JP2017199958A (en) Imaging apparatus, control method thereof, and control program
JP6323739B2 (en) Image processing system, image processing apparatus, and image processing method
JP2015179432A (en) Projection position determination apparatus and projection position determination program
JP2015220662A (en) Information processing apparatus, method for the same, and program
JP2018137786A (en) Picture processing device and imaging system comprising the same, and calibration method
JP2019211944A (en) Image processing device, and image processing method
JP2013085041A (en) Information processing apparatus, processing method thereof, and program
JP2017163261A (en) Image display device an image display method
JP2009258862A (en) Video display device and image display method
JP2006295329A (en) Image processing apparatus, imaging apparatus, and image processing method
JP2016208429A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200130

R151 Written notification of patent or utility model registration

Ref document number: 6664082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151