JP4506501B2 - Image composition device and imaging system - Google Patents

Image composition device and imaging system Download PDF

Info

Publication number
JP4506501B2
JP4506501B2 JP2005043367A JP2005043367A JP4506501B2 JP 4506501 B2 JP4506501 B2 JP 4506501B2 JP 2005043367 A JP2005043367 A JP 2005043367A JP 2005043367 A JP2005043367 A JP 2005043367A JP 4506501 B2 JP4506501 B2 JP 4506501B2
Authority
JP
Japan
Prior art keywords
image data
pixel
output
input
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005043367A
Other languages
Japanese (ja)
Other versions
JP2006229802A (en
Inventor
剛 皆川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005043367A priority Critical patent/JP4506501B2/en
Publication of JP2006229802A publication Critical patent/JP2006229802A/en
Application granted granted Critical
Publication of JP4506501B2 publication Critical patent/JP4506501B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数の撮影装置を使用して広視野角または高解像度の映像を得る撮像システム、及び、そのような撮像システムで使用する画像合成装置に関する。   The present invention relates to an imaging system that obtains a wide viewing angle or high-resolution video using a plurality of imaging devices, and an image composition device used in such an imaging system.

複数の撮影装置を使って広視野角または高解像度の映像を得る撮影システムとして、ビデオモザイキング技術として知られる技術や、特許文献1に記載の技術がある。特許文献1に記載の技術は、1つの広画角撮影装置と複数の通常画角撮影装置を備え、1つの広画角撮影装置を基準として各々の通常画角撮影装置の映像を合成した映像を生成するものである。これらの技術は、いずれも、複数の撮影装置の内部パラメタ(焦点距離など)及び外部パラメタ(位置や姿勢など)を推定し、各々の撮影映像に該パラメタに基づいた変換を施した上で合成処理を行うことで、一見なめらかにつながった広視野角または高解像度の映像の生成を行うものである。   There are a technique known as a video mosaicing technique and a technique described in Patent Document 1 as a photographing system that obtains a wide viewing angle or high-resolution video using a plurality of photographing apparatuses. The technique described in Patent Document 1 includes one wide-angle photographing device and a plurality of normal angle-of-view photographing devices, and an image obtained by synthesizing images of the respective normal angle-of-view photographing devices based on one wide-angle photographing device. Is generated. All of these technologies estimate the internal parameters (focal length, etc.) and external parameters (position, orientation, etc.) of multiple photographic devices, and synthesize each image after conversion based on the parameters. By performing the process, a wide viewing angle or high-resolution video that is connected smoothly is generated.

特開2004−135209号公報JP 2004-135209 A

従来の技術においては、複数の撮影装置の投影中心位置が異なることに起因する見え隠れの矛盾が原理的に生じるため、それによる画質の劣化が避けられなかった。同様に、鏡面反射の状態など、指向性を持つ光学特性に関する矛盾も原理的に発生するため、それによる画質の劣化も避けられなかった。   In the prior art, inconsistency in visibility due to differences in the projection center positions of a plurality of photographing apparatuses occurs in principle, and thus image quality deterioration due to this is unavoidable. Similarly, inconsistencies with respect to optical characteristics having directivity, such as the state of specular reflection, occur in principle, and image quality deterioration due to this is unavoidable.

本発明では、前記の課題を解決するため、基準となる画像データを撮影する1つの全体撮影装置と、該全体撮影装置の撮影範囲の一部分を含むような範囲を撮影する詳細撮影装置を備え、さらに、前記全体撮影装置の撮影した画像データに幾何学的な変換を施して全体画像データを生成する手段と、前記詳細撮影装置が撮影した画像データに幾何学的な変換を施して詳細画像データを生成する手段と、前記全体画像データと前記詳細画像データを比較することで画素毎の整合性の有無を判定する手段と、出力する画像データの画素値を前記判定結果が「整合性なし」となった画素については前記全体画像データを使って決定し前期判定結果が「整合性あり」となった画素については前記詳細画像データを使って決定する手段と、を備えるようにした。また、前記整合性の有無については、前記全体画像データの画素値と前記詳細画像データの画素値との差異が所定の許容範囲内に収まっている場合に「整合性あり」、そうでない場合に「整合性なし」と判定するようにした。   In order to solve the above-described problems, the present invention includes one whole photographing device that photographs image data serving as a reference, and a detailed photographing device that photographs a range including a part of the photographing range of the whole photographing device, Further, means for performing geometric transformation on the image data photographed by the whole photographing apparatus to generate whole image data, and detailed image data by performing geometric transformation on the image data photographed by the detailed photographing apparatus Generating means, means for determining the presence or absence of consistency for each pixel by comparing the whole image data and the detailed image data, and the determination result of the pixel value of the image data to be output is “no consistency” A pixel that is determined using the entire image data and a pixel whose previous determination result is “consistent” is determined using the detailed image data. It was. As for the presence / absence of consistency, “consistency” is obtained when the difference between the pixel value of the whole image data and the pixel value of the detailed image data is within a predetermined allowable range, and otherwise. Judged to be “no consistency”.

なお、上記所定の許容範囲は、例えば、以下に例示するように、画素値の差異の種々の評価方法に応じて決めた適当な値を使用すればよい。   As the predetermined allowable range, for example, an appropriate value determined according to various evaluation methods for the difference in pixel values may be used as exemplified below.

例えば、モノクロ画像であれば、各画素を8ビットの値で扱っている場合に、各々の画素値(0〜255)の差の絶対値を差異として評価する場合には、例えば「5以下」等を所定の許容範囲として使用してもよい。   For example, in the case of a monochrome image, when each pixel is handled with an 8-bit value and the absolute value of the difference between the pixel values (0 to 255) is evaluated as a difference, for example, “5 or less”. Etc. may be used as a predetermined tolerance.

また、カラー画像であれば、各々の画像を所定の変換式に基づいてモノクロ画像に変換した上で各々の画素値の差の絶対値を差異として評価する場合には、ある閾値Tを用いて「T以下」等を所定の許容範囲として使用してもよいし、UCS表色系に変換した場合の色度点間の距離とXYZ表色系に変換した場合のY値の差の絶対値とに基づいて差異を評価する場合には、ある閾値T1と別の閾値T2とを用いて「色度点間の距離がT1以下かつY値の差の絶対値がT2以下」等を所定の許容範囲として使用してもよい。   In the case of a color image, when each image is converted into a monochrome image based on a predetermined conversion formula and the absolute value of each pixel value difference is evaluated as a difference, a certain threshold value T is used. “T or less” or the like may be used as a predetermined allowable range, or the absolute value of the difference between the chromaticity points when converted to the UCS color system and the Y value when converted to the XYZ color system When a difference is evaluated based on the above, using a certain threshold value T1 and another threshold value T2, “the distance between chromaticity points is equal to or less than T1 and the absolute value of the difference between Y values is equal to or less than T2” or the like It may be used as an allowable range.

本発明によれば、1つの撮影装置で撮影した画像データと整合性のある画像データが撮像されることを保証しつつ、複数の撮影装置を使って高解像度の画像データを生成することが可能となる。   According to the present invention, it is possible to generate high-resolution image data using a plurality of photographing devices while ensuring that image data consistent with image data photographed by one photographing device is captured. It becomes.

以下、本発明の実施の形態について、実施例を用いて説明する。   Hereinafter, embodiments of the present invention will be described using examples.

以下、図1〜図22及び図60を用いて、第1の実施の形態について説明する。   Hereinafter, the first embodiment will be described with reference to FIGS. 1 to 22 and 60.

図1は、効果を説明するための概念図である。   FIG. 1 is a conceptual diagram for explaining the effect.

図1において、画像データ110は全体撮影装置201で撮影した画像データであり、画像データ120は左面撮影装置202で撮影した画像データであり、画像データ130は右面撮影装置203で撮影した画像データであり、画像データ111は、本実施例の画像合成装置200に画像データ110と画像データ120と画像データ130を入力した場合に出力される画像データである。全体撮影装置201と左面撮影装置202と右面撮影装置203と画像合成装置200に関しては、図2において説明する。   In FIG. 1, image data 110 is image data photographed by the whole photographing device 201, image data 120 is image data photographed by the left surface photographing device 202, and image data 130 is image data photographed by the right surface photographing device 203. The image data 111 is image data that is output when the image data 110, the image data 120, and the image data 130 are input to the image composition apparatus 200 of the present embodiment. The whole image capturing device 201, the left surface image capturing device 202, the right surface image capturing device 203, and the image composition device 200 will be described with reference to FIG.

画像合成装置は、基本的に画像データ110から画像データ111を生成するが、その際、画像データ110と整合し得る範囲において、画像データ120に基づいて生成した画像データ121を画像データ111に合成し、画像データ130に基づいて生成した画像データ131を画像データ111に合成することで、画像データ111の一部分または全体の解像度を上げることを実現するものである。   The image synthesizing apparatus basically generates image data 111 from the image data 110. At this time, the image data 121 generated based on the image data 120 is combined with the image data 111 within a range that can be matched with the image data 110. Then, by combining the image data 131 generated based on the image data 130 with the image data 111, it is possible to increase the resolution of a part or the whole of the image data 111.

ここで「画像データ110と整合し得る範囲において」と限定しているのは、例えば、画像データ110と画像データ130において、人物140と人物141の重なり具合が互いに異なって見えているが、そのような不整合がある場合には、画像データ110における見え方を優先して画像データ111を生成する、ということである。なお、画像データ111の具体的な生成方法については、図2以降にて説明する。   Here, for example, in the range that can be matched with the image data 110, the overlap between the person 140 and the person 141 looks different from each other in the image data 110 and the image data 130. If there is such inconsistency, the image data 111 is generated with priority given to the appearance in the image data 110. A specific method for generating the image data 111 will be described with reference to FIG.

なお、図1は、効果を説明するための概念図であり、高精細領域121及び高精細領域131の実際の形状は、図1で示した形とは大きく異なる場合もある。   FIG. 1 is a conceptual diagram for explaining the effect, and the actual shapes of the high-definition region 121 and the high-definition region 131 may be significantly different from the shape shown in FIG.

図2は、本実施例のシステムのシステム構成図である。   FIG. 2 is a system configuration diagram of the system according to the present embodiment.

図2において、全体撮影装置201の撮影した画像データは、映像入力部210を介して画像合成装置200に入力され、入力データ記憶部220に格納される。同様に、左面撮影装置202及び右面撮影装置203の撮影した画像データは、映像入力部210を介して画像合成装置200に入力され、入力データ記憶部220に格納される。全体撮影装置201の撮影画角は左面撮影装置202の撮影画角及び右面撮影装置203の撮影画角よりも広くなるように構成し、左面撮影装置202及び右面撮影装置203は全体撮影装置201の撮影している範囲内を撮影する。また、全体撮影装置201の撮像素子密度と、左面撮影装置202の撮像素子密度と、右面撮影装置203の撮像素子密度は、同程度となるように構成する。このように構成することにより、左面撮影装置202の撮影した画像データや右面撮影装置203の撮影した画像データは、全体撮影装置201の撮影した画像データの一部分をより詳細に撮影したものに近い画像データとなる。   In FIG. 2, image data captured by the whole image capturing device 201 is input to the image composition device 200 via the video input unit 210 and stored in the input data storage unit 220. Similarly, image data captured by the left side imaging device 202 and the right side imaging device 203 is input to the image composition device 200 via the video input unit 210 and stored in the input data storage unit 220. The imaging field angle of the overall imaging device 201 is configured to be wider than the imaging angle of view of the left imaging device 202 and the imaging imaging angle of the right imaging device 203, and the left imaging device 202 and the right imaging device 203 are the same as those of the overall imaging device 201. Shoot within the shooting area. In addition, the imaging device density of the entire imaging device 201, the imaging device density of the left surface imaging device 202, and the imaging device density of the right surface imaging device 203 are configured to be approximately the same. With this configuration, the image data captured by the left image capturing device 202 and the image data captured by the right image capturing device 203 are images that are close to those obtained by capturing a part of the image data captured by the overall image capturing device 201 in more detail. It becomes data.

画像合成装置200は、全体撮影装置201及び左面撮影装置202及び右面撮影装置203の撮影した画像データを取得する映像入力部210と、該取得した画像データを格納する入力データ記憶部220と、入力データ記憶部220及び中間データ記憶部260に格納されたデータに対してパラメタ記憶部240に格納されたパラメタを必要に応じて読み込みながら画像処理を行う画像処理部230と、パラメタ記憶部240に格納するパラメタを取得するパラメタ設定部250と、画像処理部230の処理によって出力される中間データを格納する中間データ記憶部260と、生成した画像データまたはデフォルトの画像データを出力する映像出力部270と、映像入力部210及び画像処理部230及び映像出力部270の各々の処理のタイミング制御を行う全体制御部280とを備えるように構成する。   The image composition device 200 includes a video input unit 210 that acquires image data captured by the whole image capturing device 201, the left surface image capturing device 202, and the right surface image capturing device 203, an input data storage unit 220 that stores the acquired image data, and an input An image processing unit 230 that performs image processing on the data stored in the data storage unit 220 and the intermediate data storage unit 260 while reading parameters stored in the parameter storage unit 240 as necessary, and stores the data in the parameter storage unit 240 A parameter setting unit 250 that acquires parameters to be performed, an intermediate data storage unit 260 that stores intermediate data output by the processing of the image processing unit 230, and a video output unit 270 that outputs generated image data or default image data. , The video input unit 210, the image processing unit 230, and the video output unit 270. Configured to include an overall controller 280 that performs timing control.

なお、入力データ記憶部220に格納するデータに関しては図3を用いて、全体制御部280に格納するデータに関しては図4を用いて、パラメタ記憶部240に格納するデータに関しては図5を用いて、中間データ記憶部260に格納するデータに関しては図6を用いて、それぞれ説明する。   Note that FIG. 3 is used for data stored in the input data storage unit 220, FIG. 4 is used for data stored in the overall control unit 280, and FIG. 5 is used for data stored in the parameter storage unit 240. The data stored in the intermediate data storage unit 260 will be described with reference to FIG.

図3は、本実施例のシステムにおいて入力データ記憶部220に格納するデータの説明図である。   FIG. 3 is an explanatory diagram of data stored in the input data storage unit 220 in the system of this embodiment.

入力データ記憶部220は、全体制御部280からの制御信号にしたがって、全体撮影装置201の撮影した画像データを全体入力画像データ221に、左面撮影装置202の撮影した画像データを左面入力画像データ222に、右面撮影装置203の撮影した画像データを右面入力画像データ223に、それぞれ格納するように構成する。時系列画像データが入力される場合には、例えば、フレームバッファを2画面分用意して、一方が画像処理部230が処理するための処理用のフレームバッファ、他方が映像入力部210が画像データを書き込むための入力用フレームバッファとなるように、1フレーム毎に切り替えながら使用できるように構成すればよい。   In accordance with a control signal from the overall control unit 280, the input data storage unit 220 sets image data captured by the overall imaging apparatus 201 as overall input image data 221 and image data captured by the left side imaging apparatus 202 as left side input image data 222. In addition, the image data captured by the right side photographing device 203 is stored in the right side input image data 223, respectively. When time-series image data is input, for example, a frame buffer is prepared for two screens, one is a processing frame buffer for the image processing unit 230 to process, and the other is a video input unit 210 for image data. It may be configured so that it can be used by switching every frame so that it becomes an input frame buffer for writing.

図4は、本実施例のシステムにおいて全体制御部280に格納するデータの説明図である。   FIG. 4 is an explanatory diagram of data stored in the overall control unit 280 in the system of this embodiment.

全体制御部280は、全体入力状態フラグ281と、左面入力状態フラグ282と、右面入力状態フラグ283と、状態モードフラグ284と、デフォルト画像データ285とを格納できるように構成する。   The overall control unit 280 is configured to store an overall input state flag 281, a left side input state flag 282, a right side input state flag 283, a state mode flag 284, and default image data 285.

全体入力状態フラグ281は、全体撮影装置201から画像データが入力されているか否かの状態を保持するフラグであり、全体撮影装置201からの画像データの入力の有無を映像入力部210を介して検出し、逐次更新するものである。同様に、左面入力状態フラグ282は左面撮影装置202から画像データが入力されているか否かの状態を保持するフラグであり、左面撮影装置202からの画像データの入力の有無を映像入力部210を介して検出し、逐次更新するものである。同様に、右面入力状態フラグ283は右面撮影装置203から画像データが入力されているか否かの状態を保持するフラグであり、右面撮影装置203からの画像データの入力の有無を映像入力部210を介して検出し、逐次更新するものである。また、状態モードフラグ284は画像合成装置200の初期化を完了したか否かの状態を保持するフラグであり、初期値は「初期化未済」である。   The whole input state flag 281 is a flag that holds a state of whether or not image data is input from the whole photographing apparatus 201, and whether or not image data is inputted from the whole photographing apparatus 201 via the video input unit 210. It detects and updates sequentially. Similarly, the left side input state flag 282 is a flag for holding a state of whether or not image data is input from the left side photographing apparatus 202, and whether or not the image data is input from the left side photographing apparatus 202 is displayed in the video input unit 210. And sequentially updating them. Similarly, the right side input state flag 283 is a flag for holding a state of whether or not image data is input from the right side photographing apparatus 203, and whether or not the image data is input from the right side photographing apparatus 203 is displayed in the video input unit 210. And sequentially updating them. The state mode flag 284 is a flag that holds a state indicating whether or not the initialization of the image composition apparatus 200 has been completed, and the initial value is “uninitialized”.

デフォルト画像データ285は、全体撮影装置201から画像データが入力されていない場合に画像合成装置200の出力する画像データである。本実施例においてはデフォルト画像データ285を全体制御部280に格納するものとしたが、中間データ記憶部260または映像出力部270に格納するように構成してもよい。   The default image data 285 is image data output from the image composition device 200 when no image data is input from the overall photographing device 201. In this embodiment, the default image data 285 is stored in the overall control unit 280. However, the default image data 285 may be stored in the intermediate data storage unit 260 or the video output unit 270.

図5は、本実施例のシステムにおいてパラメタ記憶部240に格納するデータの説明図である。   FIG. 5 is an explanatory diagram of data stored in the parameter storage unit 240 in the system of the present embodiment.

パラメタ記憶部240は、内部パラメタデータ241と、外部パラメタデータ242と、色調補正用データ243と、出力パラメタデータ244とを格納するように構成する。   The parameter storage unit 240 is configured to store internal parameter data 241, external parameter data 242, color tone correction data 243, and output parameter data 244.

内部パラメタデータ241は、全体撮影装置201と左面撮影装置202と右面撮影装置203のそれぞれの内部パラメタを保持するデータである。具体的には、投影方法や、焦点距離、レンズ歪みのパラメタ、軸の非直交性歪み、撮像面と光軸の交点の画像上での座標値、撮像素子の配置、などの撮影装置単体に関するパラメタのうち、必要なものを格納する。ここで、投影方法とは、等距離魚眼レンズ等を用いているのか、一般の透視投影で表されるレンズを用いているのか、といった情報のことである。   The internal parameter data 241 is data that retains internal parameters of the whole image capturing device 201, the left surface image capturing device 202, and the right surface image capturing device 203. Specifically, it relates to a single photographing apparatus such as a projection method, focal length, lens distortion parameters, non-orthogonal distortion of the axis, coordinate values on the image of the intersection of the imaging surface and the optical axis, and arrangement of the imaging element. Stores necessary parameters among parameters. Here, the projection method is information on whether an equidistant fisheye lens or the like is used, or whether a lens represented by general perspective projection is used.

外部パラメタデータ242は、全体撮影装置201と左面撮影装置202との相対関係及び、全体撮影装置201と右面撮影装置203との相対関係を表すパラメタである。具体的には、例えば、全体撮影装置201の投影中心位置を座標原点にとった場合の左面撮影装置202の投影中心位置の3次元位置座標及び右面撮影装置203の投影中心位置の3次元位置座標と、全体撮影装置201の撮影姿勢を基準とした場合の左面撮影装置202の撮影姿勢を表す3次の回転行列及び全体撮影装置201の撮影姿勢を基準とした場合の右面撮影装置203の撮影姿勢を表す3次の回転行列と、を格納する。   The external parameter data 242 is a parameter that represents the relative relationship between the whole photographing device 201 and the left surface photographing device 202 and the relative relationship between the whole photographing device 201 and the right surface photographing device 203. Specifically, for example, the three-dimensional position coordinates of the projection center position of the left surface photographing device 202 and the three dimensional position coordinates of the projection center position of the right surface photographing device 203 when the projection center position of the whole photographing device 201 is taken as the coordinate origin. And the third-order rotation matrix that represents the photographing posture of the left-side photographing device 202 when the photographing posture of the whole photographing device 201 is used as a reference, and the photographing posture of the right-side photographing device 203 when the photographing posture of the whole photographing device 201 is used as a reference. And a third-order rotation matrix representing.

色調補正用データ243は、全体撮影装置201と左面撮影装置202と右面撮影装置203の色調を合わせるためのデータである。周辺輝度の低下を補正するためのデータや色空間の違いを補正するためのデータ、異なる露出で撮影した画像データを基準露出で撮影した場合の画像データに変換するためのデータ、などのうち必要なものを格納する。   The color tone correction data 243 is data for matching the color tones of the whole image capturing device 201, the left surface image capturing device 202, and the right surface image capturing device 203. Necessary among data for correcting decrease in peripheral brightness, data for correcting difference in color space, data for converting image data shot with different exposure to image data shot with reference exposure, etc. Store things.

出力パラメタデータ244は、画像合成装置200の出力画像データの生成方法を定義するデータである。投影中心位置を全体撮影装置201の投影中心位置に等しくとり、座標系に関しても全体撮影装置201の座標系と等しくとった場合の、投影方法や画角などのパラメタを格納する。   The output parameter data 244 is data that defines a method for generating output image data of the image composition device 200. The projection center position is set equal to the projection center position of the whole image capturing apparatus 201, and parameters such as the projection method and the angle of view when the coordinate system is also equal to the coordinate system of the entire image capturing apparatus 201 are stored.

図6は、本実施例のシステムにおいて中間データ記憶部260に格納するデータの説明図である。   FIG. 6 is an explanatory diagram of data stored in the intermediate data storage unit 260 in the system of the present embodiment.

中間データ記憶部260は、マップ画像データ610と、変換画像データ620と、参照画像データ630と、変化画像データ640と、出力画像データ650と、を格納するように構成する。   The intermediate data storage unit 260 is configured to store map image data 610, converted image data 620, reference image data 630, change image data 640, and output image data 650.

マップ画像データ610は、入力画像データをサンプリング処理して新たな画像データを生成するための情報を備えた画像データであり、全体マップ画像データ611と、左面マップ画像データ612と、右面マップ画像データ613と、左面マップ修正画像データ614と、右面マップ修正画像データ615と、合成マップ画像データ616とで構成する。ここで、全体マップ画像データ611と左面マップ画像データ612と右面マップ画像データ613と左面マップ修正画像データ614と右面マップ修正画像データ615と合成マップ画像データ616の解像度は、出力画像データ650の解像度と等しくなるように構成する。マップ画像データ610に含まれる各種マップ画像データの画素値のデータ形式に関しては、図7を用いて説明する。   The map image data 610 is image data including information for sampling input image data to generate new image data. The entire map image data 611, the left side map image data 612, and the right side map image data. 613, left side map corrected image data 614, right side map corrected image data 615, and composite map image data 616. Here, the resolution of the entire map image data 611, the left map image data 612, the right map image data 613, the left map correction image data 614, the right map correction image data 615, and the composite map image data 616 is the resolution of the output image data 650. To be equal to The data format of the pixel values of various map image data included in the map image data 610 will be described with reference to FIG.

変換画像データ620は、全体入力画像データ221を全体マップ画像データ611に基づいて変換したデータである全体変換画像データ621と、左面入力画像データ222を左面マップ画像データ612に基づいて変換したデータである左面変換画像データ622と、右面入力画像データ213を右面マップ画像データ613に基づいて変換したデータである右面変換画像データ623とで構成する。ここで、全体変換画像データ621と左面変換画像データ622と右面変換画像データ623の解像度は、出力画像データ650の解像度と等しくなるように構成する。   The converted image data 620 is data obtained by converting the entire input image data 221 based on the entire map image data 611 and data obtained by converting the left input image data 222 based on the left map image data 612. It consists of certain left side converted image data 622 and right side converted image data 623 which is data obtained by converting the right side input image data 213 based on the right side map image data 613. Here, the resolutions of the whole converted image data 621, the left side converted image data 622, and the right side converted image data 623 are configured to be equal to the resolution of the output image data 650.

参照画像データ630は、時刻Tにおける処理を行う際に、時刻(T−1)における状態から変化した部分を検出するために、時刻(T−1)の処理の終了時の状態を表現したデータであり、全体参照画像データ631と、左面参照画像データ632と、右面参照画像データ633とで構成する。ここで、全体参照画像データ631と左面参照画像データ632と右面参照画像データ633の解像度は、出力画像データ650の解像度と等しくなるように構成する。   The reference image data 630 is data representing a state at the end of the processing at time (T-1) in order to detect a portion changed from the state at time (T-1) when performing processing at time T. And consists of general reference image data 631, left side reference image data 632, and right side reference image data 633. Here, the overall reference image data 631, the left side reference image data 632, and the right side reference image data 633 are configured to have the same resolution as that of the output image data 650.

変化画像データ640は、時刻Tにおける処理において、時刻(T−1)における状態から変化した部分を表現した2値の画像データであり、全体変化画像データ641と、左面変化画像データ642と、右面変化画像データ643とで構成する。ここで、全体変化画像データ641と左面変化画像データ642と右面変化画像データ643の解像度は、出力画像データ650の解像度と等しくなるように構成する。   The change image data 640 is binary image data representing a portion changed from the state at the time (T-1) in the process at the time T. The change image data 640 includes the entire change image data 641, the left side change image data 642, and the right side. It consists of change image data 643. Here, the overall change image data 641, the left side change image data 642, and the right side change image data 643 are configured to have the same resolution as the output image data 650.

図7は、本実施例のシステムにおける各種マップ画像データの画素値のデータ形式を説明する図である。   FIG. 7 is a diagram illustrating a data format of pixel values of various map image data in the system of the present embodiment.

データ形式710は、全体マップ画像データ611と左面マップ画像データ612と右面マップ画像データ613と左面マップ修正画像データ614と右面マップ修正画像データ615とで使用する画素値のデータ形式である。サンプリング処理を行うための、参照元X座標値711と参照元Y座標値712とを備えるように構成する。   The data format 710 is a data format of pixel values used in the entire map image data 611, the left side map image data 612, the right side map image data 613, the left side map corrected image data 614, and the right side map corrected image data 615. A reference source X coordinate value 711 and a reference source Y coordinate value 712 for performing sampling processing are provided.

データ形式720は、合成マップ画像データ616で使用する画素値のデータ形式である。参照元の画像として全体入力画像データ221と左面入力画像データ222と右面入力画像データ223のどの画像データを使用するかを定める入力データ識別子721と、サンプリング処理を行うための、参照元X座標値722と参照元Y座標値723とを備えるように構成する。   The data format 720 is a data format of pixel values used in the composite map image data 616. An input data identifier 721 that determines which image data of the entire input image data 221, left side input image data 222, and right side input image data 223 is used as a reference source image, and a reference source X coordinate value for performing sampling processing 722 and a reference source Y coordinate value 723.

なお、データ形式710及びデータ形式720のいずれの形式においても、適切な参照元座標値が存在しない場合には、参照元座標値として例外値を格納しておく。また、例外値である参照元座標値に基づいてサンプリングされた画素の画素値に関しては、やはり例外値であるとして処理を行い、2つの画素値の差が許容範囲内にあるか否かの判定においては、常に「許容範囲外」であるものとして扱う。   Note that, in both the data format 710 and the data format 720, if there is no appropriate reference source coordinate value, an exception value is stored as the reference source coordinate value. In addition, regarding the pixel value of the pixel sampled based on the reference source coordinate value which is an exceptional value, the processing is also performed as an exceptional value, and it is determined whether or not the difference between the two pixel values is within an allowable range. Is always treated as “out of tolerance”.

図8は、本実施例のシステムにおける画像合成処理の動作を説明するための状況説明図である。   FIG. 8 is a situation explanatory diagram for explaining the operation of the image composition processing in the system of the present embodiment.

全体撮影装置201が会議室810の全体を撮影し、左面撮影装置202と右面撮影装置203が各々その一部分を撮影するように構成されている場合に、時刻(T−1)において右面撮影装置203の撮影範囲内の位置820にいた人物が、時刻Tにおいて右面撮影装置203の撮影範囲外の位置821へ移動した場合の動作について、図9を用いて説明する。   When the entire photographing apparatus 201 photographs the entire conference room 810 and the left photographing apparatus 202 and the right photographing apparatus 203 are each configured to photograph a part thereof, the right photographing apparatus 203 at time (T-1). The operation when the person who is at the position 820 within the shooting range moves to the position 821 outside the shooting range of the right side photographing apparatus 203 at time T will be described with reference to FIG.

図9は、本実施例のシステムにおける画像合成処理の動作を説明するための概念図である。図9の概念図は、図8の状況における処理を表したものである。   FIG. 9 is a conceptual diagram for explaining the operation of the image composition process in the system of the present embodiment. The conceptual diagram of FIG. 9 represents processing in the situation of FIG.

画像データ910は時刻(T−1)における全体入力画像データ221であり、画像データ920は時刻(T−1)における右面入力画像データ223である。また、画像データ911は時刻Tにおける全体入力画像データ221であり、画像データ921は時刻Tにおける右面入力画像データ223である。時刻(T−1)に位置820にいた人物が、時刻Tにおいて位置821へ移動した様子がわかる。   The image data 910 is the entire input image data 221 at time (T-1), and the image data 920 is the right side input image data 223 at time (T-1). The image data 911 is the entire input image data 221 at time T, and the image data 921 is the right side input image data 223 at time T. It can be seen that the person who was at position 820 at time (T-1) moved to position 821 at time T.

画像データ912は更新前の全体参照画像データ631であり、画像データ922は更新前の右面参照画像データ633である。   The image data 912 is the entire reference image data 631 before update, and the image data 922 is the right side reference image data 633 before update.

画像データ913は全体変換画像データ621であり、画像データ923は右面変換画像データ623である。位置820にいた人物がいなくなってしまったにもかかわらず、時刻(T−1)における状態に基づいたサンプリングを行っているため、画像データ923の該当部分が白く抜けてしまっているのがわかる。   The image data 913 is whole converted image data 621, and the image data 923 is right side converted image data 623. Even though the person at the position 820 has disappeared, since the sampling based on the state at the time (T-1) is performed, it can be seen that the corresponding portion of the image data 923 has been whitened out.

画像データ914は全体変化画像データ641であり、画像データ924は右面変化画像データ643である。画像データ914は画像データ912と画像データ913とで差がある部分を検出して生成したものであり、画像データ924は画像データ922と画像データ923とで差がある部分を検出して生成したものである。   The image data 914 is overall change image data 641 and the image data 924 is right side change image data 643. The image data 914 is generated by detecting a difference between the image data 912 and the image data 913, and the image data 924 is generated by detecting a difference between the image data 922 and the image data 923. Is.

画像データ915は更新後の全体参照画像データ631であり、画像データ925は更新後の右面参照画像データ633である。状態が変化した部分のサンプリング用のデータを時刻Tにおける状態に基づいて更新することにより、期待する画像データが生成されていることがわかる。   The image data 915 is the updated overall reference image data 631, and the image data 925 is the updated right side reference image data 633. It can be seen that the expected image data is generated by updating the sampling data of the portion where the state has changed based on the state at time T.

図10は、本実施例のシステムにおける画像合成処理のフローチャートである。図10の画像合成処理は、全体制御部280において所定の時間間隔毎に実施する処理である。   FIG. 10 is a flowchart of image composition processing in the system of this embodiment. The image composition process in FIG. 10 is a process that is performed at predetermined time intervals in the overall control unit 280.

ステップ1000において画像合成処理が開始されると、まず、ステップ1001において全体映像入力の有無を判定する。この判定は全体入力状態フラグ281を参照することによって行う。ステップ1001における判定で全体映像入力がないと判定された場合には、ステップ1002に進んで状態モードフラグ284を「初期化未済」に設定し、続いてステップ1003に進んで映像出力部270からデフォルト画像データ285を出力した上で、ステップ1004に進んで画像合成処理を終了する。   When the image composition process is started in step 1000, first, in step 1001, it is determined whether or not there is an entire video input. This determination is made by referring to the entire input state flag 281. If it is determined in step 1001 that there is no entire video input, the process proceeds to step 1002 where the status mode flag 284 is set to “uninitialized”, and then the process proceeds to step 1003 to receive a default from the video output unit 270. After outputting the image data 285, the process proceeds to step 1004 and the image composition process is terminated.

ステップ1001における判定で全体映像入力があると判定された場合には、ステップ1005において入力画像データ更新処理を行う。ステップ1005の入力画像データ更新処理は、入力データ記憶部220を制御して、全体撮影装置201の撮影した画像データを全体入力画像データ221に、左面撮影装置202の撮影した画像データを左面入力画像データ222に、右面撮影装置203の撮影した画像データを右面入力画像データ223に、それぞれ格納する処理である。   If it is determined in step 1001 that there is an entire video input, input image data update processing is performed in step 1005. In the input image data update process in step 1005, the input data storage unit 220 is controlled so that the image data photographed by the whole photographing device 201 is the whole input image data 221 and the image data photographed by the left photographing device 202 is the left surface input image. This is a process of storing, in the data 222, image data taken by the right side photographing device 203 in the right side input image data 223, respectively.

左面撮影装置202からの入力がないことは左面入力状態フラグ282を参照することによって、右面撮影装置203からの入力がないことは右面入力状態フラグ283によって、それぞれ検出できるため、実際に図11以降の処理を実施する場合においては、左面入力状態フラグ282あるいは右面入力状態フラグ283に基づいて、適宜、左面入力画像データ222あるいは右面入力画像データ223に関する処理をスキップするように構成すればよいが、フローチャートが煩雑になるのを避けるため、本明細書中においては、便宜上、映像入力がない場合にはすべての画素値が「黒」であるような画像データを格納することとする。   Since there is no input from the left side photographing device 202 can be detected by referring to the left side input state flag 282 and no input from the right side photographing device 203 can be detected by the right side input state flag 283, respectively, actually FIG. In the case of performing the above process, the process regarding the left side input image data 222 or the right side input image data 223 may be appropriately skipped based on the left side input state flag 282 or the right side input state flag 283. In order to avoid complication of the flowchart, in this specification, for convenience, image data in which all pixel values are “black” when there is no video input is stored.

次に、ステップ1006において、初期化完了モードか否かを判定する。この判定は状態モードフラグ284を参照することによって行う。状態モードフラグ284が「初期化完了」である場合にはステップ1007の中間データ更新処理に進み、状態モードフラグ284が「初期化未済」である場合にはステップ1008の中間データ生成処理に進む。ステップ1008の中間データ生成処理に進んだ場合には、続いてステップ1009で状態モードフラグ284を「初期化完了」に設定する。なお、ステップ1007の中間データ更新処理に関しては図20を用いて、ステップ1008の中間データ生成処理に関しては図11を用いて、それぞれ説明する。   Next, in step 1006, it is determined whether or not the initialization completion mode. This determination is made by referring to the state mode flag 284. If the state mode flag 284 is “initialization complete”, the process proceeds to an intermediate data update process in step 1007. If the state mode flag 284 is “initialization not completed”, the process proceeds to an intermediate data generation process in step 1008. If the process proceeds to the intermediate data generation process in step 1008, the status mode flag 284 is set to “initialization complete” in step 1009. The intermediate data update process in step 1007 will be described with reference to FIG. 20, and the intermediate data generation process in step 1008 will be described with reference to FIG.

ステップ1007またはステップ1009の終了後、ステップ1010において合成画像データ出力処理を行う。これは、中間データ記憶部260に格納されている出力画像データ650を映像出力部270から出力する処理である。
ステップ1010の合成画像データ出力処理の終了後、ステップ1004に進んで画像合成処理を終了する。
After step 1007 or step 1009 is completed, a composite image data output process is performed in step 1010. This is a process of outputting the output image data 650 stored in the intermediate data storage unit 260 from the video output unit 270.
After completion of the composite image data output process in step 1010, the process proceeds to step 1004 to end the image composition process.

図11は、本実施例のシステムにおける中間データ生成処理のフローチャートである。
ステップ1100で中間データ生成処理が開始されると、まず、ステップ1101においてマップ画像データ初期化処理を行う。マップ画像データ初期化処理の詳細は、図12を用いて説明する。
FIG. 11 is a flowchart of intermediate data generation processing in the system of this embodiment.
When the intermediate data generation processing is started in step 1100, first, map image data initialization processing is performed in step 1101. Details of the map image data initialization process will be described with reference to FIG.

次に、ステップ1102において、色調補正処理を行う。色調補正処理は、色調補正用データ243に基づいて、全体入力画像データ221と左面入力画像データ222と右面入力画像データ223のそれぞれに画像補正を施した上で、あらためて、全体入力画像データ221、左面入力画像データ222、右面入力画像データ223として格納しなおす処理である。   Next, in step 1102, color tone correction processing is performed. In the color tone correction process, based on the color tone correction data 243, image correction is performed on each of the total input image data 221, the left side input image data 222, and the right side input image data 223, and then the total input image data 221, This process is to store the left side input image data 222 and the right side input image data 223 again.

次に、ステップ1103において、変換画像データ生成処理を行う。変換画像データ生成処理は、全体変換画像データ生成処理と、左面変換画像データ生成処理と、右面変換画像データ生成処理とで構成する。このうち、全体変換画像データ生成処理の詳細を図13を用いて説明する。左面変換画像データ生成処理は、全体変換画像データ生成処理において使用される全体マップ画像データ611の代わりに左面マップ画像データ612を、全体入力画像データ221の代わりに左面入力画像データ222を、全体変換画像データ621の代わりに左面変換画像データ622を、それぞれ使用すればよい。右面変換画像データ生成処理に関しても、同様である。   Next, in step 1103, a converted image data generation process is performed. The converted image data generation process includes a whole converted image data generation process, a left side converted image data generation process, and a right side converted image data generation process. Of these, details of the entire converted image data generation processing will be described with reference to FIG. In the left side conversion image data generation process, the left side map image data 612 is used instead of the whole map image data 611 used in the whole conversion image data generation process, and the left side input image data 222 is used instead of the whole input image data 221. Instead of the image data 621, the left side conversion image data 622 may be used. The same applies to the right side conversion image data generation processing.

次に、ステップ1104において、各面マップ画像データ生成処理を行う。各面マップ画像データ生成処理は、左面マップ画像データ生成処理と、右面マップ画像データ生成処理とで構成する。このうち、左面マップ画像データ生成処理の詳細を図14を用いて説明する。右面マップ画像データ生成処理に関しても、同様の処理で実施することができる。
次に、ステップ1105において、参照画像データ生成処理を行う。参照画像データ生成処理は、全体参照画像データ生成処理と、左面参照画像データ生成処理と、右面参照画像データ生成処理とで構成する。このうち、全体参照画像データ生成処理の詳細を図16を用いて説明する。左面参照画像データ生成処理は、全体参照画像データ生成処理において使用される全体入力画像データ221の代わりに左面入力画像データ222を、全体マップ画像データ611の代わりに左面マップ画像データ612を、全体参照画像データ631の代わりに左面参照画像データ632を、それぞれ使用すればよい。右面参照画像データ生成処理に関しても、同様である。
Next, in step 1104, each surface map image data generation process is performed. Each surface map image data generation process includes a left surface map image data generation process and a right surface map image data generation process. Of these, details of the left map image data generation processing will be described with reference to FIG. The right map image data generation process can also be performed by the same process.
Next, in step 1105, reference image data generation processing is performed. The reference image data generation process includes an overall reference image data generation process, a left side reference image data generation process, and a right side reference image data generation process. Of these, details of the overall reference image data generation processing will be described with reference to FIG. The left side reference image data generation process refers to the left side input image data 222 instead of the whole input image data 221 used in the whole reference image data generation process, and the left side map image data 612 instead of the whole map image data 611. The left side reference image data 632 may be used instead of the image data 631. The same applies to the right side reference image data generation processing.

次に、ステップ1106において、合成マップ画像データ生成処理を行う。合成マップ画像データ生成処理の詳細は、図17及び図18を用いて説明する。   Next, in step 1106, composite map image data generation processing is performed. Details of the composite map image data generation processing will be described with reference to FIGS. 17 and 18.

次に、ステップ1107において、出力画像データ生成処理を行う。出力画像データ生成処理の詳細は、図19を用いて説明する。   Next, in step 1107, output image data generation processing is performed. Details of the output image data generation processing will be described with reference to FIG.

上記の処理を終了後、ステップ1108において中間データ生成処理を終了する。
図12は、本実施例のシステムにおけるマップ画像データ初期化処理のフローチャートである。
After completing the above processing, the intermediate data generation processing is ended in step 1108.
FIG. 12 is a flowchart of map image data initialization processing in the system of this embodiment.

ステップ1200でマップ画像データ初期化処理が開始されると、まず、ステップ1201において内部パラメタデータ241を読み込み、続いてステップ1202において出力パラメタデータ244を読み込む。   When the map image data initialization process is started in step 1200, first, the internal parameter data 241 is read in step 1201, and then the output parameter data 244 is read in step 1202.

次に、ステップ1203において、全体用初期値生成処理を行う。全体用初期値生成処理は、出力画像データ650を生成するためには、出力画像データ650の各画素は、全体入力画像データ221のどの座標の画素値をサンプリングしてくればよいかを算出し、該参照元の座標値を全体マップ画像データ611に格納する処理である。参照元座標値の算出処理は、内部パラメタデータ241と出力パラメタデータ244とを用いて、公知の技術により容易に実施することができる。   Next, in step 1203, an overall initial value generation process is performed. In the overall initial value generation process, in order to generate the output image data 650, each pixel of the output image data 650 calculates which pixel value of the coordinates of the overall input image data 221 should be sampled. , A process of storing the coordinate value of the reference source in the entire map image data 611. The calculation process of the reference source coordinate value can be easily performed by a known technique using the internal parameter data 241 and the output parameter data 244.

次に、ステップ1204において、外部パラメタデータ242を読み込む。   Next, in step 1204, external parameter data 242 is read.

次に、ステップ1205において、左面用初期値生成処理を行う。左面用初期値生成処理は、出力画像データ650を生成するためには、出力画像データ650の各画素は、左面入力画像データ222のどの座標の画素値をサンプリングしてくればよいかを算出し、該参照元の座標値を左面マップ画像データ612に格納する処理である。ただしその際、被写体の立体形状等は分かっていないため、所定の曲面上にすべての被写体があるものと仮定して、参照元座標値の算出を行う。この参照元座標値の算出は、所定の曲面が与えられている場合に、内部パラメタデータ241と外部パラメタデータ242と出力パラメタデータ244とから容易に実施することができる。   Next, in step 1205, left side initial value generation processing is performed. In the initial value generation process for the left side, in order to generate the output image data 650, each pixel of the output image data 650 calculates which coordinate value of the left side input image data 222 should be sampled. , A process of storing the coordinate value of the reference source in the left map image data 612. However, since the three-dimensional shape of the subject is not known at that time, the reference source coordinate value is calculated on the assumption that all subjects are on a predetermined curved surface. The calculation of the reference source coordinate value can be easily performed from the internal parameter data 241, the external parameter data 242, and the output parameter data 244 when a predetermined curved surface is given.

次に、ステップ1206において右面用初期値生成処理を行う。右面用初期値生成処理は、左面用初期値生成処理と同様の処理によって実施することができる。   Next, in step 1206, right side initial value generation processing is performed. The right side initial value generation process can be performed by the same process as the left side initial value generation process.

上記の処理を終了した後、ステップ1207においてマップ画像データ初期化処理を終了する。   After the above process is completed, the map image data initialization process is ended in step 1207.

図13は、本実施例のシステムにおける全体変換画像データ生成処理のフローチャートである。   FIG. 13 is a flowchart of the entire converted image data generation process in the system of this embodiment.

ステップ1300で全体変換画像データ生成処理が開始されると、まず、ステップ1301において、処理すべき画素のシリアル番号であるnを0に初期化する。
次に、ステップ1302において、全体マップ画像データ611のn番目の画素の画素値を読み込む。
When the entire converted image data generation process is started in step 1300, first, in step 1301, n, which is the serial number of the pixel to be processed, is initialized to zero.
Next, in step 1302, the pixel value of the nth pixel of the entire map image data 611 is read.

次に、ステップ1303において、全体入力画像データ221上の、ステップ1302で読み込んだ参照元座標値に対応する位置の画素値を算出し、全体変換画像データ621のn番目の画素の画素値として設定する。ここで、参照元座標値は一般には整数値ではないが、画素値の算出は双線形補間などの公知の方法によって実施すればよい。
次に、ステップ1304において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ1305において、全体変換画像データ621中のすべての画素について処理が終了したか否かを判定する。全体変換画像データ621中のすべての画素について処理が終了している場合にはステップ1306に進んで全体変換画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ1302に進んで処理を続ける。
Next, in step 1303, the pixel value at the position corresponding to the reference source coordinate value read in step 1302 on the entire input image data 221 is calculated and set as the pixel value of the nth pixel in the entire converted image data 621. To do. Here, the reference source coordinate value is not generally an integer value, but the pixel value may be calculated by a known method such as bilinear interpolation.
Next, in step 1304, n, which is the serial number of the pixel to be processed, is incremented by 1, and in step 1305, it is determined whether or not the processing has been completed for all the pixels in the entire converted image data 621. If the process has been completed for all the pixels in the entire converted image data 621, the process proceeds to step 1306 to end the entire converted image data generation process. If there is a pixel that has not been processed yet, the process proceeds to step 1306. Proceed to 1302 and continue processing.

図14は、本実施例のシステムにおける左面マップ画像データ生成処理のフローチャートである。   FIG. 14 is a flowchart of left-side map image data generation processing in the system of this embodiment.

ステップ1400で左面マップ画像データ生成処理が開始されると、まず、ステップ1401において全体変換画像データ621を読み込み、続いてステップ1402において左面変換画像データ622を読み込む。   When the left side map image data generation process is started in step 1400, first, the entire converted image data 621 is read in step 1401, and then the left side converted image data 622 is read in step 1402.

次に、ステップ1403において、左面マップ修正画像データ生成処理を行う。左面マップ修正画像データ生成処理は、全体変換画像データ621と左面変換画像データ622とに基づいて、左面マップ画像データ612の誤差分を修正するための左面マップ修正画像データ614を生成する処理である。全体変換画像データ621の各画素位置について、左面変換画像データ622のどの座標位置からサンプリングしてくればよいかを算出すればよく、パターンマッチング等の公知の技術を用いて実施することができる。なお、対応が求まらない画素に関しては、例外値を格納し、以降の処理を適宜スキップできるようにしておけばよい。   Next, in step 1403, left-side map corrected image data generation processing is performed. The left side map corrected image data generation process is a process of generating left side map corrected image data 614 for correcting an error in the left side map image data 612 based on the whole converted image data 621 and the left side converted image data 622. . For each pixel position of the entire converted image data 621, it is only necessary to calculate from which coordinate position of the left plane converted image data 622 the sampling should be performed, and this can be performed using a known technique such as pattern matching. It should be noted that for pixels for which correspondence cannot be obtained, an exceptional value may be stored so that the subsequent processing can be skipped as appropriate.

次に、ステップ1404において、左面マップ画像データ合成処理を行う。左面マップ画像データ合成処理の詳細は、図15を用いて説明する。   Next, in step 1404, left side map image data composition processing is performed. Details of the left map image data composition processing will be described with reference to FIG.

上記処理を終了した後、ステップ1405において左面マップ画像データ生成処理を終了する。   After the above process is finished, the left map image data generation process is finished in step 1405.

図15は、本実施例のシステムにおけるマップ画像データの合成方法の説明図である。
左面マップ修正画像データ1510上の画素1511の参照元座標値が、左面マップ画像データ1520上の座標値1521であり、座標値1521の参照元座標値が、左面入力データ1530の座標値1531であるとき、左面マップ修正画像データ1510上の画素1511の参照元座標値を、座標値1531に更新する。この更新を左面マップ修正画像データ1510のすべての画素に対して実施した後、左面マップ修正画像データ1510を、あらためて、左面マップ画像データ1520として保存する。
FIG. 15 is an explanatory diagram of a map image data synthesis method in the system of this embodiment.
The reference source coordinate value of the pixel 1511 on the left side map corrected image data 1510 is the coordinate value 1521 on the left side map image data 1520, and the reference source coordinate value of the coordinate value 1521 is the coordinate value 1531 of the left side input data 1530. At this time, the reference source coordinate value of the pixel 1511 on the left side map corrected image data 1510 is updated to the coordinate value 1531. After this update is performed on all the pixels of the left-side map corrected image data 1510, the left-side map corrected image data 1510 is stored again as the left-side map image data 1520.

ここで、座標値1521は一般に画素中心の位置に一致しないため、双線形補間などによって座標値1531を算出する必要がある。すなわち、図15において、座標値1521の参照元座標値を求める代わりに、画素中心の位置にある座標値1522及び座標値1523及び座標値1524及び座標値1525のそれぞれに対して左面マップ画像データ1520の画素値を参照して参照元座標値を求め、それらの双線形補間を行うことで座標値1521に対応する座標値1531を算出する。   Here, since the coordinate value 1521 generally does not coincide with the position of the pixel center, it is necessary to calculate the coordinate value 1531 by bilinear interpolation or the like. That is, in FIG. 15, instead of obtaining the reference source coordinate value of the coordinate value 1521, the left map image data 1520 for each of the coordinate value 1522, the coordinate value 1523, the coordinate value 1524, and the coordinate value 1525 at the pixel center position. The coordinate value 1531 corresponding to the coordinate value 1521 is calculated by obtaining a reference source coordinate value with reference to the pixel values of the pixel values and performing bilinear interpolation on the reference source coordinate values.

図16は、本実施例のシステムにおける全体参照画像データ生成処理のフローチャートである。   FIG. 16 is a flowchart of overall reference image data generation processing in the system of the present embodiment.

ステップ1600で全体参照画像データ生成処理が開始されると、まず、ステップ1601において、処理すべき画素のシリアル番号であるnを0に初期化する。
次に、ステップ1602において、全体マップ画像データ611のn番目の画素の画素値を読み込む。
When the entire reference image data generation process is started in step 1600, first, in step 1601, n, which is the serial number of the pixel to be processed, is initialized to zero.
Next, in step 1602, the pixel value of the nth pixel of the entire map image data 611 is read.

次に、ステップ1603において、全体入力画像データ221上の、ステップ1602で読み込んだ参照元座標値に対応する位置の画素値を算出し、全体参照画像データ631のn番目の画素の画素値として設定する。ここで、参照元座標値は一般には整数値ではないが、画素値の算出は双線形補間などの公知の方法によって実施すればよい。   Next, in step 1603, the pixel value at the position corresponding to the reference source coordinate value read in step 1602 on the entire input image data 221 is calculated and set as the pixel value of the nth pixel of the entire reference image data 631. To do. Here, the reference source coordinate value is not generally an integer value, but the pixel value may be calculated by a known method such as bilinear interpolation.

次に、ステップ1604において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ1605において、全体参照画像データ631中のすべての画素について処理が終了したか否かを判定する。全体参照画像データ631中のすべての画素について処理が終了している場合にはステップ1606に進んで全体参照画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ1602に進んで処理を続ける。   In step 1604, n, which is the serial number of the pixel to be processed, is incremented by 1. Subsequently, in step 1605, it is determined whether or not the processing has been completed for all the pixels in the overall reference image data 631. If the process has been completed for all the pixels in the overall reference image data 631, the process proceeds to step 1606 to end the overall reference image data generation process, and if there is a pixel that has not been completed yet, the process proceeds to step 1606. Proceeding to 1602, processing continues.

図17は、本実施例のシステムにおける合成マップ画像データ生成処理のフローチャートである。   FIG. 17 is a flowchart of the composite map image data generation process in the system of this embodiment.

ステップ1700において合成マップ画像データ生成処理が開始されると、まず、ステップ1701において、処理すべき画素のシリアル番号であるnを0に初期化する。
次に、ステップ1702において、全体参照画像データ631のn番目の画素の画素値VTと、左面参照画像データ632のn番目の画素の画素値VLと、右面参照画像データ633のn番目の画素の画素値VRとを読み込む。
When the composite map image data generation process is started in step 1700, first, in step 1701, n, which is the serial number of the pixel to be processed, is initialized to zero.
Next, in step 1702, the pixel value VT of the nth pixel of the overall reference image data 631, the pixel value VL of the nth pixel of the left surface reference image data 632, and the nth pixel of the right surface reference image data 633. The pixel value VR is read.

次に、ステップ1703において、採用画素決定処理を行う。採用画素決定処理の詳細については、図18を用いて説明する。   Next, in step 1703, adopted pixel determination processing is performed. Details of the adopted pixel determination process will be described with reference to FIG.

次に、ステップ1704において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ1705において、合成マップ画像データ616中のすべての画素について処理が終了したか否かを判定する。合成マップ画像データ616中のすべての画素について処理が終了している場合にはステップ1706に進んで合成マップ画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ1702に進んで処理を続ける。   In step 1704, n, which is the serial number of the pixel to be processed, is incremented by 1. Subsequently, in step 1705, it is determined whether or not processing has been completed for all the pixels in the composite map image data 616. If the process has been completed for all the pixels in the composite map image data 616, the process proceeds to step 1706 to end the composite map image data generation process, and if there is a pixel that has not been processed yet, the process proceeds to step 1706. Proceed to 1702 and continue processing.

図18は、本実施例のシステムにおける採用画素決定処理のフローチャートである。   FIG. 18 is a flowchart of adopted pixel determination processing in the system of this embodiment.

ステップ1800において採用画素決定処理が開始されると、まず、ステップ1801において所定の閾値に基づいてVTとVLの差が許容範囲内にあるか否かを判定する。ステップ1801において許容範囲内であると判定された場合には、ステップ1802に進み、合成マップ画像データ616のn番目の画素の画素値として、入力データ識別子721には「左面入力画像データ」を設定し、参照元X座標値722には左面マップ画像データ612のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には左面マップ画像データ612のn番目の画素の画素値である参照元Y座標値712を設定する。   When the adopted pixel determination process is started in step 1800, it is first determined in step 1801 whether or not the difference between VT and VL is within an allowable range based on a predetermined threshold value. If it is determined in step 1801 that the value is within the allowable range, the process proceeds to step 1802 where “left-side input image data” is set in the input data identifier 721 as the pixel value of the nth pixel in the composite map image data 616. The reference source X coordinate value 722 is set to the reference source X coordinate value 711 which is the pixel value of the nth pixel of the left side map image data 612, and the reference source Y coordinate value 723 is set to n of the left side map image data 612. A reference source Y coordinate value 712 that is the pixel value of the th pixel is set.

ステップ1801において許容範囲外であると判定された場合には、ステップ1803の処理に進む。ステップ1803では、所定の閾値に基づいてVTとVRの差が許容範囲内にあるか否かを判定する。ステップ1803において許容範囲内であると判定された場合には、ステップ1804に進み、合成マップ画像データのn番目の画素の画素値として、入力データ識別子721には「右面入力画像データ」を設定し、参照元X座標値722には右面マップ画像データ613のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には右面マップ画像データ613のn番目の画素の画素値である参照元Y座標値712を設定する。   If it is determined in step 1801 that the value is outside the allowable range, the process proceeds to step 1803. In step 1803, it is determined whether or not the difference between VT and VR is within an allowable range based on a predetermined threshold. If it is determined in step 1803 that the value is within the allowable range, the process proceeds to step 1804 where “right-side input image data” is set in the input data identifier 721 as the pixel value of the nth pixel of the composite map image data. The reference source X coordinate value 722 is set with the reference source X coordinate value 711 that is the pixel value of the n th pixel of the right side map image data 613, and the reference source Y coordinate value 723 is set to the n th number of the right side map image data 613. A reference source Y-coordinate value 712 that is the pixel value of this pixel is set.

ステップ1803において許容範囲外であると判定された場合には、ステップ1805に進み、合成マップ画像データのn番目の画素の画素値として、入力データ識別子721には「全体入力画像データ」を設定し、参照元X座標値722には全体マップ画像データ611のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には全体マップ画像データ611のn番目の画素の画素値である参照元Y座標値712を設定する。   If it is determined in step 1803 that the value is outside the allowable range, the process proceeds to step 1805, where “total input image data” is set in the input data identifier 721 as the pixel value of the nth pixel of the composite map image data. The reference source X coordinate value 722 is set to the reference source X coordinate value 711 that is the pixel value of the nth pixel of the entire map image data 611, and the reference source Y coordinate value 723 is set to the nth pixel of the entire map image data 611. A reference source Y-coordinate value 712 that is the pixel value of this pixel is set.

以上、ステップ1802、ステップ1804、ステップ1805、のいずれかの処理の終了後、ステップ1806において採用画素決定処理を終了する。   As described above, after completion of any one of the processing in step 1802, step 1804, and step 1805, the adopted pixel determination processing is terminated in step 1806.

図19は、本実施例のシステムにおける出力画像データ生成処理のフローチャートである。   FIG. 19 is a flowchart of output image data generation processing in the system of this embodiment.

ステップ1900において出力画像データ生成処理が開始されると、まず、ステップ1901において、処理すべき画素のシリアル番号であるnを0に初期化し、続いてステップ1902において、合成マップ画像データ616のn番目の画素の画素値を読み込む。
次に、ステップ1903において、ステップ1902で読み込んだ画素値の入力データ識別子721で表される入力データ上で、参照元X座標値722と参照元Y座標値723で表される座標の画素値を算出し、出力画像データ650のn番目の画素の画素値として設定する。ここで、参照元X座標値722及び参照元Y座標値723は一般には整数値ではないが、画素値の算出は双線形補間などの公知の方法により実施すればよい。
When the output image data generation process is started in step 1900, first, n, which is the serial number of the pixel to be processed, is initialized to 0 in step 1901, and then in step 1902, the nth of the composite map image data 616 is initialized. The pixel value of the pixel is read.
Next, in step 1903, the pixel value of the coordinates represented by the reference source X coordinate value 722 and the reference source Y coordinate value 723 is obtained on the input data represented by the input data identifier 721 of the pixel value read in step 1902. Calculate and set as the pixel value of the nth pixel of the output image data 650. Here, the reference source X coordinate value 722 and the reference source Y coordinate value 723 are generally not integer values, but the pixel value may be calculated by a known method such as bilinear interpolation.

次に、ステップ1904において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ1905において、出力画像データ650中のすべての画素について処理が終了したか否かを判定する。出力画像データ650中のすべての画素について処理が終了している場合にはステップ1906に進んで出力画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ1902に進んで処理を続ける。   Next, n, which is the serial number of the pixel to be processed, is incremented by 1 in step 1904, and then in step 1905, it is determined whether or not the processing has been completed for all the pixels in the output image data 650. If all pixels in the output image data 650 have been processed, the process proceeds to step 1906 to end the output image data generation process. If there are pixels that have not been processed yet, the process proceeds to step 1902. Proceed and continue processing.

図20は、本実施例のシステムにおける中間データ更新処理のフローチャートである。   FIG. 20 is a flowchart of intermediate data update processing in the system of this embodiment.

ステップ2000において中間データ更新処理が開始されると、まず、ステップ2001において色調補正処理を行う。ステップ2001における色調補正処理は、ステップ1102における色調補正処理と同一の処理である。   When the intermediate data update process is started in step 2000, first, a color tone correction process is performed in step 2001. The color tone correction process in step 2001 is the same process as the color tone correction process in step 1102.

次に、ステップ2002において、変換画像データ生成処理を行う。ステップ2002における変換画像データ生成処理は、ステップ1103における変換画像データ生成処理と同一の処理である。   Next, in step 2002, a converted image data generation process is performed. The converted image data generation process in step 2002 is the same process as the converted image data generation process in step 1103.

次に、ステップ2003において、変化画像データ生成処理を行う。変化画像データ生成処理は、全体変化画像データ生成処理と、左面変化画像データ生成処理と、右面変化画像データ生成処理とで構成する。このうち、全体変化画像データ生成処理の詳細を図21を用いて説明する。左面変化画像データ生成処理は、全体変化画像データ生成処理において使用される全体参照画像データ631の代わりに左面参照画像データ632を、全体変換画像データ621の代わりに左面変換画像データ622を、全体変化画像データ641の代わりに左面変化画像データ642を、それぞれ使用すればよい。右面変化画像データ生成処理に関しても、同様である。   Next, in step 2003, change image data generation processing is performed. The change image data generation process includes an entire change image data generation process, a left face change image data generation process, and a right face change image data generation process. Of these, details of the entire change image data generation processing will be described with reference to FIG. In the left side change image data generation processing, the left side reference image data 632 is used instead of the whole reference image data 631 used in the whole change image data generation processing, and the left side conversion image data 622 is used instead of the whole conversion image data 621. The left side change image data 642 may be used instead of the image data 641. The same applies to the right-side change image data generation processing.

次に、ステップ2004において、各面マップ画像データ更新処理を行う。各面マップ画像データ更新処理は、左面マップ画像データ更新処理と、右面マップ画像データ更新処理とで構成する。このうち、左面マップ画像データ更新処理の詳細を図22を用いて説明する。右面マップ画像データ更新処理に関しても、同様の処理で実施することができる。   Next, in step 2004, each surface map image data update process is performed. Each surface map image data update process includes a left surface map image data update process and a right surface map image data update process. Of these, details of the left map image data update processing will be described with reference to FIG. The right map image data update process can also be performed by the same process.

次に、ステップ2005において、参照画像データ生成処理を行う。ステップ2005における参照画像データ生成処理は、ステップ1105における参照画像データ生成処理と同一の処理である。   Next, in step 2005, reference image data generation processing is performed. The reference image data generation process in step 2005 is the same process as the reference image data generation process in step 1105.

次に、ステップ2006において、合成マップ画像データ生成処理を行う。ステップ2006における合成マップ画像データ生成処理は、ステップ1106における合成マップ画像データ生成処理と同一の処理である。   Next, in step 2006, composite map image data generation processing is performed. The composite map image data generation process in step 2006 is the same process as the composite map image data generation process in step 1106.

次に、ステップ2007において、出力画像データ生成処理を行う。ステップ2007における出力画像データ生成処理は、ステップ1107における出力画像データ生成処理と同一の処理である。   Next, in step 2007, output image data generation processing is performed. The output image data generation process in step 2007 is the same process as the output image data generation process in step 1107.

以上の処理を終了後、ステップ2008において中間データ更新処理を終了する。
図21は、本実施例のシステムにおける全体変化画像データ生成処理のフローチャートである。
After completing the above processing, in step 2008, the intermediate data update processing is ended.
FIG. 21 is a flowchart of overall change image data generation processing in the system of this embodiment.

ステップ2100において全体変化画像データ生成処理が開始されると、まず、ステップ2101において、処理すべき画素のシリアル番号であるnを0に初期化する。
次に、ステップ2102において、全体参照画像データ631のn番目の画素の画素値V0を読み込み、続いてステップ2103において、全体変換画像データ621のn番目の画素の画素値V1を読み込む。
When the whole change image data generation process is started in step 2100, first, in step 2101, n, which is the serial number of the pixel to be processed, is initialized to 0.
Next, in step 2102, the pixel value V0 of the nth pixel of the entire reference image data 631 is read. Subsequently, in step 2103, the pixel value V1 of the nth pixel of the entire converted image data 621 is read.

次に、ステップ2104において、所定の閾値に基づいてV0とV1の差が許容範囲内であるか否かを判定する。ステップ2104で許容範囲内であると判定された場合には、ステップ2105に進んで全体変化画像データ641のn番目の画素の画素値を0にする。ステップ2104で許容範囲外であると判定された場合には、ステップ2106に進んで全体変化画像データ641のn番目の画素の画素値を1にする。   Next, in step 2104, it is determined whether or not the difference between V0 and V1 is within an allowable range based on a predetermined threshold. If it is determined in step 2104 that the value is within the allowable range, the process proceeds to step 2105 to set the pixel value of the nth pixel of the entire change image data 641 to 0. If it is determined in step 2104 that the value is outside the allowable range, the process proceeds to step 2106 to set the pixel value of the nth pixel of the entire change image data 641 to 1.

ステップ2105またはステップ2106の終了後、ステップ2107において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ2108において、全体変化画像データ641中のすべての画素について処理が終了したか否かを判定する。全体変化画像データ641中のすべての画素について処理が終了している場合にはステップ2109に進んで全体変化画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ2102に進んで処理を続ける。   After step 2105 or step 2106, n, which is the serial number of the pixel to be processed in step 2107, is incremented by 1. Subsequently, in step 2108, whether or not the processing has been completed for all the pixels in the whole change image data 641. Determine. If the process has been completed for all the pixels in the whole change image data 641, the process proceeds to step 2109 to end the whole change image data generation process, and if there is a pixel that has not been finished, step is performed. Go to 2102 and continue processing.

図22は、本実施例のシステムにおける左面マップ画像データ更新処理のフローチャートである。   FIG. 22 is a flowchart of left map image data update processing in the system of the present embodiment.

ステップ2200において左面マップ画像データ更新処理が開始されると、まず、ステップ2201において全体変換画像データ621と左面変換画像データ622とを読み込み、続いてステップ2202において、全体変化画像データ641及び左面変化画像データ642を読み込む。   When the left side map image data update process is started in step 2200, first, the whole converted image data 621 and the left side converted image data 622 are read in step 2201, and then in step 2202, the whole changed image data 641 and the left side changed image are read. Data 642 is read.

次に、ステップ2203において左面マップ修正画像データ更新処理を行う。左面マップ修正画像データ更新処理は、全体変化画像データ641または左面変化画像データ642のいずれかにおいて画素値が1であるような画素に関しては、図14のステップ1403で説明した左面マップ修正画像データ生成処理と同様にして左面マップ修正画像データ614の画素値を決定し、全体変化画像データ641及び左面変化画像データ642の両方で画素値が0であるような画素に関しては、該画素の座標値をそのまま該画素の参照元座標値として設定する処理である。変化画像データを使用することで、状態が変化した領域があらかじめ分かるため、パターンマッチング等の処理の高速化・頑健化が期待できる。また、状態の変化がない部分に関する計算量の削減が図れるため、処理の高速化が期待できる。   Next, in step 2203, a left map corrected image data update process is performed. In the left-side map corrected image data update processing, the left-side map corrected image data generation described in step 1403 of FIG. 14 is performed for pixels whose pixel value is 1 in either the entire changed image data 641 or the left-side changed image data 642. The pixel value of the left-side map modified image data 614 is determined in the same manner as the processing, and for the pixel whose pixel value is 0 in both the entire change image data 641 and the left-side change image data 642, the coordinate value of the pixel is set. This is a process of setting the reference source coordinate value of the pixel as it is. By using the change image data, the region where the state has changed can be known in advance, so that the processing such as pattern matching can be expected to be faster and more robust. In addition, since the amount of calculation related to a portion where there is no change in the state can be reduced, the processing speed can be increased.

次に、ステップ2204において左面マップ画像データ合成処理を行う。ステップ2204における左面マップ画像データ合成処理は、図14のステップ1404で説明した左面マップ画像データ合成処理と同じ処理である。
以上の処理を終了後、ステップ2205において左面マップ画像データ更新処理を終了する。
図60は、ハードウェア構成図である。
Next, in step 2204, left side map image data composition processing is performed. The left side map image data composition process in step 2204 is the same process as the left side map image data composition process described in step 1404 of FIG.
After finishing the above processing, the left map image data update processing is finished in step 2205.
FIG. 60 is a hardware configuration diagram.

画像合成装置6000は、USBインターフェース6011と、USBインターフェース6012と、USBインターフェース6013と、CPU6020と、メモリ6021と、ハードディスク6022と、画像ボード6023と、ネットワークカード6024とで構成する。
ハードディスク6022には、これまでに説明した各種処理に対応する各種プログラムと、全体制御部280に格納されるべき各種データ、及び、パラメタ記憶部240に格納されるべき各種データ、を格納しておく。
The image composition device 6000 includes a USB interface 6011, a USB interface 6012, a USB interface 6013, a CPU 6020, a memory 6021, a hard disk 6022, an image board 6023, and a network card 6024.
The hard disk 6022 stores various programs corresponding to the various processes described so far, various data to be stored in the overall control unit 280, and various data to be stored in the parameter storage unit 240. .

本実施例のシステムは、図60に示すハードウェア構成で、ハードディスク6022からメモリ6021にロードされた各種プログラムが、CPU6020によって実行されることにより実現される。
入力データ記憶部220と中間データ記憶部260の機能は、メモリ6021によって実現され、映像入力部210の機能は、USBインターフェース6011と、USBインターフェース6012と、USBインターフェース6013によって実現され、映像出力部270の機能は画像ボード6023によって実現され、パラメタ設定部250の機能はネットワークカード6024によって実現される。
The system of this embodiment is realized by the CPU 6020 executing various programs loaded from the hard disk 6022 to the memory 6021 with the hardware configuration shown in FIG.
The functions of the input data storage unit 220 and the intermediate data storage unit 260 are realized by the memory 6021, and the function of the video input unit 210 is realized by the USB interface 6011, the USB interface 6012, and the USB interface 6013, and the video output unit 270. Is realized by the image board 6023, and the function of the parameter setting unit 250 is realized by the network card 6024.

また、全体撮影装置201、左面撮影装置202、右面撮影装置203の機能は、それぞれ、USBカメラ6001、USBカメラ6002、USBカメラ6003によって実現される。   Further, the functions of the whole image capturing device 201, the left surface image capturing device 202, and the right surface image capturing device 203 are realized by the USB camera 6001, the USB camera 6002, and the USB camera 6003, respectively.

なお、ハードディスク6022が備えるべき機能としては、記憶した情報が電源断などによって失われないものであればよく、不揮発性のメモリでも代用可能であるし、CD−ROMやフロッピー(登録商標)ディスクのようなメディアと該メディアを読み込むためのインターフェースとの組で代用することもできる。   It should be noted that the hard disk 6022 should have a function as long as the stored information is not lost when the power is turned off, and can be replaced by a non-volatile memory, or a CD-ROM or floppy (registered trademark) disk. A combination of such media and an interface for reading the media can be used instead.

また、USBインターフェース6011と、USBインターフェース6012と、USBインターフェース6013が備えるべき機能は、画像合成装置200への入力信号をデジタル画像データとしてメモリ6021に書き込むことであり、入力信号に応じてUSBインターフェースの代わりに適切なものを使用すればよい。例えば、入力信号がアナログ信号である場合にはA/D変換機能を有するキャプチャカードを使用すればよいし、入力信号がネットワークを介して送られてくるデジタルデータである場合にはネットワークカードを使用すればよい。   A function that the USB interface 6011, the USB interface 6012, and the USB interface 6013 should have is that an input signal to the image composition device 200 is written in the memory 6021 as digital image data. Instead, use the appropriate one. For example, when the input signal is an analog signal, a capture card having an A / D conversion function may be used, and when the input signal is digital data sent via a network, a network card is used. do it.

また、画像ボード6023が備えるべき機能は、合成した画像データを外部に出力することであり、D/A変換機能の有無は、出力先に応じて変更すればよい。さらに、合成したデータをハードディスク等の記憶媒体に記憶する場合には該媒体に対応するインターフェースを使用すればよいし、ネットワークを介して伝送する場合にはネットワークカードを使用すればよい。さらに、該ネットワークカードとしてMPEG2エンコード機能などのデータ圧縮機能を有するものを使用するようにしてもよい。   The function that the image board 6023 should have is to output the combined image data to the outside, and the presence / absence of the D / A conversion function may be changed according to the output destination. Furthermore, when storing the synthesized data in a storage medium such as a hard disk, an interface corresponding to the medium may be used, and when transmitting the data via a network, a network card may be used. Further, a network card having a data compression function such as an MPEG2 encoding function may be used.

また、ネットワークカード6024が備えるべき機能は、パラメタ記憶部240に格納されるべき各種データをハードディスク6022に書き込めることであり、CD−ROMやフロッピー(登録商標)ディスクのようなメディアと該メディアを読み込むためのインターフェースとの組で代用してもよいし、キーボードなどの外部入力インターフェースで代用するようにしてもよい。 なお、本ハードウェア構成は、他の実施例にも適用可能である。   A function that the network card 6024 should have is that various data to be stored in the parameter storage unit 240 can be written in the hard disk 6022, and a medium such as a CD-ROM or a floppy (registered trademark) disk and the medium are read. For example, a pair with an interface may be substituted, or an external input interface such as a keyboard may be substituted. This hardware configuration can also be applied to other embodiments.

以上、本実施例によれば、1つの撮影装置で撮影した画像データと整合性のある画像データが撮像されることを保証しつつ、複数の撮影装置を使って高解像度の画像データを生成することが可能となる。   As described above, according to the present embodiment, high-resolution image data is generated using a plurality of imaging devices while ensuring that image data consistent with image data captured by one imaging device is captured. It becomes possible.

なお、本実施例においては、処理速度及び頑健性の観点から変化画像データを使用するように構成したが、本発明の実施の形態はこれに限るものではなく、常にすべての画素に対して処理を行うようにしてもよいことは明らかである。   In this embodiment, the change image data is used from the viewpoint of processing speed and robustness. However, the embodiment of the present invention is not limited to this, and processing is always performed for all pixels. Obviously, it may be possible to do this.

以下、図23〜図33を用いて、第2の実施の形態について説明する。   Hereinafter, the second embodiment will be described with reference to FIGS. 23 to 33.

本実施例は、実施例1に記載の例に対して、より単純な処理の組み合わせによって中間データを更新できるようにした例である。
図23は、本実施例のシステムのシステム構成図である。図23において、図2と同じ符号は、図2と同じものを表す。また、図6と同じ符号は、図6と同じものを表す。
本実施例の画像合成装置2300は、画像合成装置200に対して、中間データ記憶部2360を、デプス画像データ2360と探索用デプス集合データ2370とを格納できるように構成し、さらに、画像処理部2330で実施する中間データ生成処理及び中間データ更新処理に変更を加えたものである。
The present embodiment is an example in which intermediate data can be updated by a simpler combination of processes with respect to the example described in the first embodiment.
FIG. 23 is a system configuration diagram of the system of this embodiment. 23, the same reference numerals as those in FIG. 2 denote the same elements as those in FIG. The same reference numerals as those in FIG. 6 denote the same elements as those in FIG.
In the image composition device 2300 of this embodiment, the intermediate data storage unit 2360 is configured to store the depth image data 2360 and the search depth set data 2370 with respect to the image composition device 200, and further, the image processing unit The intermediate data generation process and the intermediate data update process executed in 2330 are modified.

ここで、デプス画像データ2360は、全体デプス画像データ2361と背景デプス画像データ2362とで構成する。ここで、全体デプス画像データ2361と背景デプス画像データ2362の解像度は、出力画像データ650の解像度と等しくなるように構成する。   Here, the depth image data 2360 is composed of entire depth image data 2361 and background depth image data 2362. Here, the resolution of the entire depth image data 2361 and the background depth image data 2362 is configured to be equal to the resolution of the output image data 650.

また、探索用デプス集合データ2370は、所定のデプス値の集合である規定探索デプス集合データ2371と、臨時探索距離集合データ2372と、最大探索距離集合データ2373とで構成する。規定探索デプス集合データ2371の構成方法については図26を用いて、臨時探索距離集合データ2372と最大探索距離集合データ2373の構成方法については図31を用いて、それぞれ説明する。   Further, the search depth set data 2370 is composed of prescribed search depth set data 2371 that is a set of predetermined depth values, temporary search distance set data 2372, and maximum search distance set data 2373. The configuration method of the prescribed search depth set data 2371 will be described with reference to FIG. 26, and the configuration method of the temporary search distance set data 2372 and the maximum search distance set data 2373 will be described with reference to FIG.

図24は、本実施例のシステムにおける中間データ生成処理のフローチャートである。図24において、図11と同じ符号は、図11と同じ処理を表す。
ステップ2401のデプス画像データ生成処理の詳細については、図25を用いて説明する。
FIG. 24 is a flowchart of intermediate data generation processing in the system of this embodiment. 24, the same reference numerals as those in FIG. 11 represent the same processes as those in FIG.
Details of the depth image data generation processing in step 2401 will be described with reference to FIG.

ステップ2402の各面マップ画像データ生成処理は、左面マップ画像データ生成処理と、右面マップ画像データ生成処理とで構成する。このうち、左面マップ画像データ生成処理の詳細を図27を用いて説明する。右面マップ画像データ生成処理に関しても、同様の処理で実施することができる。   Each surface map image data generation process in step 2402 includes a left map image data generation process and a right map image data generation process. Of these, details of the left map image data generation processing will be described with reference to FIG. The right map image data generation process can also be performed by the same process.

図25は、本実施例のシステムにおけるデプス画像データ生成処理のフローチャートである。   FIG. 25 is a flowchart of depth image data generation processing in the system of this embodiment.

ステップ2500においてデプス画像データ生成処理が開始されると、まず、ステップ2501において、処理すべき画素のシリアル番号であるnを0に初期化する。   When the depth image data generation process is started in step 2500, first, in step 2501, n, which is the serial number of the pixel to be processed, is initialized to zero.

次に、ステップ2502において、出力パラメタデータ244と出力画像データ650のn番目の画素位置とで規定される、投影中心位置を基点として画素位置方向を向くような3次元方向に関して、所定の適合率評価関数に基づいて、各々の規定デプス集合データに含まれるデプス値ごとに、デプス値が当該デプス値の場合の適合率を算出する。   Next, in step 2502, a predetermined precision ratio with respect to a three-dimensional direction that is defined by the output parameter data 244 and the nth pixel position of the output image data 650 and that faces the pixel position direction from the projection center position as a base point. Based on the evaluation function, for each depth value included in each specified depth set data, a precision ratio when the depth value is the depth value is calculated.

次に、ステップ2503において、ステップ2502で算出した適合率が最も高いデプス値を選択し、全体デプス画像データ2361のn番目の画素値として設定する。   Next, in step 2503, the depth value with the highest relevance ratio calculated in step 2502 is selected and set as the nth pixel value of the entire depth image data 2361.

次に、ステップ2504において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ2505において、全体デプス画像データ2361中のすべての画素について処理が終了したか否かを判定する。全体デプス画像データ2361中のすべての画素について処理が終了している場合にはステップ2506に進み、未だ処理が終了していない画素が存在する場合にはステップ2502に進んで処理を続ける。   Next, in step 2504, n, which is the serial number of the pixel to be processed, is incremented by 1, and in step 2505, it is determined whether or not the processing has been completed for all the pixels in the entire depth image data 2361. If all pixels in the entire depth image data 2361 have been processed, the process proceeds to step 2506. If there is a pixel that has not been processed yet, the process proceeds to step 2502 to continue the process.

ステップ2506において背景デプス画像データ2362の各画素の画素値を全体デプス画像データ2361の同位置の画素の画素値と同じ値に設定した後、ステップ2507においてデプス画像データ生成処理を終了する。   In step 2506, the pixel value of each pixel of the background depth image data 2362 is set to the same value as the pixel value of the pixel at the same position in the entire depth image data 2361. Then, in step 2507, the depth image data generation process is terminated.

図26は、本実施例のシステムにおける規定探索デプス集合データ2371の構成方法を説明するための図である。   FIG. 26 is a diagram for explaining a method of configuring the prescribed search depth set data 2371 in the system of the present embodiment.

図26において、白丸が、各々1つのデプス値を表す。本実施例においては、所定の最小デプス値2610及び最大デプス値2611に対して、デプス集合データ2620のようにデプス値を等間隔に配置してもよいし、「画像データ上でのずれの量が概ね等しくなるように」という観点から、デプス集合データ2621のようにデプス値が小さい領域ほど密に配置してもよい。   In FIG. 26, each white circle represents one depth value. In this embodiment, the depth values may be arranged at equal intervals as in the depth set data 2620 with respect to the predetermined minimum depth value 2610 and the maximum depth value 2611, or “the amount of deviation on the image data” From the viewpoint of “so that they are substantially equal”, the smaller the depth value, such as the depth set data 2621, may be densely arranged.

図27は、本実施例のシステムにおける左面マップ画像データ生成処理のフローチャートである。   FIG. 27 is a flowchart of left-side map image data generation processing in the system of the present embodiment.

ステップ2700において左面マップ画像データ生成処理が開始されると、まず、ステップ2701において、処理すべき画素のシリアル番号であるnを0に初期化する。
次に、ステップ2702において、出力パラメタデータ244と出力画像データ650のn番目の画素位置とで規定される、投影中心位置を基点として画素位置方向を向くような3次元方向に関して、全体デプス画像データ2361上のデプス値から三次元空間上での位置Pを決定する。
When the left map image data generation process is started in step 2700, first, in step 2701, n, which is the serial number of the pixel to be processed, is initialized to 0.
Next, in step 2702, the entire depth image data with respect to a three-dimensional direction that is defined by the output parameter data 244 and the nth pixel position of the output image data 650 and that faces the pixel position direction from the projection center position as a base point. A position P in the three-dimensional space is determined from the depth value on 2361.

次に、ステップ2703において、ステップ2702で決定した位置Pと内部パラメタデータ241と外部パラメタデータ242に基づいて、左面入力画像データ222上の対応する位置を決定し、左面マップ画像データ612のn番目の画素の画素値として設定する。   Next, in step 2703, a corresponding position on the left side input image data 222 is determined based on the position P determined in step 2702, the internal parameter data 241 and the external parameter data 242, and the nth of the left side map image data 612 is determined. Is set as the pixel value of the pixel.

次に、ステップ2704において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ2705において、左面マップ画像データ612中のすべての画素について処理が終了したか否かを判定する。左面マップ画像データ612中のすべての画素について処理が終了している場合にはステップ2706に進んで左面マップ画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ2702に進んで処理を続ける。   Next, in step 2704, n, which is the serial number of the pixel to be processed, is incremented by 1, and then, in step 2705, it is determined whether or not the processing has been completed for all the pixels in the left map image data 612. If the process has been completed for all the pixels in the left-side map image data 612, the process proceeds to step 2706 to end the left-side map image data generation process, and if there are pixels that have not been processed yet, the step is completed. Proceed to 2702 and continue processing.

図28は、本実施例のシステムにおける中間データ更新処理のフローチャートである。図28において、図20と同じ符号は、図20と同じ処理を表す。
ステップ2801の全体デプス画像データ更新処理の詳細に関しては、図29を用いて説明する。
FIG. 28 is a flowchart of the intermediate data update process in the system of this embodiment. 28, the same reference numerals as those in FIG. 20 represent the same processes as those in FIG.
Details of the entire depth image data update processing in step 2801 will be described with reference to FIG.

ステップ2802の背景デプス画像データ更新処理の詳細に関しては、図32を用いて説明する。   Details of the background depth image data update processing in step 2802 will be described with reference to FIG.

ステップ2803の各面マップ画像データ更新処理は、左面マップ画像データ更新処理と、右面マップ画像データ更新処理とで構成する。このうち、左面マップ画像データ更新処理の詳細を図33を用いて説明する。右面マップ画像データ更新処理に関しても、同様の処理で実施することができる。   Each area map image data update process in step 2803 includes a left side map image data update process and a right side map image data update process. Of these, details of the left map image data update processing will be described with reference to FIG. The right map image data update process can also be performed by the same process.

図29は、本実施例のシステムにおける全体デプス画像データ更新処理のフローチャートである。   FIG. 29 is a flowchart of the entire depth image data update process in the system of the present embodiment.

ステップ2900において全体デプス画像データ更新処理が開始されると、まず、ステップ2901において、処理すべき画素のシリアル番号であるnを0に初期化する。   When the entire depth image data update process is started in step 2900, first, in step 2901, n, which is the serial number of the pixel to be processed, is initialized to zero.

次に、ステップ2902において、全体デプス画像データ2361のn番目の画素について、画素値優先デプス決定処理を行う。画素値優先デプス決定処理の詳細については、図30及び図31を用いて説明する。   Next, in step 2902, pixel value priority depth determination processing is performed for the nth pixel of the entire depth image data 2361. Details of the pixel value priority depth determination processing will be described with reference to FIGS. 30 and 31. FIG.

次に、ステップ2903において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ2904において、全体デプス画像データ2361中のすべての画素について処理が終了したか否かを判定する。全体デプス画像データ2361中のすべての画素について処理が終了している場合にはステップ2905に進んで全体デプス画像データ更新処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ2902に進んで処理を続ける。   Next, in step 2903, n, which is the serial number of the pixel to be processed, is incremented by 1, and in step 2904, it is determined whether or not the processing has been completed for all the pixels in the entire depth image data 2361. If processing has been completed for all the pixels in the entire depth image data 2361, the process proceeds to step 2905 to end the entire depth image data update process, and if there are pixels that have not been processed yet, step is performed. Proceed to 2902 and continue processing.

図30は、本実施例のシステムにおける画素値優先デプス決定処理のフローチャートであり、図31は、本実施例のシステムにおける臨時探索距離集合データ2372及び最大探索距離集合データ2373の構成方法を説明するための図である。図31において、図26と同じ符号は、図26と同じものを表す。   FIG. 30 is a flowchart of pixel value priority depth determination processing in the system of the present embodiment, and FIG. 31 illustrates a configuration method of the temporary search distance set data 2372 and the maximum search distance set data 2373 in the system of the present embodiment. FIG. 31, the same reference numerals as those in FIG. 26 denote the same elements as those in FIG.

ステップ3000において画素値優先デプス決定処理が開始されると、まず、ステップ3001において全体デプス値近傍探索処理を行う。これは、全体デプス画像データ2361のn番目の画素の画素値である全体デプス値を読み込み、所定の間隔と所定の適合率評価関数に基づいて、全体デプス値の近傍のデプス値と、該デプス値における適合率と、の組を算出する処理である。例えば、図31において、全体デプス値3101とその近傍のデプス値3102及びデプス値3103に対して、各々の適合率の算出をステップ3001において行う。   When the pixel value priority depth determination process is started in step 3000, first, an overall depth value neighborhood search process is performed in step 3001. This is to read an overall depth value that is the pixel value of the nth pixel of the overall depth image data 2361, and based on a predetermined interval and a predetermined precision evaluation function, the depth value near the overall depth value, and the depth This is a process of calculating a set of the precision ratio in value. For example, in FIG. 31, each matching rate is calculated in step 3001 for the overall depth value 3101 and the depth value 3102 and depth value 3103 in the vicinity thereof.

次に、ステップ3002において、背景デプス値近傍探索処理を行う。これは、背景デプス画像データ2362のn番目の画素の画素値である背景デプス値を読み込み、所定の間隔と所定の適合率評価関数に基づいて、背景デプス値の近傍のデプス値と、該デプス値における適合率と、の組を算出する処理である。例えば、図31において、背景デプス値3111とその近傍のデプス値3112及びデプス値3113に対して、各々の適合率の算出をステップ3002において行う。   Next, in step 3002, background depth value neighborhood search processing is performed. This reads a background depth value which is the pixel value of the nth pixel of the background depth image data 2362, and based on a predetermined interval and a predetermined precision evaluation function, the depth value near the background depth value and the depth This is a process of calculating a set of the precision ratio in value. For example, in FIG. 31, for each of the background depth value 3111 and the depth value 3112 and depth value 3113 in the vicinity thereof, calculation of the relevance ratio is performed in step 3002.

次に、ステップ3003において、規定デプス値探索処理を行う。これは、規定探索デプス集合データ2371に含まれるデプス値に対して、所定の適合率評価関数に基づいて適合率を求める処理である。   Next, in step 3003, a prescribed depth value search process is performed. This is a process for obtaining the matching rate based on a predetermined matching rate evaluation function with respect to the depth value included in the prescribed search depth set data 2371.

次に、ステップ3004において、最適デプス値選択処理を行う。これは、ステップ3001及びステップ3002及びステップ3003において処理を行ったデプス値のうち、適合率が最も高いデプス値を選択し、全体デプス画像データ2361のn番目の画素の画素値として設定する処理である。結果として、デプス集合データ3121に含まれるデプス値のそれぞれに対して、所定の適合率評価関数に基づいて適合率を求めた上で、適合率が最も高いデプス値を選択したことと等価な処理となる。   Next, in step 3004, an optimum depth value selection process is performed. This is a process of selecting the depth value having the highest relevance ratio from the depth values processed in Step 3001, Step 3002, and Step 3003, and setting it as the pixel value of the nth pixel of the entire depth image data 2361. is there. As a result, a process equivalent to selecting the depth value having the highest precision after obtaining the precision based on a predetermined precision evaluation function for each of the depth values included in the depth set data 3121. It becomes.

ステップ3004の処理が終了した後、ステップ3005において画素値優先デプス決定処理を終了する。   After the processing of step 3004 ends, the pixel value priority depth determination processing ends in step 3005.

図32は、本実施例のシステムにおける背景デプス画像データ更新処理のフローチャートである。   FIG. 32 is a flowchart of background depth image data update processing in the system of the present embodiment.

ステップ3200において背景デプス画像データ更新処理が開始されると、まず、ステップ3201において、処理すべき画素のシリアル番号であるnを0に初期化する。   When the background depth image data update process is started in step 3200, first, in step 3201, n, which is the serial number of the pixel to be processed, is initialized to zero.

次に、ステップ3202において、全体デプス画像データ2361のn番目の画素の画素値V0を読み込み、続いてステップ3203において背景デプス画像データ2362のn番目の画素の画素値V1を読み込む。   Next, in step 3202, the pixel value V0 of the nth pixel of the entire depth image data 2361 is read. Subsequently, in step 3203, the pixel value V1 of the nth pixel of the background depth image data 2362 is read.

次に、ステップ3204において、V0とV1の値の比較を行い、V0の方が大きいと判定された場合には、ステップ3205に進んで背景デプス画像データ2362のn番目の画素の画素値をV0に設定する。   Next, in step 3204, the values of V0 and V1 are compared. If it is determined that V0 is larger, the process proceeds to step 3205, and the pixel value of the nth pixel of the background depth image data 2362 is set to V0. Set to.

以上の処理が終了した後、ステップ3206において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ3207において、背景デプス画像データ2362中のすべての画素について処理が終了したか否かを判定する。背景デプス画像データ2362中のすべての画素について処理が終了している場合にはステップ3208に進んで背景デプス画像データ更新処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ3202に進んで処理を続ける。   After the above processing is completed, n, which is the serial number of the pixel to be processed, is incremented by 1 in step 3206. Subsequently, in step 3207, whether or not the processing has been completed for all the pixels in the background depth image data 2362 is determined. judge. If the processing has been completed for all the pixels in the background depth image data 2362, the process proceeds to step 3208 to end the background depth image data update processing, and if there are pixels that have not been processed yet, step Proceed to 3202 and continue processing.

背景デプス画像データ2362をこのように更新することによって、背景デプス画像データ2362の各画素は、該画素に関して過去に選択されたデプス値のうちでもっとも値の大きなものを保持することができる。   By updating the background depth image data 2362 in this way, each pixel of the background depth image data 2362 can hold the largest value among the depth values selected in the past with respect to the pixel.

図33は、本実施例のシステムにおける左面マップ画像データ更新処理のフローチャートである。   FIG. 33 is a flowchart of left map image data update processing in the system of the present embodiment.

ステップ3300において左面マップ画像データ更新処理が開始されると、まず、ステップ3301において、処理すべき画素のシリアル番号であるnを0に初期化する。   When the left map image data update process is started in step 3300, first, in step 3301, n, which is the serial number of the pixel to be processed, is initialized to zero.

次に、ステップ3302において、被写体が変わったと判定される画素か否かを判定する。これは、全体変化画像データ641及び左面変化画像データ642を参照することによって実施すればよい。ステップ3302の判定において「変化なし」と判定された場合には、ステップ3305に進む。   Next, in Step 3302, it is determined whether or not the subject is a pixel determined to have changed. This may be performed by referring to the entire change image data 641 and the left surface change image data 642. If it is determined in step 3302 that there is no change, the process proceeds to step 3305.

ステップ3302の判定において「変化あり」と判定された場合には、ステップ3303において、出力パラメタデータ244と出力画像データ650のn番目の画素位置とで規定される、投影中心位置を基点として画素位置方向を向くような3次元方向に関して、全体デプス画像データ2361上のデプス値から三次元空間上での位置Pを決定する。   If it is determined in step 3302 that there is “change”, in step 3303, the pixel position with the projection center position defined as the output parameter data 244 and the nth pixel position of the output image data 650 as the base point. A position P in the three-dimensional space is determined from the depth value on the entire depth image data 2361 with respect to the three-dimensional direction facing the direction.

次に、ステップ3304において、ステップ3303で決定した位置Pと内部パラメタデータ241と外部パラメタ242とから、左面入力画像データ222上の対応する座標値を決定して、左面マップ画像データ612のn番目の画素の画素値として設定する。
以上の処理を終了した後、ステップ3305において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ3306において、左面マップ画像データ612中のすべての画素について処理が終了したか否かを判定する。左面マップ画像データ612中のすべての画素について処理が終了している場合にはステップ3307に進んで左面マップ画像データ更新処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ3302に進んで処理を続ける。
Next, in step 3304, the corresponding coordinate value on the left side input image data 222 is determined from the position P determined in step 3303, the internal parameter data 241 and the external parameter 242, and the nth of the left side map image data 612 is determined. Is set as the pixel value of the pixel.
After the above processing is completed, n, which is the serial number of the pixel to be processed, is incremented by 1 in step 3305. Subsequently, in step 3306, it is determined whether or not processing has been completed for all the pixels in the left-side map image data 612. judge. If all the pixels in the left side map image data 612 have been processed, the process proceeds to step 3307 to end the left side map image data update process, and if there are pixels that have not yet been processed, step Go to 3302 and continue processing.

以上、本実施例によれば、実施例1のシステムに対して、より単純な処理の組み合わせによって中間データを更新することが可能である。   As described above, according to the present embodiment, it is possible to update the intermediate data by a simpler combination of processes with respect to the system of the first embodiment.

以下、図34と図35を用いて、第3の実施の形態について説明する。   Hereinafter, the third embodiment will be described with reference to FIGS. 34 and 35. FIG.

本実施例は、実施例2に記載の例に対して、移動体の検出を行うことでデプス値の探索を効率的かつ頑健に行えるようにした例である。   The present embodiment is an example in which a depth value search can be efficiently and robustly performed by detecting a moving object, compared to the example described in the second embodiment.

なお本実施例におけるシステムでは、実施例2のシステム構成において、中間データ記憶部2360の代わりに、図34及び図35で説明するデータをさらに格納できるようにした中間データ記憶部3460を備えるように構成する。   Note that the system according to the present embodiment includes an intermediate data storage unit 3460 that can further store data described with reference to FIGS. 34 and 35 in place of the intermediate data storage unit 2360 in the system configuration of the second embodiment. Constitute.

図34は、本実施例のシステムにおける全体デプス画像データ更新処理のフローチャートである。図34において、図29と同じ符号は、図29と同じ処理を表す。   FIG. 34 is a flowchart of the entire depth image data update process in the system of this embodiment. 34, the same reference numerals as those in FIG. 29 represent the same processes as those in FIG.

図34の全体デプス画像データ更新処理と、図29の全体デプス画像データ更新処理との違いは、ステップ3401、ステップ3402、ステップ3403、ステップ3404である。   The differences between the entire depth image data update process of FIG. 34 and the entire depth image data update process of FIG. 29 are step 3401, step 3402, step 3403, and step 3404.

ステップ3401の全体デプス画像データ複製処理は、全体デプス画像データ2361を複製して、複製全体デプス画像データ3410を生成する処理である。生成した複製全体デプス画像データ3410は、中間データ記憶部3460に格納する。全体デプス画像データ複製処理は、図35で説明するフロー優先デプス決定処理において、処理している画素位置以外の位置における全体デプス画像データ中の画素値が必要となるため、全体デプス画像データ2361が画素毎の処理によって更新されてしまう前に、あらかじめ前の時刻におけるデータを保存しておくための処理である。   The entire depth image data duplicating process in step 3401 is a process of duplicating the entire depth image data 2361 to generate duplicate entire depth image data 3410. The generated entire copy depth image data 3410 is stored in the intermediate data storage unit 3460. In the overall depth image data duplication processing, since the pixel value in the overall depth image data at a position other than the pixel position being processed is required in the flow priority depth determination processing described with reference to FIG. This is a process for preliminarily storing data at the previous time before being updated by the process for each pixel.

ステップ3402のオプティカルフロー推定処理は、時刻(T−1)に撮影した画像データと、時刻Tに撮影した画像データとから、どの画素に写っていた被写体がどの画素に写るようになったかを推定する処理であり、公知の技術を用いて実施することが可能である。本実施例に適用する場合の具体的な入力データとしては、時刻(T−1)に撮影した画像データとして全体参照画像データ631を、時刻Tに撮影した画像データとして全体変換画像データ621を用いる。該オプティカルフロー推定処理の結果は、フローの信頼度と移動元の座標値との組を画素値として持つ、オプティカルフロー画像データ3420として、中間データ記憶部3460に記憶しておく。   The optical flow estimation processing in step 3402 estimates from which image data captured at time (T-1) and the image data captured at time T the subject that was captured in which pixel is now captured in which pixel. And can be performed using a known technique. As specific input data when applied to the present embodiment, overall reference image data 631 is used as image data taken at time (T-1), and overall converted image data 621 is used as image data taken at time T. . The result of the optical flow estimation process is stored in the intermediate data storage unit 3460 as optical flow image data 3420 having a pair of the reliability of the flow and the coordinate value of the movement source as a pixel value.

ステップ3403では、オプティカルフロー画像データ3420の該当画素の画素値を読み込み、所定の閾値に基づいて、該画素のフローが信頼できるか否かを判定する。信頼できると判定した場合には、ステップ3404でフロー優先デプス決定処理を行い、信頼できないと判定した場合には、実施例2の場合と同様にステップ2902に進んで画素値優先デプス決定処理を行う。フロー優先デプス決定処理の詳細については、図35を用いて説明する。   In step 3403, the pixel value of the corresponding pixel in the optical flow image data 3420 is read, and it is determined whether or not the flow of the pixel is reliable based on a predetermined threshold value. If it is determined to be reliable, a flow priority depth determination process is performed in step 3404. If it is determined to be unreliable, the process proceeds to step 2902 and the pixel value priority depth determination process is performed as in the second embodiment. . Details of the flow priority depth determination process will be described with reference to FIG.

図35は、本実施例のシステムにおけるフロー優先デプス決定処理のフローチャートである。   FIG. 35 is a flowchart of flow priority depth determination processing in the system of the present embodiment.

ステップ3500でフロー優先デプス決定処理が開始されると、まず、ステップ3501において移動元デプス値近傍探索処理を行う。移動元デプス値近傍探索処理とは、次のような処理である。   When the flow priority depth determination process is started in step 3500, first, in step 3501, a movement source depth value neighborhood search process is performed. The movement source depth value neighborhood search process is the following process.

まず、オプティカルフロー画像データ3420から現在処理を行っている画素の移動元座標値を読み込む。次に、複製全体デプス画像データ3410の該移動元座標値に対応する画素値を読み込んで、移動元デプス値とする。その上で、所定の間隔と所定の適合率評価関数に基づいて、移動元デプス値とその前後のデプス値に対して適合率を算出し、デプス値と適合率の組を中間データ記憶部3460に格納する。   First, the movement source coordinate value of the pixel currently being processed is read from the optical flow image data 3420. Next, the pixel value corresponding to the movement source coordinate value of the entire copy depth image data 3410 is read and set as the movement source depth value. Then, based on a predetermined interval and a predetermined precision evaluation function, the precision is calculated for the movement source depth value and the depth values before and after the movement source depth value, and the combination of the depth value and the precision ratio is an intermediate data storage unit 3460. To store.

続いてステップ3502において、最適デプス値選択処理を行う。これは、ステップ3501において格納されたデプス値と適合率の組から、適合率がもっとも高い組を選択する処理である。このとき選択された組のデプス値をフロー最適デプス値3510、このとき選択された組の適合率をフロー最適適合率3511とする。   Subsequently, at step 3502, an optimum depth value selection process is performed. This is a process of selecting a pair having the highest precision from the combinations of the depth value and precision that are stored in step 3501. The depth value of the set selected at this time is set as the flow optimum depth value 3510, and the matching rate of the set selected at this time is set as the flow optimum matching rate 3511.

ステップ3503において、フロー最適適合率3511が適合率として十分か否かを、所定の閾値に基づいて判定する。   In step 3503, it is determined based on a predetermined threshold whether or not the flow optimum matching rate 3511 is sufficient as the matching rate.

ステップ3503において適合率が十分であると判定された場合には、ステップ3504において、フロー最適デプス値3510を全体デプス画像データ2361の現在処理を行っている画素の画素値として書き込む。   If it is determined in step 3503 that the matching rate is sufficient, then in step 3504, the flow optimum depth value 3510 is written as the pixel value of the pixel currently being processed in the entire depth image data 2361.

ステップ3503において適合率が十分でないと判定された場合には、ステップ3505において候補付き画素値優先デプス決定処理を行う。候補付き画素値優先デプス決定処理とは、図30で説明した画素値優先デプス決定処理のステップ3004において、最適デプス値の選択肢として前記フロー最適デプス値3510を加え、選択の際の基準となる適合率としては前記フロー最適適合率3511を用いたものである。   If it is determined in step 3503 that the matching rate is not sufficient, candidate pixel value priority depth determination processing is performed in step 3505. The candidate-attached pixel value priority depth determination process is the adaptation that becomes the reference for selection by adding the flow optimal depth value 3510 as an option of the optimum depth value in Step 3004 of the pixel value priority depth determination process described in FIG. As the rate, the flow optimum matching rate 3511 is used.

以上の処理を終了した後、ステップ3506においてフロー優先デプス決定処理を終了する。   After the above processing is completed, the flow priority depth determination processing is ended in step 3506.

以上、本実施例によれば、実施例2に記載の例に対して、デプス値の探索を、より効率的かつ頑健に行うことができる。   As described above, according to the present embodiment, the depth value search can be performed more efficiently and robustly with respect to the example described in the second embodiment.

以下、図36〜図39を用いて、第4の実施の形態について説明する。   Hereinafter, the fourth embodiment will be described with reference to FIGS. 36 to 39.

本実施例は、実施例2に記載の例に対して、さらに、ユーザが指定した投影中心から撮影した画像データに擬似的に近くなるような出力画像データを生成するようにしたものである。これは例えば、遠隔会議システムなどにおいて、表示装置の画角に合わせて撮影した画像データを歪ませて表示するような場合に好適な例である。   In the present embodiment, output image data that is close to the image data photographed from the projection center designated by the user is generated in addition to the example described in the second embodiment. This is an example suitable for a case where, for example, in a teleconference system or the like, image data captured in accordance with the angle of view of the display device is distorted and displayed.

図36は、本実施例のシステムのシステム構成図である。図36において、図23と同じ符号は、図23と同じものを表す。   FIG. 36 is a system configuration diagram of the system of this embodiment. 36, the same reference numerals as those in FIG. 23 denote the same elements as those in FIG.

本実施例の画像合成装置3600は、画像合成装置2300に対して、パラメタ記憶部3640を、所定の映像生成視点データ3645を格納できるように構成し、中間データ記憶部3660を、環境再構築データ3680を格納できるように構成した上で、画像合成処理の処理内容を変更した画像処理部3630を備えるように構成した。   In the image composition device 3600 of this embodiment, the image storage device 3300 is configured such that the parameter storage unit 3640 can store predetermined video generation viewpoint data 3645, and the intermediate data storage unit 3660 includes environment reconstruction data. 3680 can be stored, and an image processing unit 3630 in which the processing content of the image composition processing is changed is provided.

映像生成視点データは、画像合成装置3600の出力画像データの生成方法を定義するデータである。投影中心位置を全体撮影装置201の投影中心位置に等しくとり、座標系に関しても全体撮影装置201の座標系と等しくとった場合の、投影方法や画角などのパラメタを格納する。   The video generation viewpoint data is data that defines a method for generating output image data of the image composition device 3600. The projection center position is set equal to the projection center position of the whole image capturing apparatus 201, and parameters such as the projection method and the angle of view when the coordinate system is also equal to the coordinate system of the entire image capturing apparatus 201 are stored.

また、環境再構築データ3680は、本システムで撮影している空間領域の、どこにどのような色のものがあるかを表現したデータであり、具体的には、各頂点が3次元座標を有するような三角形メッシュデータと、各頂点の色情報とで構成したデータである。   The environment reconstruction data 3680 is data that expresses where and what color of the space area photographed by this system exists. Specifically, each vertex has three-dimensional coordinates. Such data is composed of triangular mesh data and color information of each vertex.

環境再構築データ3680の生成方法に関しては図39を用いて、また、変更後の画像合成処理の処理内容に関しては、図37と図38を用いて説明する。   The method for generating the environment reconstruction data 3680 will be described with reference to FIG. 39, and the contents of the image composition processing after the change will be described with reference to FIGS.

図37は、本実施例のシステムにおける画像合成処理のフローチャートである。図37において、図10と同じ符号は、図10と同じ処理を表す。   FIG. 37 is a flowchart of image composition processing in the system of this embodiment. 37, the same reference numerals as those in FIG. 10 represent the same processes as those in FIG.

本実施例の画像合成処理は、図10で説明した画像合成処理に対して、合成画像データ出力処理1010の前に出力画像データ更新処理3701を加えただけのものである。出力画像データ更新処理3701の詳細は、図38を用いて説明する。   The image composition process of this embodiment is obtained by adding an output image data update process 3701 before the composite image data output process 1010 to the image composition process described with reference to FIG. Details of the output image data update processing 3701 will be described with reference to FIG.

図38は、本実施例のシステムにおける出力画像データ更新処理のフローチャートである。   FIG. 38 is a flowchart of output image data update processing in the system of this embodiment.

ステップ3800で出力画像データ更新処理が開始されると、ステップ3801において全体デプス画像データ2361を読み込み、続いてステップ3802において出力画像データ650を読み込む。   When the output image data update process is started in step 3800, the entire depth image data 2361 is read in step 3801, and then the output image data 650 is read in step 3802.

次に、ステップ3803において、全体デプス画像データ2361と出力画像データ650とに基づいて、環境再構築データ3680を生成する。環境再構築データ3680を生成するための具体的な処理については、図39を用いて説明する。   Next, in Step 3803, environment reconstruction data 3680 is generated based on the entire depth image data 2361 and the output image data 650. Specific processing for generating the environment reconstruction data 3680 will be described with reference to FIG.

次に、ステップ3804において、映像生成視点データ3645を読み込む。   Next, in step 3804, the video generation viewpoint data 3645 is read.

次に、ステップ3805において、出力画像データ650の再描画を行う。映像生成視点データ3645と環境再構築データ3680とから透視変換の原理によって出力画像データ650を生成しなおせばよく、公知の技術によって実施することができる。   In step 3805, the output image data 650 is redrawn. The output image data 650 may be generated again from the video generation viewpoint data 3645 and the environment reconstruction data 3680 by the principle of perspective transformation, and can be implemented by a known technique.

以上の処理を終了した後、ステップ3806において、出力画像データ更新処理を終了する。   After finishing the above processing, in step 3806, the output image data update processing is finished.

図39は、本実施例のシステムにおける環境再構築データの生成方法を説明するための図である。   FIG. 39 is a diagram for explaining a method for generating environment reconstruction data in the system according to the present embodiment.

環境再構築データ3680の各頂点には、出力画像データ650の各画素を割り当てる。各頂点の3次元座標値に関しては、出力パラメタデータ244と出力画像データ650の各々の画素位置とで規定される、投影中心位置を基点として画素位置方向を向くような3次元方向に関して、全体デプス画像データ2361上の対応する画素に格納されているデプス値に基づいて決定すればよい。また、三角形メッシュデータとするための頂点同士の繋ぎ方に関しては、図39に表されるように、各画素によって作られる単位格子に対して、対角線を挿入する向きをあらかじめ決めておき、その向きにしたがって規則的に繋いでいくことで実施すればよい。   Each pixel of the output image data 650 is assigned to each vertex of the environment reconstruction data 3680. Regarding the three-dimensional coordinate value of each vertex, the overall depth is defined with respect to the three-dimensional direction that is defined by the output parameter data 244 and the respective pixel positions of the output image data 650 and that faces the pixel position direction from the projection center position. What is necessary is just to determine based on the depth value stored in the corresponding pixel on the image data 2361. Further, as shown in FIG. 39, with respect to how to connect the vertices for obtaining triangular mesh data, the direction in which the diagonal line is inserted is determined in advance for the unit cell formed by each pixel, and the direction is determined. This can be done by connecting them regularly.

具体的には、頂点間を正方格子状に繋いだ上で、頂点3900、頂点3901、頂点3902、頂点3903に対して、頂点3900と頂点3903、あるいは、頂点3901と頂点3902、のいずれを繋ぐかの規則を決めておき、該規則にしたがって規則的に繋いでいく。図39は頂点3900と頂点3903とを対角線3910によって繋いだ例である。なお、各頂点の色情報に関しては、出力画像データ650の該当画素の画素値をそのまま使用すればよい。   Specifically, after connecting the vertices in a square lattice shape, the vertex 3900, the vertex 3901, the vertex 3902, and the vertex 3903 are connected to either the vertex 3900 and the vertex 3903 or the vertex 3901 and the vertex 3902. These rules are determined and connected in accordance with the rules. FIG. 39 shows an example in which a vertex 3900 and a vertex 3903 are connected by a diagonal line 3910. For the color information of each vertex, the pixel value of the corresponding pixel in the output image data 650 may be used as it is.

以上、本実施例によれば、見え隠れの違いや指向性を持つ光学特性に関する違いはあるものの、実施例2に記載の例に対して、さらに、ユーザが指定した投影中心から撮影した画像データに擬似的に近くなるような出力画像データを生成することができる。   As described above, according to the present embodiment, although there are differences in visibility and optical characteristics having directivity, the image data captured from the projection center designated by the user is further added to the example described in the second embodiment. It is possible to generate output image data that is close to pseudo.

なお、本実施例と公知技術との違いは、複数の撮影装置の投影中心が異なることによる画質の劣化は発生していない点である。   Note that the difference between the present embodiment and the publicly known technique is that the image quality is not deteriorated due to different projection centers of a plurality of photographing apparatuses.

以下、図40〜図44を用いて、第5の実施の形態について説明する。   Hereinafter, the fifth embodiment will be described with reference to FIGS. 40 to 44.

本実施例は、実施例1に記載の例に対して、さらに、左面撮影装置と右面撮影装置の撮影範囲が重複することができるようにした例であり、出力画像データ中の広い領域を高精細な画像データを接続して表現する場合に適した例である。   The present embodiment is an example in which the shooting ranges of the left and right photographing apparatuses can be overlapped with the example described in the first embodiment, and a wide area in the output image data is increased. This is an example suitable for connecting and expressing fine image data.

図40は、本実施例のシステムにおける各撮影装置の撮影範囲と出力画像の生成範囲との関係を表す図である。   FIG. 40 is a diagram illustrating the relationship between the imaging range of each imaging apparatus and the output image generation range in the system of the present embodiment.

図40において、撮影範囲4000は全体撮影装置201の撮影範囲であり、撮影範囲4010は左面撮影装置202の撮影範囲であり、撮影範囲4011は右面撮影装置203の撮影範囲である。また、出力画像生成範囲4020は出力画像の生成範囲である。図40は、本実施の形態を適用する場合の条件について説明するためのものであり、各々の範囲の実際の形状は図40に記載のものと大きく異なっていてもよい。   In FIG. 40, an imaging range 4000 is the imaging range of the overall imaging device 201, an imaging range 4010 is the imaging range of the left side imaging device 202, and an imaging range 4011 is the imaging range of the right side imaging device 203. An output image generation range 4020 is an output image generation range. FIG. 40 is for explaining the conditions when applying the present embodiment, and the actual shape of each range may be greatly different from that shown in FIG.

本実施例は、撮影範囲4000が出力画像生成範囲4020を含んでいる場合について適用するに好適な例である。撮影範囲4010と撮影範囲4011とに共通して含まれる範囲がある場合でも対応が可能であるようにした例ではあるが、撮影範囲4010と撮影範囲4011とに共通して含まれる範囲が存在することは、必ずしも本実施の形態に必要な条件ではない。   The present embodiment is an example suitable for application to a case where the shooting range 4000 includes an output image generation range 4020. In this example, it is possible to cope with the case where there is a range included in both the shooting range 4010 and the shooting range 4011. However, there is a range included in both the shooting range 4010 and the shooting range 4011. This is not necessarily a necessary condition for the present embodiment.

図41は、本実施例のシステムにおける合成マップ画像データ616の画素値のデータ形式を説明する図である。   FIG. 41 is a diagram for explaining the data format of the pixel value of the composite map image data 616 in the system of the present embodiment.

本実施例においては、データ形式720の代わりに、データ形式4120を用いる。データ形式4120は、全体サンプリング用データ4100と、左面サンプリング用データ4101と、右面サンプリング用データ4012とで構成したものである。   In this embodiment, a data format 4120 is used instead of the data format 720. The data format 4120 is composed of whole sampling data 4100, left side sampling data 4101, and right side sampling data 4012.

全体サンプリング用データ4100は、重み値WTと、参照元X座標地XTと、参照元Y座標値YTとで構成する。重み値WTと参照元X座標値XTと参照元Y座標値YTはいずれも実数値であり、参照元X座標地XTと参照元Y座標値YTは全体入力画像データ221上の座標値を表す。   The entire sampling data 4100 is composed of a weight value WT, a reference source X coordinate location XT, and a reference source Y coordinate value YT. The weight value WT, the reference source X coordinate value XT, and the reference source Y coordinate value YT are all real values, and the reference source X coordinate location XT and the reference source Y coordinate value YT represent coordinate values on the entire input image data 221. .

同様に、左面サンプリング用データ4101は、重み値WLと、参照元X座標値XLと、参照元Y座標値YLとで構成する。重み値WLと参照元X座標値XLと参照元Y座標値YLはいずれも実数値であり、参照元X座標値XLと参照元Y座標値YLは左面入力画像データ222上の座標値を表す。   Similarly, the left side sampling data 4101 includes a weight value WL, a reference source X coordinate value XL, and a reference source Y coordinate value YL. The weight value WL, the reference source X coordinate value XL, and the reference source Y coordinate value YL are all real values, and the reference source X coordinate value XL and the reference source Y coordinate value YL represent the coordinate values on the left side input image data 222. .

同様に、右面サンプリング用データ4102は、重み値WRと、参照元X座標値XRと、参照元Y座標値YRとで構成する。重み値WRと参照元X座標値XRと参照元Y座標値YRはいずれも実数値であり、参照元X座標値XRと参照元Y座標値YRは右面入力画像データ223上の座標値を表す。   Similarly, the right side sampling data 4102 includes a weight value WR, a reference source X coordinate value XR, and a reference source Y coordinate value YR. The weight value WR, the reference source X coordinate value XR, and the reference source Y coordinate value YR are all real values, and the reference source X coordinate value XR and the reference source Y coordinate value YR represent coordinate values on the right side input image data 223. .

図42は、本実施例のシステムにおける重み値の算出方法を説明するための図である。   FIG. 42 is a diagram for explaining a weight value calculation method in the system according to the present embodiment.

図42を用いて、参照元座標値が入力画像データ4210の座標値4220である場合の重みの算出方法を説明する。まず、X方向の算出基準距離DXを算出する。これは、図42のX方向距離DX1とX方向距離DX2のうち小さい方の値である。次に、同様に、Y方向の算出基準距離DYを算出する。すなわち、図42のY方向距離DY1とY方向距離DY2のうち小さい方の値とする。X方向の算出基準距離DX及びY方向の算出基準距離DYを算出した上で、重み値WをDXとDYの積として決定する。   A weight calculation method when the reference source coordinate value is the coordinate value 4220 of the input image data 4210 will be described with reference to FIG. First, a calculation reference distance DX in the X direction is calculated. This is the smaller value of the X-direction distance DX1 and the X-direction distance DX2 in FIG. Next, similarly, a calculation reference distance DY in the Y direction is calculated. That is, the smaller one of the Y-direction distance DY1 and the Y-direction distance DY2 in FIG. After calculating the calculation reference distance DX in the X direction and the calculation reference distance DY in the Y direction, the weight value W is determined as the product of DX and DY.

図43は、本実施例のシステムにおける採用画素決定処理のフローチャートである。
ステップ4300で採用画素決定処理が開始されると、まず、ステップ4301においてWTとWLとWRの値を初期化する。具体的には、「WT=1」とし、WLとWRの値に関しては、合成マップ画像データ616に格納されている参照元X座標値と参照元Y座標値とに基づいて、図42で説明した方法によって初期化する。
FIG. 43 is a flowchart of adopted pixel determination processing in the system of this embodiment.
When the adopted pixel determination process is started in step 4300, first, in step 4301, the values of WT, WL, and WR are initialized. Specifically, “WT = 1” is set, and the values of WL and WR are described with reference to FIG. 42 based on the reference source X coordinate value and the reference source Y coordinate value stored in the composite map image data 616. Initialize by the method you did.

次に、ステップ4302において、所定の閾値に基づいて、VTとVLの差が許容範囲内か否かを判定し、許容範囲外と判定された場合には、ステップ4303においてWLの値を0とする。   Next, in Step 4302, it is determined whether or not the difference between VT and VL is within the allowable range based on a predetermined threshold. If it is determined that the difference is outside the allowable range, the value of WL is set to 0 in Step 4303. To do.

次に、ステップ4304において、所定の閾値に基づいて、VTとVRの差が許容範囲内か否かを判定し、許容範囲外と判定された場合には、ステップ4305においてWRの値を0とする。   Next, in step 4304, based on a predetermined threshold value, it is determined whether or not the difference between VT and VR is within the allowable range. If it is determined that the difference is outside the allowable range, the value of WR is set to 0 in step 4305. To do.

次に、ステップ4306において、「WL+WR>0」、すなわち、WLとWRの値の少なくとも一方は0でないか否かを判定する。WLとWRの値の少なくとも一方が0でない場合には、ステップ4307でWTの値を0とする。   Next, in step 4306, it is determined whether or not “WL + WR> 0”, that is, at least one of the values of WL and WR is not zero. If at least one of the values of WL and WR is not 0, in step 4307, the value of WT is set to 0.

続いて、ステップ4308でWTとWLとWRの値を正規化する処理を行う。具体的には、WTとWLとWRのそれぞれを、それらの値の総和(WT+WL+WR)で割ることにより、WTとWLとWRの値の和が1となるようにする。   Subsequently, in step 4308, processing for normalizing the values of WT, WL, and WR is performed. Specifically, the sum of the values of WT, WL, and WR is set to 1 by dividing each of WT, WL, and WR by the sum of their values (WT + WL + WR).

以上の処理が終了した後、ステップ4309において採用画素決定処理を終了する。   After the above processing is completed, the adopted pixel determination processing is ended in step 4309.

図44は、本実施例のシステムにおける出力画像データ生成処理のフローチャートである。   FIG. 44 is a flowchart of output image data generation processing in the system of this embodiment.

ステップ4400で出力画像データ生成処理が開始されると、まず、ステップ4401において、処理すべき画素のシリアル番号であるnを0に初期化する。   When the output image data generation process is started in step 4400, first, in step 4401, n, which is the serial number of the pixel to be processed, is initialized to zero.

次に、ステップ4402において、合成マップ画像データ616からn番目の画素の画素値を読み込む。   Next, in step 4402, the pixel value of the nth pixel is read from the composite map image data 616.

次に、ステップ4403において、ステップ4402で読み込んだデータに基づいて、各入力画像データの画素値の重み付きの和を取ることにより、出力画像データ650のn番目の画素の画素値を決定する。   Next, in step 4403, the pixel value of the nth pixel of the output image data 650 is determined by taking a weighted sum of the pixel values of each input image data based on the data read in step 4402.

次に、ステップ4404において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ4405において、出力画像データ650中のすべての画素について処理が終了したか否かを判定する。出力画像データ650中のすべての画素について処理が終了している場合にはステップ4406に進んで出力画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ4402に進んで処理を続ける。   In step 4404, n, which is the serial number of the pixel to be processed, is incremented by 1. Subsequently, in step 4405, it is determined whether or not the processing has been completed for all the pixels in the output image data 650. If the process has been completed for all the pixels in the output image data 650, the process proceeds to step 4406 to end the output image data generation process. If there is a pixel that has not been processed yet, the process proceeds to step 4402. Proceed and continue processing.

以上、本実施例によれば、実施例1に記載の例に対して、さらに、左面撮影装置と右面撮影装置の撮影範囲が重複する場合にも、適用することができる。   As described above, according to the present embodiment, the present invention can be applied to the example described in the first embodiment even when the shooting ranges of the left and right imaging apparatuses overlap.

以下、図45〜図49を用いて、第6の実施の形態について説明する。   Hereinafter, the sixth embodiment will be described with reference to FIGS. 45 to 49.

本実施例は、実施例5に記載の例に対して、さらに、全体撮影装置の撮影範囲に課する条件を、左面撮影装置と右面撮影装置が重複して撮影している領域だけを含んでいればよい、という条件に緩めた例であり、遠隔会議システムなどで広視野角の映像を得たい場合に好適な例である。   In this embodiment, in addition to the example described in the fifth embodiment, the conditions imposed on the shooting range of the whole shooting apparatus include only the area where the left shooting apparatus and the right shooting apparatus are shooting in an overlapping manner. This is an example that is relaxed under the condition that it is only necessary to have a wide viewing angle in a remote conference system or the like.

図45は本実施例のシステムにおける各撮影装置の撮影範囲を説明するための状況説明図である。図45において、図8と同じ符号は、図8と同じものを表す。   FIG. 45 is a situation explanatory diagram for explaining a photographing range of each photographing apparatus in the system of the present embodiment. 45, the same reference numerals as those in FIG. 8 represent the same elements as those in FIG.

本実施例は、図8の場合と異なり、図45にあるように、全体撮影装置201の画角が十分に広角ではなく、表示したい領域全体を表示するためには、左面撮影装置202が単独で撮影している領域、または、右面撮影装置203が単独で撮影している領域、が必要となる例である。   Unlike the case of FIG. 8, the present embodiment differs from the case of FIG. 8 in that the angle of view of the whole image taking device 201 is not sufficiently wide, and the left side image taking device 202 is used alone to display the entire area to be displayed. This is an example in which an area that is imaged in the area or an area that is photographed independently by the right-side imaging apparatus 203 is required.

図46は本実施例のシステムにおける各撮影装置の撮影範囲と出力画像の生成範囲との関係を表す図である。   FIG. 46 is a diagram illustrating the relationship between the imaging range of each imaging apparatus and the output image generation range in the system of the present embodiment.

図46において、撮影範囲4600は全体撮影装置201の撮影範囲であり、撮影範囲4610は左面撮影装置202の撮影範囲であり、撮影範囲4611は右面撮影装置203の撮影範囲である。また、出力画像生成範囲4620は出力画像の生成範囲である。図46は、本実施の形態を適用する場合の条件について説明するためのものであり、各々の範囲の実際の形状は図46に記載のものと大きく異なっていてもよい。   In FIG. 46, an imaging range 4600 is an imaging range of the entire imaging device 201, an imaging range 4610 is an imaging range of the left side imaging device 202, and an imaging range 4611 is an imaging range of the right side imaging device 203. An output image generation range 4620 is an output image generation range. FIG. 46 is for explaining the conditions when this embodiment is applied, and the actual shape of each range may be greatly different from that shown in FIG.

本実施例は、出力画像生成範囲4620の一部が撮影範囲4600の外側にはみ出している場合について適用するに好適な例である。撮影範囲4610と撮影範囲4611とに共通して含まれる範囲がある場合でも対応が可能であるようにした例ではあるが、撮影範囲4610と撮影範囲4611とに共通して含まれる範囲が存在することは、必ずしも本実施の形態に必要な条件ではない。   This embodiment is an example suitable for application to a case where a part of the output image generation range 4620 protrudes outside the imaging range 4600. In this example, it is possible to cope with the case where there is a range included in both the shooting range 4610 and the shooting range 4611. However, there is a range included in both the shooting range 4610 and the shooting range 4611. This is not necessarily a necessary condition for the present embodiment.

本実施例の適用に関しては、出力画像生成範囲4620の全体が撮影範囲4600と撮影範囲4610と撮影範囲4611の和集合に含まれることが必要条件となる。また、撮影範囲4610と撮影範囲4611と出力画像生成範囲4620とに共通して含まれる範囲が存在する場合には、該範囲を撮影範囲4600が含んでいることが望ましい。   Regarding the application of this embodiment, it is a necessary condition that the entire output image generation range 4620 is included in the union of the shooting range 4600, the shooting range 4610, and the shooting range 4611. In addition, when there is a range that is commonly included in the shooting range 4610, the shooting range 4611, and the output image generation range 4620, the shooting range 4600 preferably includes the range.

図47は本実施例のシステムにおいて被写体位置による不整合の発生の仕方の違いを説明するための図である。   FIG. 47 is a diagram for explaining a difference in how inconsistencies occur depending on the subject position in the system of the present embodiment.

図47において、視点位置4700は全体撮影装置201が画像データを生成する際の投影中心となる位置、すなわち、出力画像データ生成時の投影中心となる位置であり、視点位置4710は左面撮影装置202が画像データを生成する際の投影中心となる位置であり、視点位置4711は右面撮影装置203が画像データを生成する際の投影中心となる位置である。   In FIG. 47, a viewpoint position 4700 is a position serving as a projection center when the entire image capturing apparatus 201 generates image data, that is, a position serving as a projection center when generating output image data, and a viewpoint position 4710 is a left-side image capturing apparatus 202. Is a position serving as a projection center when image data is generated, and a viewpoint position 4711 is a position serving as a projection center when the right side photographing apparatus 203 generates image data.

被写体4730と被写体4731は、視点位置4700を中心とする円4720上に乗っている被写体、すなわち、視点位置4700に関して等距離にある被写体である。この2つの被写体に対して、視点位置4710から見た場合と視点位置4711から見た場合の見える方向の差は、被写体4730に関しては角度4740となり、被写体4731に関しては角度4741となる。ここで、角度4740の方が角度4741よりも大きいことは明らかである。   A subject 4730 and a subject 4731 are subjects on a circle 4720 centered on the viewpoint position 4700, that is, subjects that are equidistant with respect to the viewpoint position 4700. For these two subjects, the difference between the directions seen from the viewpoint position 4710 and the viewpoint position 4711 is an angle 4740 for the subject 4730 and an angle 4741 for the subject 4731. Here, it is clear that the angle 4740 is larger than the angle 4741.

この例から、本撮影システムの撮影領域の中央部に比べ、周辺部の方が不整合が目立ちにくいということが言える。本実施例は、この性質を利用し、中央部に関しては1つの撮影装置で撮影した画像データと整合性のある画像データを生成し、周辺部に関しては、中央部と滑らかに繋がるように別の撮影装置で撮影した画像データを接続しようというものである。本実施例においては、本質的に、1つの撮影装置で撮影した画像データと整合する画像データを撮像することは不可能であるが、そのような画像データに比べて見た目では遜色のない出力画像データを生成する。   From this example, it can be said that the inconsistency is less noticeable in the peripheral portion than in the central portion of the photographing region of the photographing system. The present embodiment utilizes this property, generates image data that is consistent with the image data captured by one photographing apparatus for the central portion, and separates the peripheral portion so as to be smoothly connected to the central portion. This is an attempt to connect image data photographed by a photographing apparatus. In the present embodiment, it is essentially impossible to capture image data that matches image data captured by a single imaging device, but an output image that is visually inferior to such image data. Generate data.

図48は本実施例のシステムにおける採用画素決定処理のフローチャートである。図48において、図43と同じ符号は、図43と同じものを表す。   FIG. 48 is a flowchart of adopted pixel determination processing in the system of this embodiment. 48, the same reference numerals as those in FIG. 43 denote the same elements as those in FIG.

図48の採用画素決定処理において、図43の採用画素決定処理と異なるのは、ステップ4801と、ステップ4802と、ステップ4803と、ステップ4804である。以下、これらのステップの詳細について説明する。   The adopted pixel determination process in FIG. 48 differs from the adopted pixel determination process in FIG. 43 in Step 4801, Step 4802, Step 4803, and Step 4804. Details of these steps will be described below.

ステップ4801における初期化処理の違いは、WTの初期化処理である。図43のステップ4301で説明した初期化処理においては、「WT=1」となるように初期化を行ったが、本実施例のステップ4801においては、図49で説明するように参照元座標値に依存した初期化を行う。なお、WLとWRの初期化については、図43のステップ4301と同じ処理を行う。   The difference in the initialization process in step 4801 is the WT initialization process. In the initialization process described in step 4301 of FIG. 43, initialization is performed so that “WT = 1”. In step 4801 of the present embodiment, as shown in FIG. Performs initialization depending on. For initialization of WL and WR, the same processing as step 4301 in FIG. 43 is performed.

ステップ4802は、図43のステップ4303に対応する処理である。図43のステップ4303においては、WLの値を0としていたが、本実施例のステップ4802においてはWLの値をW0とする。ここでW0は、WTが1である場合には結果に影響しないような非常に小さな数である。具体的には、出力画像データ650の画素値の取り得る範囲が0から255である場合には、例えばW0の値として1/512を採用すればよい。   Step 4802 is processing corresponding to step 4303 in FIG. In step 4303 of FIG. 43, the value of WL is set to 0. However, in step 4802 of this embodiment, the value of WL is set to W0. Here, W0 is a very small number that does not affect the result when WT is 1. Specifically, when the possible range of the pixel value of the output image data 650 is 0 to 255, for example, 1/512 may be adopted as the value of W0.

これは、出力画像データ650の画素値が離散値であることを利用したものであり、このような処理とするのは、全体サンプリング用データ4100中の参照元座標値が全体入力画像データ221の端に近づくにしたがって、不整合が発生した場合においても、左面入力画像データ222または右面入力画像データ223の画素値を優先して出力画像データ650を生成するようにするためである。これにより、全体入力画像データ221に写っている領域から、全体入力画像データ221に写っておらず、したがって左面入力画像データ222または右面入力画像データ223の画素値のみから出力画像データ650の画素値を決定しなければならない領域に、滑らかに接続ができるようにする。   This is based on the fact that the pixel value of the output image data 650 is a discrete value. Such processing is performed because the reference source coordinate value in the entire sampling data 4100 is the entire input image data 221. This is because the output image data 650 is generated with priority given to the pixel values of the left-side input image data 222 or the right-side input image data 223 even when a mismatch occurs as it approaches the end. As a result, the pixel value of the output image data 650 is determined from only the pixel value of the left side input image data 222 or the right side input image data 223 from the region shown in the whole input image data 221 and not in the whole input image data 221. It is necessary to make a smooth connection to the area where it is necessary to determine.

同様に、ステップ4803は、図43のステップ4305に対応する処理である。図43のステップ4305においては、WRの値を0としていたが、本実施例のステップ4803においてはWRの値をW0とする。   Similarly, Step 4803 is processing corresponding to Step 4305 in FIG. In step 4305 in FIG. 43, the value of WR is set to 0. However, in step 4803 of this embodiment, the value of WR is set to W0.

ステップ4804は、図43のステップ4306に対応する処理である。図43のステップ4306においては「WL+WR>0」か否かの判定を行っていたが、本実施例のステップ4804では「WL+WR≧1」か否かの判定を行う。これは、全体参照画像データ631の画素値と左面参照画像データ632の画素値、あるいは、全体参照画像データ631の画素値と右面参照画像データ633の画素値との間で、整合性がある場合にのみWT=0とし、その他の場合には、全体入力画像データ221の画素値と左面入力画像データ222の画素値と右面入力画像データ223の画素値とを重みを考慮してブレンドすることによって出力画像データ650の画素値を決定するようにするためである。   Step 4804 is processing corresponding to step 4306 in FIG. In step 4306 of FIG. 43, it is determined whether or not “WL + WR> 0”, but in step 4804 of this embodiment, it is determined whether or not “WL + WR ≧ 1”. This is because there is consistency between the pixel value of the overall reference image data 631 and the pixel value of the left reference image data 632, or between the pixel value of the overall reference image data 631 and the pixel value of the right reference image data 633. In other cases, the pixel value of the entire input image data 221, the pixel value of the left surface input image data 222, and the pixel value of the right surface input image data 223 are blended in consideration of the weight. This is because the pixel value of the output image data 650 is determined.

図49は本実施例のシステムにおける全体サンプリング用データ4100の重み値の決定方法を説明するための図である。図49において、図46と同じ符号は、図46と同じものを表す。   FIG. 49 is a diagram for explaining a method of determining the weight value of the entire sampling data 4100 in the system of the present embodiment. 49, the same reference numerals as those in FIG. 46 denote the same elements as those in FIG.

WTの初期値は、少なくとも撮影範囲4610と撮影範囲4611と出力画像生成範囲4620とに共通して含まれる範囲においては「WT=1」とし、そこから撮影範囲4600の境界に近づくにしたがって「WT=0」となるように連続に変化させる。   The initial value of WT is “WT = 1” at least in a range included in common with the shooting range 4610, the shooting range 4611, and the output image generation range 4620, and from that point toward the boundary of the shooting range 4600, “WT” = 0 ”continuously.

具体的には、図49の断面4900におけるWTの初期値を決定するための関数として、関数4910を用いる。関数4910は、撮影範囲4610と撮影範囲4611と出力画像生成範囲4620とに共通して含まれる範囲を包含する領域4921では「WT=1」であり、それ以外の領域となる領域4920及び領域4022では撮影範囲4600の境界に近づくにしたがって「WT=0」となるような連続関数である。   Specifically, a function 4910 is used as a function for determining the initial value of WT in the cross section 4900 of FIG. The function 4910 is “WT = 1” in the region 4921 including the range included in common with the shooting range 4610, the shooting range 4611, and the output image generation range 4620, and the region 4920 and the region 4022 which are other regions. The continuous function is such that “WT = 0” as it approaches the boundary of the imaging range 4600.

以上、本実施例によれば、実施例5に記載の例に対して、さらに、全体撮影装置の撮影範囲に課する条件を、左面撮影装置と右面撮影装置が重複して撮影している領域だけを含んでいればよい、という条件に緩めた場合にも、適用することができる。   As described above, according to the present embodiment, in addition to the example described in the fifth embodiment, an area in which the left side photographing device and the right side photographing device are photographing the conditions imposed on the photographing range of the whole photographing device. It can be applied even when relaxed to the condition that it only has to be included.

以下、図50〜図55を用いて、第7の実施の形態について説明する。   Hereinafter, the seventh embodiment will be described with reference to FIGS. 50 to 55.

本実施例は、実施例2に記載の例に対して、さらに、全体撮影装置以外の撮影装置の焦点距離や姿勢の変更ができるようにした例である。これは例えば、遠隔会議システムにおいて、音声認識等によって発言者の位置が特定できる場合に、該発言者が中央に写るように姿勢を制御した上で、該発言者をズームアップして撮影し、該発言者の表情までを細やかに表現する、といったアプリケーションに適用するのに好適な例である。   The present embodiment is an example in which the focal length and posture of an imaging apparatus other than the whole imaging apparatus can be changed with respect to the example described in the second embodiment. For example, in a remote conference system, when the position of the speaker can be specified by voice recognition or the like, the posture is controlled so that the speaker is reflected in the center, and then the speaker is zoomed in and photographed. This is an example suitable for application to an application that expresses the expression of the speaker in detail.

図50は本実施例のシステムのシステム構成図である。図50において、図23と同じ符号は、図23と同じものを表す。   FIG. 50 is a system configuration diagram of the system of this embodiment. 50, the same reference numerals as those in FIG. 23 denote the same elements as those in FIG.

本実施例においては、左面撮影装置5020は、姿勢制御部5021と画角制御部5022とを備え、左面撮影装置202の機能に加え、撮影装置制御装置5010からの制御信号によって撮影姿勢及び撮影画角(あるいは焦点距離)を変更する機能を備える。同様に、右面撮影装置5030は、姿勢制御部5031と画角制御部5032とを備え、左面撮影装置203の機能に加え、撮影装置制御装置5010からの制御信号によって撮影姿勢及び撮影画角を変更する機能を備える。   In the present embodiment, the left surface photographing device 5020 includes an attitude control unit 5021 and an angle of view control unit 5022. In addition to the function of the left surface photographing device 202, a photographing posture and a photographing image are controlled by a control signal from the photographing device control device 5010. It has a function to change the corner (or focal length). Similarly, the right side photographing device 5030 includes an attitude control unit 5031 and an angle of view control unit 5032, and in addition to the functions of the left side photographing device 203, the photographing posture and the photographing angle of view are changed by a control signal from the photographing device control device 5010. It has a function to do.

撮影装置制御装置5010は、外部からの制御信号によって左面撮影装置5020及び右面撮影装置5030の撮影姿勢や撮影画角を制御し、変更後の左面撮影装置5020及び右面撮影装置5030の撮影姿勢や撮影画角の情報を、画像合成装置5000に送信する機能を持つ。   The photographing device control device 5010 controls the photographing posture and the photographing angle of view of the left surface photographing device 5020 and the right surface photographing device 5030 according to an external control signal, and the photographing posture and photographing of the left surface photographing device 5020 and the right surface photographing device 5030 after the change. It has a function of transmitting information on the angle of view to the image composition device 5000.

本実施例における画像合成装置5000は、全体制御部5080を、全体入力状態フラグ281、左面入力状態フラグ282、右面入力状態フラグ283、状態モードフラグ284、デフォルト画像データ285、に加え、動的内部パラメタデータ5081及び動的外部パラメタデータ5082を格納できるように構成し、撮影装置制御装置501より送信された、左面撮影装置5020及び右面撮影装置5030の撮影画角の情報を動的内部パラメタデータ5081に、撮影姿勢の情報を動的外部パラメタデータ5082に、それぞれ格納するように構成する。   The image composition device 5000 according to the present embodiment adds the overall control unit 5080 to the dynamic internal state flag 281, the left side input state flag 282, the right side input state flag 283, the state mode flag 284, and the default image data 285. The parameter data 5081 and the dynamic external parameter data 5082 can be stored, and the information on the shooting angle of view of the left side imaging device 5020 and the right side imaging device 5030 transmitted from the imaging device control unit 501 is obtained as the dynamic internal parameter data 5081. In addition, it is configured to store the information of the photographing posture in the dynamic external parameter data 5082, respectively.

また、画像処理部5040は、画像処理部2330に対して、図53を用いて説明する左面中間データ更新処理と、それに対応する右面中間データ更新処理とをさらに処理できるように構成し、また、中間データ更新処理5101の処理内容の一部を変更したものである。具体的には、採用画素決定処理を図54を用いて説明するものに変更し、また、出力画像データ生成処理2007の終了後に、図55を用いて説明する出力画像データ更新処理を実行するようにした。   Further, the image processing unit 5040 is configured to be able to further process the left side intermediate data update process described with reference to FIG. 53 and the corresponding right side intermediate data update process with respect to the image processing unit 2330. A part of the processing content of the intermediate data update processing 5101 is changed. Specifically, the adopted pixel determination process is changed to that described with reference to FIG. 54, and the output image data update process described with reference to FIG. 55 is executed after the output image data generation process 2007 is completed. I made it.

図51は、本実施例のシステムにおける画像合成処理のフローチャートである。図51において、図10と同じ符号は、図10と同じ処理を表す。   FIG. 51 is a flowchart of image composition processing in the system of this embodiment. 51, the same reference numerals as those in FIG. 10 represent the same processes as those in FIG.

ステップ5101の中間データ更新処理は、図28で説明した中間データ更新処理に対して、採用画素決定処理を図54を用いて説明するものに変更し、また、出力画像データ生成処理2007の終了後に、図55を用いて説明する出力画像データ更新処理を実行するようにしたものである。   In the intermediate data update process in step 5101, the adopted pixel determination process is changed to that described with reference to FIG. 54 with respect to the intermediate data update process described in FIG. 28, and after the output image data generation process 2007 is completed. , Output image data update processing described with reference to FIG. 55 is executed.

また、ステップ5102の撮影パラメタ変更関連処理の詳細については、図52を用いて説明する。   Details of the photographing parameter change related processing in step 5102 will be described with reference to FIG.

図52は、本実施例のシステムにおける撮影パラメタ変更関連処理のフローチャートである。   FIG. 52 is a flowchart of the photographing parameter change related process in the system of the present embodiment.

ステップ5200で撮影パラメタ変更関連処理が開始されると、まず、ステップ5201において、左面撮影装置5020の撮影パラメタの変更が完了したか否かを判定する。このとき、左面撮影装置5020の撮影パラメタが変化していない場合には「否」であると判定する。   When the shooting parameter change-related process is started in step 5200, first, in step 5201, it is determined whether or not the shooting parameter change of the left side shooting device 5020 has been completed. At this time, if the photographing parameter of the left side photographing device 5020 has not changed, it is determined as “No”.

ステップ5201において左面撮影装置5020の撮影パラメタの変更が完了したと判定された場合には、ステップ5202において左面中間データ更新処理を行う。左面中間データ更新処理の詳細については、図53を用いて説明する。   If it is determined in step 5201 that the change of the imaging parameter of the left side imaging device 5020 has been completed, the left side intermediate data update process is performed in step 5202. Details of the left side intermediate data update processing will be described with reference to FIG.

続いて、ステップ5203において、右面撮影装置5030の撮影パラメタの変更が完了したか否かを判定する。このとき、右面撮影装置5030の撮影パラメタが変化していない場合には「否」であると判定する。   Subsequently, in step 5203, it is determined whether or not the change of the shooting parameter of the right surface shooting device 5030 is completed. At this time, if the photographing parameter of the right side photographing device 5030 has not changed, it is determined as “No”.

ステップ5203において右面撮影装置5030の撮影パラメタの変更が完了したと判定された場合には、ステップ5204において右面中間データ更新処理を行う。右面中間データ更新処理は、ステップ5202における左面中間データ更新処理と同様の処理によって実施することができる。   If it is determined in step 5203 that the change of the shooting parameters of the right side photographing device 5030 has been completed, right side intermediate data update processing is performed in step 5204. The right side intermediate data update process can be performed by the same process as the left side intermediate data update process in step 5202.

以上の処理を終了後、ステップ5205において、撮影パラメタ変更関連処理を終了する。   After finishing the above processing, in step 5205, the photographing parameter change related processing is finished.

図53は、本実施例のシステムにおける左面中間データ更新処理のフローチャートである。   FIG. 53 is a flowchart of the left side intermediate data update process in the system of the present embodiment.

ステップ5300で左面中間データ更新処理が開始されると、まず、ステップ5301において内部パラメタデータ241と外部パラメタデータ242を読み込む。   When the left side intermediate data update process is started in step 5300, first, in step 5301, the internal parameter data 241 and the external parameter data 242 are read.

次に、ステップ5302において、動的内部パラメタデータ5081及び動的外部パラメタデータ5082を読み込む。   Next, in step 5302, dynamic internal parameter data 5081 and dynamic external parameter data 5082 are read.

次に、ステップ5303において、再マップ可能領域抽出処理を行う。これは、撮影パラメタの変更の前後で共通に撮影されている領域を出力画像データ650の座標上で抽出する処理であり、内部パラメタデータ241と外部パラメタデータ242と出力パラメタデータ244と動的内部パラメタデータ5081と動的外部パラメタデータ5082に基づいて算出されるものである。   Next, in step 5303, a remappable area extraction process is performed. This is a process of extracting a region that is commonly photographed before and after the photographing parameter change on the coordinates of the output image data 650. The internal parameter data 241, the external parameter data 242, the output parameter data 244, and the dynamic internal It is calculated based on the parameter data 5081 and the dynamic external parameter data 5082.

次に、ステップ5304において、再マップ可能領域中の画素に関して、中間データ再マップ処理を行う。これは、内部パラメタデータ241と外部パラメタデータ242と出力パラメタデータ244と動的内部パラメタデータ5081と動的外部パラメタデータ5082とを使い、撮影パラメタの変更前の値に基づいてデプス画像データ2360とマップ画像データ610と参照画像データ630を更新する処理である。   Next, in step 5304, intermediate data remapping processing is performed on the pixels in the remappable area. This uses internal parameter data 241, external parameter data 242, output parameter data 244, dynamic internal parameter data 5081, and dynamic external parameter data 5082, and depth image data 2360 based on the value before the change of the shooting parameter. This is a process for updating the map image data 610 and the reference image data 630.

次に、ステップ5305において、動的内部パラメタデータ5081で内部パラメタデータ241を更新し、続いてステップ5306において、動的外部パラメタデータ5082で外部パラメタデータ242を更新する。   Next, in step 5305, the internal parameter data 241 is updated with the dynamic internal parameter data 5081. Subsequently, in step 5306, the external parameter data 242 is updated with the dynamic external parameter data 5082.

次に、ステップ5307において、再マップ可能領域以外の領域に存在する画素に関して、中間データ生成処理を行う。これは、処理すべき画素が限定されていることを除いては、図24で説明した中間データ生成処理と同一の処理である。   Next, in step 5307, intermediate data generation processing is performed for pixels existing in an area other than the remappable area. This is the same process as the intermediate data generation process described with reference to FIG. 24 except that the pixels to be processed are limited.

以上の処理を終了後、ステップ5308において左面中間データ更新処理を終了する。   After finishing the above processing, the left side intermediate data update processing is ended in step 5308.

図54は、本実施例のシステムにおける採用画素決定処理のフローチャートである。
ステップ5400において採用画素決定処理が開始されると、まず、ステップ5401において左面撮影装置5020の撮影パラメタが変更中であるか否かを判定する。左面撮影装置5020の撮影パラメタが変更中でないと判定された場合には、ステップ5402においてVTとVLの差が許容範囲内にあるか否かを判定し、許容範囲内であると判定された場合には、ステップ5403に進み、合成マップ画像データ616のn番目の画素の画素値として、入力データ識別子721には「左面入力画像データ」を設定し、参照元X座標値722には左面マップ画像データ612のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には左面マップ画像データ612のn番目の画素の画素値である参照元Y座標値712を設定した後、ステップ5404に進んで採用画素決定処理を終了する。
FIG. 54 is a flowchart of adopted pixel determination processing in the system of this embodiment.
When the adopted pixel determination process is started in step 5400, first, in step 5401, it is determined whether or not the shooting parameter of the left surface shooting device 5020 is being changed. If it is determined that the imaging parameter of the left side imaging device 5020 is not being changed, it is determined in step 5402 whether or not the difference between VT and VL is within the allowable range, and it is determined that the imaging is within the allowable range. In step 5403, “left side input image data” is set in the input data identifier 721 as the pixel value of the nth pixel in the composite map image data 616, and the left side map image is set in the reference source X coordinate value 722. The reference source X coordinate value 711 that is the pixel value of the nth pixel of the data 612 is set, and the reference source Y coordinate value that is the pixel value of the nth pixel of the left map image data 612 is set as the reference source Y coordinate value 723. After setting 712, the process proceeds to step 5404 to end the adopted pixel determination process.

ステップ5401において左面撮影装置5020の撮影パラメタが変更中であると判定された場合、あるいは、ステップ5402においてVTとVLの差が許容範囲内にないと判定された場合には、ステップ5405に進む。   If it is determined in step 5401 that the imaging parameter of the left side imaging device 5020 is being changed, or if it is determined in step 5402 that the difference between VT and VL is not within the allowable range, the process proceeds to step 5405.

ステップ5405では、右面撮影装置5030の撮影パラメタが変更中であるか否かを判定する。右面撮影装置5030の撮影パラメタが変更中でないと判定された場合には、ステップ5406においてVTとVRの差が許容範囲内にあるか否かを判定し、許容範囲内であると判定された場合には、ステップ5407に進み、合成マップ画像データ616のn番目の画素の画素値として、入力データ識別子721には「右面入力画像データ」を設定し、参照元X座標値722には右面マップ画像データ613のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には右面マップ画像データ613のn番目の画素の画素値である参照元Y座標値712を設定した後、ステップ5404に進んで採用画素決定処理を終了する。   In step 5405, it is determined whether or not the shooting parameter of the right side shooting device 5030 is being changed. If it is determined that the shooting parameter of the right-side imaging device 5030 is not being changed, it is determined in step 5406 whether or not the difference between VT and VR is within the allowable range. In step 5407, “right side input image data” is set as the input data identifier 721 as the pixel value of the n th pixel of the composite map image data 616, and the right side map image is set as the reference source X coordinate value 722. The reference source X coordinate value 711 that is the pixel value of the nth pixel of the data 613 is set, and the reference source Y coordinate value that is the pixel value of the nth pixel of the right surface map image data 613 is set as the reference source Y coordinate value 723. After setting 712, the process proceeds to step 5404 to end the adopted pixel determination process.

ステップ5405において右面撮影装置5030の撮影パラメタが変更中であると判定された場合、あるいは、ステップ5406においてVTとVRの差が許容範囲内にないと判定された場合には、ステップ5408に進み、合成マップ画像データ616のn番目の画素の画素値として、入力データ識別子721には「全体入力画像データ」を設定し、参照元X座標値722には全体マップ画像データ611のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には全体マップ画像データ611のn番目の画素の画素値である参照元Y座標値712を設定した後、ステップ5404に進んで採用画素決定処理を終了する。   If it is determined in step 5405 that the imaging parameter of the right side imaging device 5030 is being changed, or if it is determined in step 5406 that the difference between VT and VR is not within the allowable range, the process proceeds to step 5408. As the pixel value of the nth pixel of the composite map image data 616, “entire input image data” is set in the input data identifier 721, and the nth pixel of the entire map image data 611 is set in the reference source X coordinate value 722. A reference source X coordinate value 711 that is a pixel value is set, and a reference source Y coordinate value 712 that is a pixel value of the nth pixel of the entire map image data 611 is set as the reference source Y coordinate value 723, and then step 5404. Then, the adopted pixel determination process is terminated.

図55は、本実施例のシステムにおける出力画像データ更新処理のフローチャートである。出力画像データ更新処理は、左面撮影装置202や右面撮影装置203の撮影パラメタが変化している場合に、例えば、出力画像データ650中のどの部分をどの程度ズームアップしているのか、が分かるようにするための処理である。   FIG. 55 is a flowchart of output image data update processing in the system of this embodiment. In the output image data update processing, when the shooting parameters of the left side photographing device 202 and the right side photographing device 203 are changed, for example, it is possible to know how much of the portion of the output image data 650 is zoomed up. It is a process to make.

ステップ5500で出力画像データ更新処理が開始されると、まず、ステップ5501において状態変化中撮影領域抽出用データを読み込む。状態変化中撮影領域抽出用データとは、具体的には、全体デプス画像データ2361と内部パラメタデータ241と外部パラメタデータ242と出力パラメタデータ244と動的内部パラメタデータ5081と動的外部パラメタデータ5082である。   When the output image data update process is started in step 5500, first, in step 5501, the shooting area extraction data during state change is read. Specifically, the state-changing shooting area extraction data includes the entire depth image data 2361, internal parameter data 241, external parameter data 242, output parameter data 244, dynamic internal parameter data 5081, and dynamic external parameter data 5082. It is.

次に、ステップ5502で、出力画像データ650を読み込む。   Next, in step 5502, output image data 650 is read.

次に、ステップ5503で、出力画像データ650に、状態変化中撮影領域の境界線を描き込み、あらためて出力画像データ650として格納する。
以上の処理を終了後、ステップ5504において、出力画像データ更新処理を終了する。
Next, in step 5503, the boundary line of the imaging region during the state change is drawn in the output image data 650 and stored again as output image data 650.
After finishing the above processing, in step 5504, the output image data update processing is finished.

以上、本実施例によれば、全体撮影装置以外の撮影装置の焦点距離や姿勢を変更し得る場合にも、適用することができる。   As described above, according to the present embodiment, the present invention can also be applied to cases where the focal length and posture of an imaging apparatus other than the whole imaging apparatus can be changed.

以下、図56〜図59を用いて、第8の実施の形態について説明する。   Hereinafter, the eighth embodiment will be described with reference to FIGS. 56 to 59.

本実施例は、実施例5に記載の例に対して、さらに、映像中の背景領域に相当する部分のうち、動きの少ない領域を高精細に表示できるようにした例である。   The present embodiment is an example in which, in addition to the example described in the fifth embodiment, an area with less movement among the portions corresponding to the background area in the video can be displayed with high definition.

図56は、本実施例のシステムのシステム構成図である。図56において、図2と同じ符号は、図2と同じものを表す。また、図56において、図6と同じ符号は、図6と同じものを表す。   FIG. 56 is a system configuration diagram of the system of this embodiment. 56, the same reference numerals as those in FIG. 2 denote the same elements as those in FIG. 56, the same reference numerals as those in FIG. 6 denote the same elements as those in FIG.

本実施例の画像合成装置5600では、まず、実施例5の画像合成装置に対して採用画素決定処理と出力画像データ生成処理の処理内容を変更した画像処理部5630を備えるようにした。変更後の採用画素決定処理の処理内容に関しては図58を用いて、変更後の出力画像データ生成処理の処理内容に関しては図59を用いて、それぞれ説明する。   In the image composition device 5600 of the present embodiment, first, an image processing unit 5630 in which the processing contents of the adopted pixel determination processing and the output image data generation processing are changed from the image composition device of the fifth embodiment is provided. The processing contents of the adopted pixel determination process after the change will be described with reference to FIG. 58, and the processing contents of the output image data generation process after the change will be described with reference to FIG.

本実施例の画像合成装置5600では、さらに、中間データ記憶部5660を、変換画像データ620と参照画像データ630と変化画像データ640と出力画像データ650とに加えて、合成マップ画像データの画素値のデータ形式を図41において説明した形式からさらに変更したマップ画像データ5610と、高精細背景画像データ5690とを格納できるように構成した。新たに変更した合成マップ画像データの画素値の形式については、図57を用いて説明する。   In the image composition device 5600 of this embodiment, the intermediate data storage unit 5660 further includes the pixel value of the composite map image data in addition to the converted image data 620, the reference image data 630, the changed image data 640, and the output image data 650. The map image data 5610 and the high-definition background image data 5690 obtained by further changing the data format from the format described in FIG. 41 can be stored. The newly changed pixel value format of the composite map image data will be described with reference to FIG.

高精細背景画像データ5690は、全体入力画像データ221より高品質な画像データとなるように、全体撮影装置201を用いて撮影したものである。   The high-definition background image data 5690 is taken using the whole photographing apparatus 201 so that the image data is higher quality than the whole input image data 221.

全体撮影装置201が特別な機能を備えていない場合には、例えば、撮影を複数回実施して、その平均を取った画像データを生成し、高精細背景画像データ5690として格納すればよい。この場合、時間平均の効果により、全体入力画像データ221に比べてノイズの少ない高品質な画像を得ることができる。   In the case where the entire photographing apparatus 201 does not have a special function, for example, photographing may be performed a plurality of times, and the averaged image data may be generated and stored as high-definition background image data 5690. In this case, a high-quality image with less noise than the entire input image data 221 can be obtained due to the effect of time averaging.

また、全体入力画像データ221が動画モードと静止画モードとの切替機能を備えている場合、一般には、静止画モードで撮影した方が高品質な画像データが撮影できるような仕組みとなっているため、該静止画モードで撮影した画像データを、そのまま高精細背景画像データ5690として格納してもよい。   In addition, when the entire input image data 221 has a function of switching between the moving image mode and the still image mode, in general, it is structured such that high quality image data can be captured when the image is captured in the still image mode. Therefore, the image data captured in the still image mode may be stored as the high-definition background image data 5690 as it is.

また、全体撮影装置201に対して焦点距離の制御や撮影姿勢の制御などが可能である場合には、超解像と呼ばれる技術を用いた画像処理により高精細背景画像データ5690を生成して格納してもよい。   In addition, when the focal length control or the shooting posture control can be performed on the whole photographing apparatus 201, high-definition background image data 5690 is generated and stored by image processing using a technique called super-resolution. May be.

図57は、本実施例のシステムにおける合成マップ画像データ616の画素値のデータ形式を説明する図である。図57において、図41と同じ符号は、図41と同じものを表す。   FIG. 57 is a diagram for explaining the data format of the pixel value of the composite map image data 616 in the system of the present embodiment. 57, the same reference numerals as those in FIG. 41 denote the same elements as those in FIG.

本実施例においては、データ形式4120の代わりに、データ形式4120に高精細背景サンプリング用データ5700を加えた形式であるデータ形式5720を用いる。高精細背景サンプリング用データ5700は、重み値WHと、高精細背景画像データのX座標値XHと、高精細背景画像データのY座標値YHとで構成する。重み値WHとX座標値XHとY座標値YHは、いずれも実数値である。   In this embodiment, instead of the data format 4120, a data format 5720 that is a format obtained by adding the high-definition background sampling data 5700 to the data format 4120 is used. The high-definition background sampling data 5700 includes a weight value WH, an X-coordinate value XH of the high-definition background image data, and a Y-coordinate value YH of the high-definition background image data. The weight value WH, the X coordinate value XH, and the Y coordinate value YH are all real values.

ここで、X座標値XHとY座標値YHは、本実施例の撮像システムの撮影領域全体に渡って被写体が静止していると仮定した場合に、合成マップ画像データのすべての画素の画素値において「WT=1,WL=WR=WH=0」として図59で説明する出力画像データ生成処理を実行した場合と、合成マップ画像データのすべての画素の画素値において「WH=1,WT=WL=WR=0」として図59で説明する出力画像データ生成処理を実行した場合とで、出力される画像データが略一致するように、高精細背景画像データ5690の生成方法と出力パラメタデータ244とに基づいて、あらかじめ計算され格納される値である。   Here, the X coordinate value XH and the Y coordinate value YH are the pixel values of all the pixels of the composite map image data when it is assumed that the subject is stationary over the entire imaging region of the imaging system of the present embodiment. In FIG. 59, the output image data generation process described in FIG. 59 is executed with “WT = 1, WL = WR = WH = 0”, and the pixel values of all the pixels of the composite map image data are “WH = 1, WT = The generation method of the high-definition background image data 5690 and the output parameter data 244 are set so that the output image data substantially matches the output image data generation processing described in FIG. 59 when “WL = WR = 0”. Based on the above, the value is calculated and stored in advance.

図58は、本実施例のシステムにおける採用画素決定処理のフローチャートである。
ステップ5800で採用画素決定処理が開始されると、まず、ステップ5801においてWTとWLとWRとWHの値を初期化する。具体的には、WTとWLとWRに関しては図43のステップ4301と同じ値で初期化を行い、WHに関しては1とする。
FIG. 58 is a flowchart of adopted pixel determination processing in the system of this embodiment.
When the adopted pixel determination process is started in step 5800, first, in step 5801, the values of WT, WL, WR, and WH are initialized. Specifically, WT, WL, and WR are initialized with the same values as in step 4301 in FIG. 43, and WH is set to 1.

次にステップ5802のVL判定処理において、所定の閾値に基づいて、VTとVLの値の差が許容範囲内か否かを判定し、許容範囲外の場合にはWLの値を0とする処理を行う。   Next, in the VL determination processing in step 5802, based on a predetermined threshold value, it is determined whether or not the difference between the values of VT and VL is within the allowable range. If the difference is outside the allowable range, the value of WL is set to 0. I do.

続いてステップ5803のVR判定処理において、所定の閾値に基づいて、VTとVRの値の差が許容範囲内か否かを判定し、許容範囲外の場合にはWRの値を0とする処理を行う。   Subsequently, in the VR determination process in step 5803, it is determined whether or not the difference between the values of VT and VR is within the allowable range based on a predetermined threshold value. If the difference is outside the allowable range, the WR value is set to 0. I do.

続いて、ステップ5804において、「WL+WR>0」、すなわち、WLとWRの値の少なくとも一方は0でないか否かを判定する。WLとWRの値の少なくとも一方が0でない場合には、ステップ5805でWTとWHの値を0とした上でステップ5809へ進み、WLとWRの値の両方が0である場合には、そのままステップ5806へ進む。   Subsequently, in Step 5804, it is determined whether or not “WL + WR> 0”, that is, at least one of the values of WL and WR is not 0. If at least one of the values of WL and WR is not 0, the value of WT and WH is set to 0 in step 5805, and then the process proceeds to step 5809. If both the values of WL and WR are 0, they are left as they are. Proceed to step 5806.

ステップ5806では、所定の閾値に基づいて、VTとVHの値の差が許容範囲内か否かを判定する。ここで、VHは、合成マップ画像データ616のn番目の画素の画素値における高精細背景サンプリング用データ5700と高精細背景画像データ5690とから算出される値である。該判定結果が許容範囲内である場合にはステップ5807に進んでWTの値を0とし、許容範囲外である場合にはステップ5808に進んでWHの値を0とする。   In step 5806, based on a predetermined threshold, it is determined whether or not the difference between the values of VT and VH is within an allowable range. Here, VH is a value calculated from the high-definition background sampling data 5700 and the high-definition background image data 5690 at the pixel value of the nth pixel of the composite map image data 616. If the determination result is within the allowable range, the process proceeds to step 5807 to set the WT value to 0, and if it is outside the allowable range, the process proceeds to step 5808 to set the WH value to 0.

続いて、ステップ5809でWTとWLとWRとWHの値を正規化する処理を行う。具体的には、WTとWLとWRとWHのそれぞれを、それらの値の総和(WT+WL+WR+WH)で割ることにより、WTとWLとWRとWHの値の和が1となるようにする。   Subsequently, in step 5809, processing for normalizing the values of WT, WL, WR, and WH is performed. Specifically, the sum of the values of WT, WL, WR, and WH is set to 1 by dividing each of WT, WL, WR, and WH by the sum of their values (WT + WL + WR + WH).

以上の処理が終了した後、ステップ5810において採用画素決定処理を終了する。   After the above processing ends, the adopted pixel determination processing ends at step 5810.

図59は、本実施例のシステムにおける出力画像データ生成処理のフローチャートである。   FIG. 59 is a flowchart of output image data generation processing in the system of this embodiment.

ステップ5900で出力画像データ生成処理が開始されると、まず、ステップ5901において、処理すべき画素のシリアル番号であるnを0に初期化する。   When the output image data generation process is started in step 5900, first, in step 5901, n, which is the serial number of the pixel to be processed, is initialized to 0.

次に、ステップ5902において、合成マップ画像データ616からn番目の画素の画素値を読み込む。   Next, in step 5902, the pixel value of the nth pixel is read from the composite map image data 616.

次に、ステップ5903において、ステップ5902で読み込んだデータに基づいて、高精細背景画像データ5690の画素値を含めた各入力画像データの画素値の重み付きの和を取ることにより、出力画像データ650のn番目の画素の画素値を決定する。   Next, in step 5903, based on the data read in step 5902, the output image data 650 is obtained by taking a weighted sum of the pixel values of each input image data including the pixel values of the high-definition background image data 5690. The pixel value of the nth pixel is determined.

次に、ステップ5904において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ5905において、出力画像データ650中のすべての画素について処理が終了したか否かを判定する。出力画像データ650中のすべての画素について処理が終了している場合にはステップ5906に進んで出力画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ5902に進んで処理を続ける。   In step 5904, n, which is the serial number of the pixel to be processed, is incremented by 1. Subsequently, in step 5905, it is determined whether or not processing has been completed for all the pixels in the output image data 650. If all pixels in the output image data 650 have been processed, the process proceeds to step 5906 to end the output image data generation process. If there are pixels that have not been processed yet, the process proceeds to step 5902. Proceed and continue processing.

以上、本実施例によれば、実施例5に記載の例に対して、さらに、映像中の背景領域に相当する部分のうち、動きの少ない領域を高精細に表示することができる。また、高精細背景画像データ5690はあらかじめ生成しておくことの可能なデータであるため、遠隔会議システムなどのアプリケーションにおいて、ネットワークの負荷を増やすことなく、出力画像データの品質をよくすることができる。   As described above, according to the present embodiment, in addition to the example described in the fifth embodiment, it is possible to display a region with less movement among portions corresponding to the background region in the video with high definition. Further, since the high-definition background image data 5690 is data that can be generated in advance, the quality of the output image data can be improved without increasing the network load in an application such as a remote conference system. .

なお、上記実施例においては、高精細背景画像データ5690は全体撮影装置201を用いて撮影するものとしたが、高精細背景画像データ5690の画素に対しても全体参照画像データ631との整合性判定を行っているため、実施の形態はこれに限るものではない。左面撮影装置202や右面撮影装置203を用いて撮影した画像データに対して内部パラメタデータや外部パラメタデータを考慮した幾何変換処理を施して生成してもよいし、新たに備えた別の撮影装置を用いて撮影した画像データに対して同様の幾何変換処理を施して生成してもよい。   In the above-described embodiment, the high-definition background image data 5690 is taken using the whole photographing apparatus 201. However, the pixels of the high-definition background image data 5690 are consistent with the whole reference image data 631. Since the determination is performed, the embodiment is not limited to this. It may be generated by performing geometric transformation processing in consideration of internal parameter data and external parameter data on the image data photographed using the left surface photographing device 202 and the right surface photographing device 203, or another newly provided photographing device It may be generated by applying the same geometric transformation process to the image data photographed using.

なお、上記、実施例1から実施例8までの例においては、全体撮影装置1つとその他の撮影装置2つを備えた場合を例として実施の形態を説明してきたが、実施の形態はこれに限るものではなく、全体撮影装置1つに加えてその他の撮影装置を複数備えるような一般の構成に対して適用可能であることは明らかである。   In the above-described examples from Example 1 to Example 8, the embodiment has been described by way of an example in which one overall photographing apparatus and two other photographing apparatuses are provided. However, the embodiment is not limited thereto. The present invention is not limited, and it is obvious that the present invention can be applied to a general configuration including a plurality of other photographing apparatuses in addition to one whole photographing apparatus.

効果を説明するための概念図である。It is a conceptual diagram for demonstrating an effect. 実施例1のシステムのシステム構成図である。1 is a system configuration diagram of a system of Example 1. FIG. 実施例1のシステムにおいて入力データ記憶部に格納するデータの説明図である。It is explanatory drawing of the data stored in an input data storage part in the system of Example 1. FIG. 実施例1のシステムにおいて全体制御部に格納するデータの説明図である。It is explanatory drawing of the data stored in a whole control part in the system of Example 1. FIG. 実施例1のシステムにおいてパラメタ記憶部に格納するデータの説明図である。It is explanatory drawing of the data stored in a parameter memory | storage part in the system of Example 1. FIG. 実施例1のシステムにおいて中間データ記憶部に格納するデータの説明図である。It is explanatory drawing of the data stored in an intermediate data storage part in the system of Example 1. FIG. 実施例1のシステムにおける各種マップ画像データの画素値のデータ形式を説明する図である。It is a figure explaining the data format of the pixel value of the various map image data in the system of Example 1. FIG. 実施例1のシステムにおける画像合成処理の動作を説明するための状況説明図である。FIG. 6 is a situation explanatory diagram for explaining the operation of image composition processing in the system according to the first embodiment. 実施例1のシステムにおける画像合成処理の動作を説明するための概念図である。FIG. 3 is a conceptual diagram for explaining an operation of image composition processing in the system of Embodiment 1. 実施例1のシステムにおける画像合成処理のフローチャートである。3 is a flowchart of image composition processing in the system according to the first exemplary embodiment. 実施例1のシステムにおける中間データ生成処理のフローチャートである。3 is a flowchart of intermediate data generation processing in the system according to the first embodiment. 実施例1のシステムにおけるマップ画像データ初期化処理のフローチャートである。3 is a flowchart of map image data initialization processing in the system of Embodiment 1; 実施例1のシステムにおける全体変換画像データ生成処理のフローチャートである。3 is a flowchart of overall conversion image data generation processing in the system of Embodiment 1; 実施例1のシステムにおける左面マップ画像データ生成処理のフローチャートである。It is a flowchart of the left surface map image data generation process in the system of Example 1. 実施例1のシステムにおけるマップ画像データの合成方法の説明図である。It is explanatory drawing of the synthetic | combination method of the map image data in the system of Example 1. FIG. 実施例1のシステムにおける全体参照画像データ生成処理のフローチャートである。6 is a flowchart of overall reference image data generation processing in the system of Embodiment 1; 実施例1のシステムにおける合成マップ画像データ生成処理のフローチャートである。6 is a flowchart of a composite map image data generation process in the system according to the first embodiment. 実施例1のシステムにおける採用画素決定処理のフローチャートである。3 is a flowchart of adopted pixel determination processing in the system of Embodiment 1; 実施例1のシステムにおける出力画像データ生成処理のフローチャートである。3 is a flowchart of output image data generation processing in the system of Embodiment 1. 実施例1のシステムにおける中間データ更新処理のフローチャートである。3 is a flowchart of intermediate data update processing in the system according to the first embodiment. 実施例1のシステムにおける全体変化画像データ生成処理のフローチャートである。4 is a flowchart of overall change image data generation processing in the system of Embodiment 1; 実施例1のシステムにおける左面マップ画像データ更新処理のフローチャートである。It is a flowchart of the left surface map image data update process in the system of Example 1. 実施例2のシステムのシステム構成図である。FIG. 6 is a system configuration diagram of a system according to a second embodiment. 実施例2のシステムにおける中間データ生成処理のフローチャートである。10 is a flowchart of intermediate data generation processing in the system according to the second embodiment. 実施例2のシステムにおけるデプス画像データ生成処理のフローチャートである。10 is a flowchart of depth image data generation processing in the system according to the second embodiment. 実施例2のシステムにおける規定探索デプス集合データの構成方法を説明するための図である。It is a figure for demonstrating the structure method of the regulation search depth set data in the system of Example 2. FIG. 実施例2のシステムにおける左面マップ画像データ生成処理のフローチャートである。It is a flowchart of the left surface map image data generation process in the system of Example 2. 実施例2のシステムにおける中間データ更新処理のフローチャートである。10 is a flowchart of intermediate data update processing in the system according to the second embodiment. 実施例2のシステムにおける全体デプス画像データ更新処理のフローチャートである。10 is a flowchart of an entire depth image data update process in the system according to the second embodiment. 実施例2のシステムにおける画素値優先デプス決定処理のフローチャートである。10 is a flowchart of pixel value priority depth determination processing in the system according to the second embodiment. 実施例2のシステムにおける臨時探索距離集合データ及び最大探索距離集合データの構成方法を説明するための図である。It is a figure for demonstrating the construction method of the temporary search distance set data and the maximum search distance set data in the system of Example 2. 実施例2のシステムにおける背景デプス画像データ更新処理のフローチャートである。10 is a flowchart of a background depth image data update process in the system according to the second embodiment. 実施例2のシステムにおける左面マップ画像データ更新処理のフローチャートである。It is a flowchart of the left surface map image data update process in the system of Example 2. 実施例3のシステムにおける全体デプス画像データ更新処理のフローチャートである。10 is a flowchart of an entire depth image data update process in the system according to the third embodiment. 実施例3のシステムにおけるフロー優先デプス決定処理のフローチャートである。12 is a flowchart of flow priority depth determination processing in the system according to the third embodiment. 実施例4のシステムのシステム構成図である。FIG. 10 is a system configuration diagram of a system according to a fourth embodiment. 実施例4のシステムにおける画像合成処理のフローチャートである。10 is a flowchart of image composition processing in the system of Embodiment 4. 実施例4のシステムにおける出力画像データ更新処理のフローチャートである。14 is a flowchart of output image data update processing in the system of Embodiment 4. 実施例4のシステムにおける環境再構築データの生成方法を説明するための図である。FIG. 10 is a diagram for explaining a method for generating environment reconstruction data in the system according to the fourth embodiment. 実施例5のシステムにおける各撮影装置の撮影範囲と出力画像の生成範囲との関係を表す図である。FIG. 10 is a diagram illustrating a relationship between a shooting range of each shooting apparatus and a generation range of an output image in the system according to the fifth embodiment. 実施例5のシステムにおける合成マップ画像データの画素値のデータ形式を説明する図である。It is a figure explaining the data format of the pixel value of the composite map image data in the system of Example 5. 実施例5のシステムにおける重み値の算出方法を説明するための図である。FIG. 10 is a diagram for explaining a weight value calculation method in the system according to the fifth embodiment. 実施例5のシステムにおける採用画素決定処理のフローチャートである。14 is a flowchart of adopted pixel determination processing in the system of Example 5. 実施例5のシステムにおける出力画像データ生成処理のフローチャートである。10 is a flowchart of output image data generation processing in the system of Embodiment 5. 実施例6のシステムにおける各撮影装置の撮影範囲を説明するための状況説明図である。FIG. 10 is a situation explanatory diagram for explaining a photographing range of each photographing apparatus in the system of Example 6; 実施例6のシステムにおける各撮影装置の撮影範囲と出力画像の生成範囲との関係を表す図である。FIG. 10 is a diagram illustrating a relationship between a shooting range of each shooting apparatus and a generation range of an output image in the system according to the sixth embodiment. 実施例6のシステムにおいて被写体位置による不整合の発生の仕方の違いを説明するための図である。FIG. 10 is a diagram for explaining a difference in how inconsistency occurs depending on a subject position in the system according to the sixth embodiment. 実施例6のシステムにおける採用画素決定処理のフローチャートである。18 is a flowchart of adopted pixel determination processing in the system of Example 6. 実施例6のシステムにおける全体サンプリング用データの重み値の決定方法を説明するための図である。FIG. 10 is a diagram for explaining a method of determining weight values of entire sampling data in the system of the sixth embodiment. 実施例7のシステムのシステム構成図である。FIG. 10 is a system configuration diagram of a system according to a seventh embodiment. 実施例7のシステムにおける画像合成処理のフローチャートである。18 is a flowchart of image composition processing in the system according to the seventh embodiment. 実施例7のシステムにおける撮影パラメタ変更関連処理のフローチャートである。18 is a flowchart of imaging parameter change related processing in the system according to the seventh embodiment. 実施例7のシステムにおける左面中間データ更新処理のフローチャートである。It is a flowchart of the left surface intermediate data update process in the system of Example 7. 実施例7のシステムにおける採用画素決定処理のフローチャートである。18 is a flowchart of adopted pixel determination processing in the system of Example 7. 実施例7のシステムにおける出力画像データ更新処理のフローチャートである。18 is a flowchart of output image data update processing in the system of Embodiment 7. 実施例8のシステムのシステム構成図である。FIG. 10 is a system configuration diagram of a system according to an eighth embodiment. 実施例8のシステムにおける合成マップ画像データの画素値のデータ形式を説明する図である。FIG. 20 is a diagram illustrating a data format of pixel values of composite map image data in the system of Example 8. 実施例8のシステムにおける採用画素決定処理のフローチャートである。18 is a flowchart of adopted pixel determination processing in the system of Example 8. 実施例8のシステムにおける出力画像データ生成処理のフローチャートである。16 is a flowchart of output image data generation processing in the system of Example 8. ハードウェア構成図である。It is a hardware block diagram.

符号の説明Explanation of symbols

110、120、130・・・入力画像データ、111・・・出力画像データ、910・・・時刻(T−1)における全体入力画像データ、920・・・時刻(T−1)における右面入力画像データ、911・・・時刻Tにおける全体入力画像データ、912・・・更新前の全体参照画像データ、913・・・全体変換画像データ、914・・・全体変化画像データ、915・・・更新後の全体参照画像データ、921・・・時刻Tにおける右面入力画像データ、922・・・更新前の右面参照画像データ、923・・・右面変換画像データ、924・・・右面変化画像データ、925・・・更新後の右面参照画像データ、2620、2621、3121・・・デプス集合データ、4000、4010、4011・・・撮影範囲、4020・・・出力範囲、4600、4610、4611・・・撮影範囲、4612・・・重複撮影範囲、4620・・・出力範囲、4700、4710、4711・・・投影中心位置、4730、4731・・・被写体位置、4910・・・WTの初期値を決定するための関数
110, 120, 130 ... input image data, 111 ... output image data, 910 ... total input image data at time (T-1), 920 ... right input image at time (T-1) Data, 911 ... Overall input image data at time T, 912 ... Overall reference image data before update, 913 ... Overall converted image data, 914 ... Overall changed image data, 915 ... After update ,...,... Right side input image data at time T, 922... Right side reference image data before update, 923... Right side converted image data, 924. .. right-side reference image data after update, 2620, 2621, 3121 ... depth set data, 4000, 4010, 4011 ... shooting range, 4020 Output range 4600, 4610, 4611 ... Shooting range, 4612 ... Overlapping shooting range, 4620 ... Output range, 4700, 4710, 4711 ... Projection center position, 4730, 4731 ... Subject position , 4910... Function for determining the initial value of WT

Claims (7)

第1の入力画像データと第2の入力画像データを合成して所定の解像度の出力画像データを出力する画像合成装置であって、
前記出力画像データの各画素位置が前記第1の入力画像データ中のどの位置に対応するかを定義した第1の幾何変換パラメタと、前記出力画像データの各画素位置が前記第2の入力画像データ中のどの位置に対応するかを定義した第2の幾何変換パラメタと、を格納する幾何変換パラメタ記憶部と、
前記第1の幾何変換パラメタに基づいて前記第1の入力画像データを変換し第1の出力候補画像データを生成する第1の画像変換部と、
前記第2の幾何変換パラメタに基づいて前記第2の入力画像データを変換し第2の出力候補画像データを生成する第2の画像変換部と、
前記第1の出力候補画像データと前記第2の出力候補画像データを比較して、画素ごとに両者の差異が所定の許容範囲内にあるか否かを判定することによって整合性の有無を判定する整合性判定部と、
出力画像データの各画素に対して、前記整合性判定部によって整合性なしと判定された画素の画素値については前記第1の出力候補画像データの画素値に基づいて決定し、前記整合性判定部によって整合性ありと判定された画素の画素値については前記第2の出力候補画像データの画素値に基づいて決定することによって前記出力画像データを生成する出力画像データ生成部と、
を備えたことを特徴とする画像合成装置。
An image synthesis device that synthesizes first input image data and second input image data and outputs output image data of a predetermined resolution,
A first geometric transformation parameter defining which position in the first input image data each pixel position of the output image data corresponds to; and each pixel position of the output image data is the second input image. A second geometric transformation parameter defining which position in the data corresponds to; a geometric transformation parameter storage unit for storing;
A first image conversion unit that converts the first input image data based on the first geometric transformation parameter to generate first output candidate image data;
A second image conversion unit that converts the second input image data based on the second geometric conversion parameter to generate second output candidate image data;
The first output candidate image data and the second output candidate image data are compared, and whether or not there is consistency is determined by determining whether or not the difference between the two is within a predetermined allowable range for each pixel. A consistency determination unit to perform,
For each pixel of the output image data, the pixel value of the pixel determined to be inconsistent by the consistency determination unit is determined based on the pixel value of the first output candidate image data, and the consistency determination An output image data generation unit that generates the output image data by determining the pixel value of the pixel determined to be consistent by the unit based on the pixel value of the second output candidate image data;
An image composition device comprising:
第1の入力画像データと第2の入力画像データと第3の入力画像データを合成して所定の解像度の出力画像データを出力する画像合成装置であって、
前記出力画像データの各画素位置が前記第1の入力画像データ中のどの位置に対応するかを定義した第1の幾何変換パラメタと、前記出力画像データの各画素位置が前記第2の入力画像データ中のどの位置に対応するかを定義した第2の幾何変換パラメタと、前記出力画像データの各画素位置が前記第3の入力画像データ中のどの位置に対応するかを定義した第3の幾何変換パラメタと、を格納するパラメタ記憶部と、
前記第1の幾何変換パラメタに基づいて前記第1の入力画像データを変換し第1の出力候補画像データを生成する第1の画像変換部と、
前記第2の幾何変換パラメタに基づいて前記第2の入力画像データを変換し第2の出力候補画像データを生成する第2の画像変換部と、
前記第3の幾何変換パラメタに基づいて前記第3の入力画像データを変換し第3の出力候補画像データを生成する第3の画像変換部と、
前記第1の出力候補画像データと前記第2の出力候補画像データを比較して、画素ごとに両者の整合性の有無を判定する第1の整合性判定部と、
前記第1の出力候補画像データと前記第3の出力候補画像データを比較して、画素ごとに両者の整合性の有無を判定する第2の整合性判定部と、
前記第1の整合性判定部及び前記第2の整合性判定部のいずれによっても整合性ありと判定された画素の画素値を決定するために、前記第2の出力候補画像データの画素値と前記第3の出力候補画像データの画素値の寄与率を決定する寄与率決定部と、
出力画像データの各画素に対して、
前記第1の整合性判定部によって整合性なしと判定され、かつ、前記第2の整合性判定部によって整合性なしと判定された画素の画素値については、前記第1の出力候補画像データの画素値に基づいて決定し、
前記第1の整合性判定部によって整合性ありと判定され、かつ、前記第2の整合性判定部によって整合性なしと判定された画素の画素値については、前記第2の出力候補画像データの画素値に基づいて決定し、
前記第1の整合性判定部によって整合性なしと判定され、かつ、前記第2の整合性判定部によって整合性ありと判定された画素の画素値については、前記第3の出力候補画像データの画素値に基づいて決定し、
前記第1の整合性判定部によって整合性ありと判定され、かつ、前記第2の整合性判定部によって整合性ありと判定された画素の画素値については、前記寄与率決定部によって決定された寄与率に基づいて、前記第2の出力候補画像データの画素値と前記第3の出力候補画像データの画素値に基づいて決定することによって、
出力画像データを生成する出力画像データ生成部と、
を備えたことを特徴とする画像合成装置。
An image synthesis device that synthesizes first input image data, second input image data, and third input image data and outputs output image data of a predetermined resolution,
A first geometric transformation parameter defining which position in the first input image data each pixel position of the output image data corresponds to; and each pixel position of the output image data is the second input image. A second geometric transformation parameter defining which position in the data corresponds to, and a third geometric transformation defining which position in the third input image data each pixel position of the output image data corresponds to A parameter storage unit for storing geometric transformation parameters;
A first image conversion unit that converts the first input image data based on the first geometric transformation parameter to generate first output candidate image data;
A second image conversion unit that converts the second input image data based on the second geometric conversion parameter to generate second output candidate image data;
A third image conversion unit that converts the third input image data based on the third geometric conversion parameter to generate third output candidate image data;
A first consistency determination unit that compares the first output candidate image data with the second output candidate image data and determines whether or not there is consistency between the two for each pixel;
A second consistency determination unit that compares the first output candidate image data and the third output candidate image data and determines whether or not there is consistency between the two for each pixel;
In order to determine the pixel value of the pixel determined to be consistent by both the first consistency determination unit and the second consistency determination unit, the pixel value of the second output candidate image data A contribution rate determination unit that determines a contribution rate of pixel values of the third output candidate image data;
For each pixel of the output image data
The pixel values of the pixels determined to be inconsistent by the first consistency determining unit and determined to be inconsistent by the second consistency determining unit are the values of the first output candidate image data. Based on the pixel value,
The pixel values of the pixels that are determined to be consistent by the first consistency determination unit and are determined to be non-consistent by the second consistency determination unit are included in the second output candidate image data. Based on the pixel value,
The pixel values of the pixels determined to be non-consistent by the first consistency determining unit and determined to be consistent by the second consistency determining unit are included in the third output candidate image data. Based on the pixel value,
The pixel value of the pixel determined to be consistent by the first consistency determination unit and determined to be consistent by the second consistency determination unit is determined by the contribution rate determination unit. By determining based on the pixel value of the second output candidate image data and the pixel value of the third output candidate image data based on the contribution rate,
An output image data generation unit for generating output image data;
An image composition device comprising:
請求項1に記載の画像合成装置であって、
さらに、
高品質画像データを格納する高品質画像データ格納部と、 前記第1の出力候補画像データと前記高品質画像データを比較して、画素ごとに両者の整合性の有無を判定する高品質整合性判定部とを備え、
前記出力画像データ生成部は、出力画像データの各画素に対して、前記整合性判定部によって整合性なしと判定された画素の画素値については、該画素が前記高品質整合性判定部によって整合性ありと判定された画素である場合には前記高品質画像データの画素値に基づいて決定し、該画素が前記高品質整合性判定部によって整合性なしと判定された画素である場合には前記第1の出力候補画像データの画素値に基づいて決定し、前記整合性判定部によって整合性ありと判定された画素の画素値については前記第2の出力候補画像データの画素値に基づいて決定することによって出力画像データを生成するようにしたことを特徴とする画像合成装置。
The image composition device according to claim 1,
further,
A high-quality image data storage unit that stores high-quality image data; and high-quality consistency that compares the first output candidate image data with the high-quality image data and determines whether or not there is consistency between the two for each pixel. A determination unit,
The output image data generation unit matches each pixel of the output image data with respect to the pixel value of the pixel determined to be inconsistent by the consistency determination unit, by the high quality consistency determination unit. If the pixel is determined to be compatible, it is determined based on the pixel value of the high quality image data, and if the pixel is determined to be non-consistent by the high quality consistency determination unit The pixel value of the pixel determined based on the pixel value of the first output candidate image data and determined to be consistent by the consistency determination unit is based on the pixel value of the second output candidate image data. An image synthesizing apparatus characterized in that output image data is generated by determination.
第1の撮影装置と、前記第1の撮影装置の撮影範囲と重複範囲を有するよう撮影する第2の撮影装置と、請求項1に記載の画像合成装置とを備えた撮像システムであって、
前記画像合成装置は、
前記第1の撮影装置の撮影した画像データを前記第1の入力画像データとして入力し、前記第2の撮影装置の撮影した画像データを前記第2の入力画像データとして入力するように構成することで、所定の解像度の画像データを出力するようにしたことを特徴とする撮像システム。
An imaging system comprising: a first imaging device; a second imaging device that performs imaging so as to have an overlapping range with an imaging range of the first imaging device; and the image composition device according to claim 1,
The image composition device includes:
Image data captured by the first image capturing device is input as the first input image data, and image data captured by the second image capturing device is input as the second input image data. An imaging system, wherein image data having a predetermined resolution is output.
請求項に記載の撮像システムであって、
前記第2の撮影装置が前記第1の撮影装置の撮影範囲の内部を撮影するように構成されることを特徴とする撮像システム。
The imaging system according to claim 4 ,
The imaging system, wherein the second imaging device is configured to take an image of the inside of the imaging range of the first imaging device.
第1の撮影装置と第2の撮影装置と第3の撮影装置と請求項2に記載の画像合成装置とを備えた撮像システムであって、
前記第2の撮影装置の撮影範囲と前記第3の撮影装置の撮影範囲は互いに重複を持つように構成され、さらに、前記第1の撮影装置の撮影範囲は前記第2の撮影装置と前記第3の撮影装置とが重複して撮影する範囲を含むように構成され、
前記画像合成装置は、
前記第1の撮影装置の撮影した画像データを前記第1の入力画像データとして入力し、前記第2の撮影装置の撮影した画像データを前記第2の入力画像データとして入力し、前記第3の撮影装置の撮影した画像データを前記第3の入力画像データとして入力するように構成することで、所定の解像度の画像データを出力するようにしたことを特徴とする撮像システム。
An imaging system comprising a first imaging device, a second imaging device, a third imaging device, and the image composition device according to claim 2,
The photographing range of the second photographing device and the photographing range of the third photographing device are configured to overlap each other, and the photographing range of the first photographing device is the second photographing device and the second photographing device. 3 is configured so as to include a range where the photographing device overlaps with the photographing device,
The image composition device includes:
Image data captured by the first image capturing device is input as the first input image data, image data captured by the second image capturing device is input as the second input image data, and the third input image data is input. An image pickup system configured to output image data having a predetermined resolution by inputting image data taken by an image pickup apparatus as the third input image data.
撮影画像データの画質を優先する高品質撮影モードと、撮影画像データの他の特性を優先する通常撮影モードとを備える第1の撮影装置と、前記第1の撮影装置の撮影範囲と重複を持つような範囲を撮影する第2の撮影装置と、請求項に記載の画像合成装置とを備えた撮像システムであって、
さらに、
前記第1の撮影装置を前記高品質撮影モードに設定して撮影した画像データを前記高品質画像データとして格納する高品質画像初期設定部を備え、
前記画像合成装置は、
前記第1の撮影装置を前記通常撮影モードに設定して撮影した画像データを前記第1の入力画像データとして入力し、前記第2の撮影装置の撮影した画像データを前記第2の入力画像データとして入力するように構成することで、
所定の解像度の画像データを出力するようにしたことを特徴とする撮像システム。
A first photographing apparatus having a high quality photographing mode that prioritizes the image quality of the photographed image data and a normal photographing mode that prioritizes other characteristics of the photographed image data, and overlaps with the photographing range of the first photographing apparatus. An imaging system comprising a second imaging device for imaging such a range, and the image composition device according to claim 3 ,
further,
A high-quality image initial setting unit that stores image data captured by setting the first imaging device in the high-quality imaging mode as the high-quality image data;
The image composition device includes:
Image data captured by setting the first imaging device to the normal imaging mode is input as the first input image data, and image data captured by the second imaging device is input to the second input image data. By configuring to enter as
An imaging system, wherein image data having a predetermined resolution is output.
JP2005043367A 2005-02-21 2005-02-21 Image composition device and imaging system Expired - Fee Related JP4506501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005043367A JP4506501B2 (en) 2005-02-21 2005-02-21 Image composition device and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005043367A JP4506501B2 (en) 2005-02-21 2005-02-21 Image composition device and imaging system

Publications (2)

Publication Number Publication Date
JP2006229802A JP2006229802A (en) 2006-08-31
JP4506501B2 true JP4506501B2 (en) 2010-07-21

Family

ID=36990727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005043367A Expired - Fee Related JP4506501B2 (en) 2005-02-21 2005-02-21 Image composition device and imaging system

Country Status (1)

Country Link
JP (1) JP4506501B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4943695B2 (en) 2005-11-21 2012-05-30 富士フイルム株式会社 Multifocal camera optical system
US7456779B2 (en) * 2006-08-31 2008-11-25 Sierra Nevada Corporation System and method for 3D radar image rendering
JP4827101B2 (en) * 2007-04-17 2011-11-30 富士フイルム株式会社 Control device, control method, imaging system, imaging method, and program
US20140307055A1 (en) * 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1093808A (en) * 1996-09-18 1998-04-10 Sharp Corp Image synthesis device/method
JPH10290389A (en) * 1997-04-16 1998-10-27 Toyota Motor Corp Multi-focus image formation method and image formation device
JPH11196319A (en) * 1997-12-26 1999-07-21 Minolta Co Ltd Image pickup device
JPH11205648A (en) * 1998-01-09 1999-07-30 Olympus Optical Co Ltd Image synthesizing device
JP2000059725A (en) * 1998-08-12 2000-02-25 Minolta Co Ltd Digital camera
JP2001036898A (en) * 1999-07-22 2001-02-09 Hitachi Ltd Camera system for generating panoramic video
JP2002083285A (en) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd Image compositing device and image compositing method
JP2003288067A (en) * 2002-03-28 2003-10-10 Hitachi Ltd Image display device
JP2005012619A (en) * 2003-06-20 2005-01-13 Mitsubishi Electric Corp Device for forming panoramic image

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1093808A (en) * 1996-09-18 1998-04-10 Sharp Corp Image synthesis device/method
JPH10290389A (en) * 1997-04-16 1998-10-27 Toyota Motor Corp Multi-focus image formation method and image formation device
JPH11196319A (en) * 1997-12-26 1999-07-21 Minolta Co Ltd Image pickup device
JPH11205648A (en) * 1998-01-09 1999-07-30 Olympus Optical Co Ltd Image synthesizing device
JP2000059725A (en) * 1998-08-12 2000-02-25 Minolta Co Ltd Digital camera
JP2001036898A (en) * 1999-07-22 2001-02-09 Hitachi Ltd Camera system for generating panoramic video
JP2002083285A (en) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd Image compositing device and image compositing method
JP2003288067A (en) * 2002-03-28 2003-10-10 Hitachi Ltd Image display device
JP2005012619A (en) * 2003-06-20 2005-01-13 Mitsubishi Electric Corp Device for forming panoramic image

Also Published As

Publication number Publication date
JP2006229802A (en) 2006-08-31

Similar Documents

Publication Publication Date Title
JP4657367B2 (en) Image processing apparatus, imaging apparatus, and image distortion correction method
US6393162B1 (en) Image synthesizing apparatus
KR101408426B1 (en) Image correcting apparatus, correction image generating method, correction table generating apparatus, correction table generating method, computer readable recording medium storing a correction table generating program, computer readable recording medium storing a correction image generating program
JP4513906B2 (en) Image processing apparatus, image processing method, program, and recording medium
CN100377171C (en) Method and apparatus for generating deteriorated numeral image
JP3650578B2 (en) Panoramic image navigation system using neural network to correct image distortion
JP6812862B2 (en) Image processing system, imaging device, image processing method and program
US20130058589A1 (en) Method and apparatus for transforming a non-linear lens-distorted image
US20040061774A1 (en) Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array
Ha et al. Panorama mosaic optimization for mobile camera systems
JP6434209B2 (en) Image generating apparatus, image generating method, and program
JPWO2006077710A1 (en) Image conversion method, texture mapping method, image conversion apparatus, server client system, image conversion program, shadow recognition method, and shadow recognition apparatus
JP4871820B2 (en) Video display system and parameter generation method for the system
JP4506501B2 (en) Image composition device and imaging system
JP2008113176A (en) Adjustment system of video display system
JP2004135209A (en) Generation device and method for wide-angle view high-resolution video image
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
US20120038785A1 (en) Method for producing high resolution image
JP4908350B2 (en) Image processing method and imaging apparatus using the image processing method
JP6702755B2 (en) Image processing device, imaging device, image processing method, and program
JP2018033080A (en) Image processing apparatus, image processing method and program
JP4686200B2 (en) Image conversion method and apparatus
KR102146839B1 (en) System and method for building real-time virtual reality
JP2013126123A (en) Image processing device, imaging apparatus, and image processing method
US20130343636A1 (en) Image processing apparatus, control method of the same and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100419

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4506501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees