JP2004342004A - Image processing device and program - Google Patents

Image processing device and program Download PDF

Info

Publication number
JP2004342004A
JP2004342004A JP2003140379A JP2003140379A JP2004342004A JP 2004342004 A JP2004342004 A JP 2004342004A JP 2003140379 A JP2003140379 A JP 2003140379A JP 2003140379 A JP2003140379 A JP 2003140379A JP 2004342004 A JP2004342004 A JP 2004342004A
Authority
JP
Japan
Prior art keywords
image
data
photographing
image processing
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003140379A
Other languages
Japanese (ja)
Inventor
Koichi Fujiwara
浩一 藤原
Shinichi Hotta
伸一 堀田
Koji Fujiwara
浩次 藤原
Osamu Toyama
修 遠山
Hideo Fujii
英郎 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2003140379A priority Critical patent/JP2004342004A/en
Publication of JP2004342004A publication Critical patent/JP2004342004A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide the technique of an image processing device which can efficiently generate predetermined data while preventing unnecessary photographing when sequential photographing is performed and predetermined data is generated based on plural pieces of the image data photographed. <P>SOLUTION: A data processing system comprises a camera and an image processing device. Image data of an object photographed by a photographer is transmitted to the image processing device. In the image processing device, modeling is performed based on the image data transmitted from the camera 2 for every photographing and plural pieces of image data already acquired, and texture image (photographed image) is mapped onto the three-dimensional model generated. In the case where the mapping is good, it is determined that photographing should be completed, and, in the case where the mapping is bad, it is determined that photographing should be continued, and this determination result is transmitted to the camera. The camera, which receives this notification of the completion of photographing, completes photographing. Due to this, image processing can be efficiently performed while preventing unnecessary photographing. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像データの処理が可能な画像処理装置の技術に関する。
【0002】
【従来の技術】
従来の画像処理技術においては、被写体を順次に撮影して取得された複数の画像データに基づき、モデリングやパノラマ画像の生成を行うものがある。
【0003】
上記のモデリングについては、例えば特許文献1に開示されており、対象物のシルエット画像から三次元モデルが生成される技術が記載されている。
【0004】
また、パノラマ画像の生成については、例えば特許文献2に開示されており、複数の二次元画像を貼り合わせ合成でパノラマ画像を作成する技術が記載されている。
【0005】
【特許文献1】
特開平8−105724号公報
【特許文献2】
特開平11−205648号公報
【0006】
【発明が解決しようとする課題】
しかしながら、上記のモデリングやパノラマ画像の生成において、撮影者が順次に撮影する際に、モデリングやパノラマ画像の生成に必要十分な画像データが現撮影時点で取得されているか否かを判断するのは難しい。よって、過剰な撮影が行われる場合があり、この場合には無駄な撮影が生じ、モデリングなどの処理を効率良く迅速に行えないこととなる。
【0007】
本発明は、上記課題に鑑みてなされたものであり、順次に撮影し取得された複数の画像データに基づき所定のデータを生成する際に、無駄な撮影を防止して所定のデータを効率良く生成できる画像処理装置の技術を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記の課題を解決するため、請求項1の発明は、画像データの処理が可能な画像処理装置であって、(a)撮影手段で順次に撮影し取得された複数の画像データに基づき、一定の条件を満たす所定のデータを生成する処理手段と、(b)前記撮影手段で1の撮影動作があった場合には、前記1の撮影動作によって取得された1の画像データと前記1の撮影動作の前に取得されていた複数の画像データとに基づき、前記所定のデータが生成可能であるか否かを判定する判定手段と、(c)前記判定手段で前記所定のデータが生成可能であると判断される場合には、前記撮影手段での撮影終了を通知する通知手段とを備える。
【0009】
また、請求項2の発明は、請求項1の発明に係る画像処理装置において、前記処理手段は、(b−1)前記複数の画像データに基づき、三次元データ処理を行って三次元データを生成する手段を有する。
【0010】
また、請求項3の発明は、請求項2の発明に係る画像処理装置において、前記処理手段は、(b−2)前記複数の画像データに基づき、前記三次元データ処理に係るキャリブレーション処理を行って前記撮影手段の固有データを生成する手段を有する。
【0011】
また、請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る画像処理装置において、前記処理手段は、(b−3)前記複数の画像データに基づき、画像合成処理を行ってパノラマ画像のデータを生成する手段を有する。
【0012】
また、請求項5の発明は、画像処理装置に内蔵されたコンピュータにおいて実行されることにより、当該画像処理装置を請求項1ないし請求項4のいずれかの発明に係る画像処理装置として機能させるプログラムである。
【0013】
【発明の実施の形態】
<第1実施形態>
<三次元データ処理システム>
図1は、本発明の第1実施形態に係るデータ処理システム1Aの要部構成を示す概略図である。
【0014】
データ処理システム1Aは、被写体である対象物SBを撮影するカメラ2と、カメラ2とケーブルCBを介して通信可能に接続する画像処理装置3Aとを備えている。なお、対象物SBは、置物であり、その形状が一定で安定している。
【0015】
カメラ2は、例えばデジタルカメラを利用し、立体物である対象物SBの2次元カラー画像の取得が可能である。撮影手段として働くカメラ2は、背面に例えば液晶ディスプレイなどの表示部20が設けられている。
【0016】
画像処理装置3Aは、例えばパーソナルコンピュータとして構成されており、画像データの処理が可能である。この画像処理装置3Aは、箱状の形状を有する処理部30と、操作部31と、例えばCRTで構成される表示部32とを有している。
【0017】
処理部30の前面には、光ディスク9を挿入するドライブ301が設けられている。
【0018】
操作部31は、マウス311とキーボード312とを有しており、ユーザからの画像処理装置3Aに対する操作入力を受付ける。
【0019】
図2は、データ処理システム1Aの機能ブロックを示す図である。
【0020】
カメラ2は、光学ユニット21を介して対象物SBを撮像する撮像部22と、これら各部と伝送可能に接続する制御部23とを備えている。また、カメラ2は、制御部23と伝送可能に接続する通信部I/F24および位置・姿勢検出部25を備えている。
【0021】
光学ユニット21は、レンズ群とこれらのレンズ群の配置を変更する駆動部とを有し、フォーカスやズームを行って対象物SBの光学像を撮像部22に結像させる。
【0022】
撮像部22は、例えばCCDなどの撮像素子を有して構成されている。そして、撮影素子で対象物SBのアナログ画像信号を取得した後、A/D変換を行ってデジタル信号の画像データを生成する。
【0023】
通信I/F24は、ケーブルCBを介して画像処理装置3Aとデータ伝送するためのインターフェースである。
【0024】
位置・姿勢検出部25は、例えば加速度センサおよびジャイロを有しており、カメラ2の三次元位置と、撮影方向を決めるカメラ2の姿勢とを検出する部位である。この位置・姿勢検出部25により、カメラ2の位置・姿勢情報が得られることとなる。
【0025】
制御部23は、CPUを有しており、カメラ2の動作を統括制御する部位である。また、制御部23は、撮像部22で取得した画像データを通信I/F24を介して画像処理装置3Aに送信するための制御を行う。
【0026】
画像処理装置3Aは、上記の操作部31および表示部32に伝送可能に接続する制御部33を備えている。また、画像処理装置3Aは、制御部33に伝送可能に接続する記憶部34と、入出力I/F35と、通信I/F36とを備えている。
【0027】
記憶部34は、例えばハードディスクとして構成されており、後述の撮影支援プログラムDPを格納する。
【0028】
入出力I/F35は、操作部31および表示部32と制御部33との間でデータの送受をコントロールするためのインターフェースである。
【0029】
入出力I/F35は、ドライブ301を介して、記録媒体である光ディスク9に対するデータの入出力を行うためのインターフェースである。
【0030】
通信I/F36は、ケーブルCBを介してカメラ2とデータ伝送するためのインターフェースである。
【0031】
制御部33は、コンピュータとして働くCPU331およびメモリ332を有しており、画像処理装置3Aの動作を統括制御する部位である。この制御部33で撮影支援プログラムDPが実行されることにより、撮影者の撮影動作を支援し、無駄な撮影を防止できる動作が画像処理装置3Aで行われることとなる(後で詳述)。
【0032】
制御部33のメモリ332には、光ディスク9に記録されている撮影支援プログラムDPなどのプログラムデータを入出力I/F35を介して格納することができる。これにより、この格納したプログラムを画像処理装置3Aの動作に反映できる。
【0033】
<モデリングおよびテクスチャ・マッピング>
データ処理システム1Aにおけるモデリングは、画像処理装置3Aにて行われる。すなわち、カメラ2で取得された画像データ、カメラ2の位置・姿勢情報および内部パラメータが画像処理装置3Aに送信され、これらのデータを受信した画像処理装置3Aの制御部33で、例えばShape From Shilhouette法(以下では「SFS法」という)を利用して対象物SBの三次元形状モデルが生成される。このモデリング処理を以下で説明する。
【0034】
図3は、モデリングを説明するための図である。図3(b)は、図3(a)に示す撮影状態から、カメラ2を方向Ha(図1参照)に所定量だけ移動させて対象物SBを撮影する様子を示している。
【0035】
まず、対象物SBを撮影した各画像G1、G2から、対象物SBの輪郭Gs1、Gs2(太線)が抽出され、そのシルエット画像を作成する。このシルエット画像は、物体表面と背景との色差に基づき対象物SBの輪郭Gs1、Gs2を抽出した後、例えば輪郭の内部を「1」に、輪郭の外部を「0」にする二値化された画像データとして作成される。すなわち、シルエット画像は、対象物SBに対して異なる視点(撮影位置)H1、H2から視線方向(撮影方向)Hd1、Hd2に見た対象物SBのシルエット、つまり視点H1、H2を中心とした対象物SBの二次元空間への投影画像となる。
【0036】
そして、例えば方向Ha(図1)にカメラ2を対象物SBの周りで移動させて、被写体に対する撮影方向を相対的に変更しつつ取得した複数の画像(シルエット画像)は、カメラ2の位置・姿勢情報および内部パラメータを利用して、所定の三次元座標系に関連付けることができる。これにより、対象物SBのシルエット領域である二次元形状について、上記のSFS法を利用することで統合でき、対象物SBの三次元形状モデル、具体的にはポリゴンデータが生成できる。
【0037】
以上のように生成された対象物SBのポリゴンデータは、例えば画像G1、G2のようにカメラ2で撮影された撮影画像(テクスチャ画像)がマッピングされる。このマッピングでは、三次元形状モデルの各ポリゴンに注目し、ポリゴンとテクスチャが略正対するようなテクスチャ画像がマッピングされる。
【0038】
上述したように、カメラ2で対象物SBを順次に撮影し取得された複数の画像データに基づき、モデリングおよびテクスチャ・マッピング(三次元データ処理)を行って、テクスチャ・マッピングが施された対象物SBの三次元モデル(三次元データ)が生成されることとなる。
【0039】
テクスチャ・マッピングにおいて、取得した画像の数が十分でない場合などに、情報量不足からポリゴンにテクスチャがマッピングできない不良な状態が主じる。具体的には、正対するテクスチャ画像が存在しないポリゴンがある場合、例えば対象物SBの後方面を撮影していない場合には、対象物SBの後部のポリゴンに割り当てるテクスチャ画像が存在しないので、マッピングの不良が生じることとなる。
【0040】
一方、複数の画像データが過不足なく取得されている場合には、これらの画像データから生成されるポリゴンにテクスチャが適切にマッピングされ、良好な三次元データが生成できるが、必要以上に画像データを取得するのは効率的でない。
【0041】
以上のことから、三次元形状モデルにテクスチャ・マッピングを行うために必要十分な画像データが取得できたか否かを判定して撮影者に通知する撮影支援を行えれば、無駄な撮影を省くことが可能となる。データ処理システム1Aにおける撮影支援動作を以下で説明する。
【0042】
<データ処理システム1Aの動作>
図4は、データ処理システム1Aにおける基本的な動作を説明するフローチャートである。また、図4(a)は、カメラ2の処理を示しており、図4(b)は、画像処理装置3Aの処理を示している。この画像処理装置3Aの処理は、制御部33でデータ処理プログラムDPが実行されることにより実施される。
【0043】
ステップS1では、撮影者により撮影された対象物SBの画像データをカメラ2で生成する。
【0044】
ステップS2では、ステップS1で生成された画像データを、通信I/F24を介して送信する。この画像データの送信の際には、位置・姿勢検出部25で検出されたカメラ2の位置・姿勢情報および内部パラメータも送信する。この内部パラメータ(カメラパラメータ)は、撮影条件などを表すもので、撮影する際の焦点距離や光軸中心などの情報に基づき一義的に定まるもので、第1実施形態のカメラ2においては既知となっている。
【0045】
以上のようにカメラ2から送信された画像データ、位置・姿勢情報および内部パラメータは、画像処理装置3Aで受信される(ステップS11)。
【0046】
ステップS12では、ステップS11で受信した画像データおよび位置・姿勢情報等から、上述したモデリングを行う。
【0047】
ステップS13では、ステップS12で生成された三次元モデルに対して、テクスチャ・マッピングを良好に行えるかを判定する。すなわち、ステップS1においてカメラ2で1の撮影動作があった場合には、この撮影動作によって取得された画像データと、この撮影動作の前に取得されていた複数の画像データとに基づき、一定の条件を満たす所定のデータ、つまりテキスチャ・マッピングが適切に施された三次元データが生成可能であるか否かを判定する。ここでは、上述したように、三次元モデルに、テクスチャをマッピングして、マッピングされない領域が存在するか否かを判断する。
【0048】
ステップS13において、テクスチャ・マッピングが良好である場合には、ステップS14に進み、良好でない場合には、ステップS15に進む。
【0049】
ステップS14では、撮影終了の判定を行う。ここでは、ステップS13の判定でテクスチャ・マッピングが良好であるため、撮影終了の信号が生成される。
【0050】
ステップS15では、撮影続行の判定を行う。ここでは、ステップS13の判定でテクスチャ・マッピングが不良であるため、撮影続行の信号が生成される。
【0051】
ステップS16では、カメラ2に判定結果を送信する。具体的には、ステップS14で生成された撮影終了の信号、またはステップS15で生成された撮影続行の信号がカメラ2に送信される。
【0052】
画像処理装置3Aから送信された判定結果は、カメラ2で受信される(ステップS3)。
【0053】
ステップS4では、ステップS3で受信した判定結果が撮影終了であるかを判断する。ここで、画像処理装置3Aから撮影終了の通知を受けた場合、つまり撮影終了の信号を受信した場合には、例えばカメラ2の表示部20に撮影終了の表示を行い撮影動作を終了させるようにして、処理を終了する。この際には、三次元形状モデルにテクスチャがマッピングされて適切な三次元データが画像処理装置3Aで生成されている。一方、撮影終了でない通知を受けた場合、つまり撮影続行の信号を受信した場合には、例えばカメラ2の表示部20に撮影続行の表示を行い撮影動作を続行させるようにして、ステップS1に戻る。
【0054】
以上のデータ処理システム1Aの動作により、撮影の度に画像処理装置3Aにおいて自動的に撮影終了を判定してカメラ2側にほぼリアルタイムで通知するため、無駄な撮影を防止して三次元データを効率よく生成できる。
【0055】
<第2実施形態>
本発明の第2実施形態に係るデータ処理システム1Bは、図1および図2に示す第1実施形態のデータ処理システム1Aと類似の構成を有しているが、画像処理装置、特に記憶部34内の撮影支援プログラムDPが異なっている。
【0056】
すなわち、第1実施形態の画像処理装置3Aは、カメラ2の内部パラメータが既知としてモデリングを行う際の撮影支援動作を行うための撮影支援プログラムDPを有するが、第2実施形態の画像処理装置3Bは、カメラ2の内部パラメータが未知である場合にカメラ校正(キャリブレーション)を行う際の撮影支援動作を行うための撮影支援プログラムDPを有している。このキャリブレーションについて以下で説明する。
【0057】
<キャリブレーション>
データ処理システム1Bにおけるキャリブレションは、例えば、文献『”3枚の中心射影画像によるカメラ内部変数・3次元形状・3次元運動の復元”、杉本典子、徐剛、情報処理学会研究報告、CVIM99−114、pp.9−16、1999』に記載される方法で行われる。以下では、この方法を簡単に説明する。
【0058】
図5は、キャリブレーションの動作を説明するフローチャートである。
【0059】
まず、カメラ2で対象物SBを撮影して取得した複数の画像データを画像処理装置3Bに送信する。そして、画像処理装置3Bでは、受信した複数の画像データに基づき、以下のステップを実行してキャリブレーションが行われる。
【0060】
ステップS21では、画像間における特徴点の対応付けを行う。例えば、図6に示す鼻先Sp1、耳先Sp2、Sp3など8点以上の特徴点を各画像に設定して、それらの対応をとる。
【0061】
ステップS22では、ステップS21で対応付けした特徴点に基づき、F行列(Fundamental Matrix)を算出する。このF行列は、カメラ2の内部パラメータと、カメラ2の位置・姿勢を表す外部パラメータとを含む情報となっている。
【0062】
ステップS23では、ステップS22で算出されたF行列に基づき、カメラ2の内部パラメータを算出する。この場合、例えばF行列に関するエネルギー関数(評価関数)を設定し、最急降下法によってエネルギー関数から導かれる数値が小さくなるように解かれることで内部パラメータが算出される。
【0063】
ステップS24では、ステップS22で算出されたF行列と、ステップS23で算出された内部パラメータとに基づき、E行列(Essential Matrix)を算出する。このE行列は、カメラ2の外部パラメータのみを含む情報である。
【0064】
ステップS25では、ステップS24で算出されたE行列に基づき、カメラ2の外部パラメータを算出する。
【0065】
以上のキャリブレーション処理により、未知であったカメラ2の内部パラメータ(固有データ)が生成され把握できることとなる。この内部パラメータを利用することで、第1実施形態におけるモデリングも適切に行える。
【0066】
このキャリブレーションにおいても、第1実施形態のテクスチャ・マッピングと同様に、良好でない演算結果となる場合には、新たな画像データを追加取得して補完する必要がある。例えば、上記のステップS21において画像間の特徴点対応がとれない場合や、上記のステップS23においてエネルギー値が予め定められた閾値以上である場合には不良であると判断する。
【0067】
一方、複数の画像データが過不足なく取得できればキャリブレーションが良好となるが、必要以上に画像データを取得するのは効率的でない。
【0068】
このことから、キャリブレーションにおいても、第1実施形態と同様に必要十分な画像データが取得できたか否かを判定して撮影者に通知する撮影支援を行えれば、無駄な撮影を省くことが可能となる。データ処理システム1Bにおける撮影支援動作を以下で説明する。
【0069】
<データ処理システム1Bの動作>
図7は、データ処理システム1Bにおける基本的な動作を説明するフローチャートである。また、図7(a)は、カメラ2の処理を示しており、図7(b)は、画像処理装置3Bの処理を示している。この画像処理装置3Bの処理は、制御部33でデータ処理プログラムDPが実行されることにより実施される。
【0070】
ステップS31では、撮影者により撮影された対象物SBの画像データをカメラ2で生成する。
【0071】
ステップS32では、ステップS31で生成された画像データを、通信I/F24を介して送信する。
【0072】
このようにカメラ2から送信された画像データは、画像処理装置3Bで受信される(ステップS41)。
【0073】
ステップS42では、ステップS41で受信した画像データから、図5に示すキャリブレーションの動作を行う。
【0074】
ステップS43では、ステップS42で行われるキャリブレーションが良好であるかを判定する。すなわち、ステップS31においてカメラ2で1の撮影動作があった場合には、この撮影動作によって取得された画像データと、この撮影動作の前に取得されていた複数の画像データとに基づき、一定の条件を満たす所定のデータ、つまり適切な数値範囲のカメラ2の内部パラメータ(固有データ)が生成可能であるか否かを判定する。ここでは、上述したように、画像間の特徴点対応がとれない場合や、エネルギー値が所定の閾値未満である場合には、良好でないと判断する。ここで、キャリブレーションが良好である場合には、ステップS44に進み、良好でない場合には、ステップS45に進む。
【0075】
ステップS44では、撮影終了の判定を行う。ここでは、ステップS43の判定でキャリブレーションが良好であるため、撮影終了の信号が生成される。
【0076】
ステップS45では、撮影続行の判定を行う。ここでは、ステップS43の判定でキャリブレーションが良好でないため、撮影続行の信号が生成される。
【0077】
ステップS46では、カメラ2に判定結果を送信する。具体的には、ステップS44で生成された撮影終了の信号、またはステップS45で生成された撮影続行の信号が送信される。
【0078】
画像処理装置3Bから送信された判定結果は、カメラ2で受信される(ステップS33)。
【0079】
ステップS34では、ステップS33で受信した判定結果が撮影終了であるかを判断する。ここで、画像処理装置3Bから撮影終了の通知を受けた場合、つまり撮影終了の信号を受信した場合には、例えばカメラ2の表示部20に撮影終了の表示を行い撮影動作を終了させるようにして、処理を終了する。また、撮影終了でない通知を受けた場合、つまり撮影続行の信号を受信した場合には、例えばカメラ2の表示部20に撮影続行の表示を行い撮影動作を続行させるようにして、ステップS31に戻る。
【0080】
以上のデータ処理システム1Bの動作により、撮影の度に画像処理装置3Bで自動的に撮影終了を判定してカメラ2側に通知するため、無駄な撮影を防止してキャリブレーションを効率良く行える。
【0081】
<第3実施形態>
図8は、本発明の第3実施形態に係るデータ処理システム1Cの要部構成を示す概略図である。
【0082】
データ処理システム1Cの外観については、図1に示す第1実施形態のデータ処理システム1Aと同様の構成となっている。
【0083】
また、データ処理システム1Cの機能ブロックは、図2に示す第1実施形態のデータ処理システム1Aと類似の構成を有しているが、画像処理装置、特に記憶部34内の撮影支援プログラムDPが異なっている。
【0084】
すなわち、第3実施形態の画像処理装置3Cでは、カメラ2で取得する画像を合成することでパノラマ画像を生成する際の撮影支援動作を行うための撮影支援プログラムDPを有している。このパノラマ画像の生成について以下で簡単に説明する。
【0085】
<パノラマ画像の生成>
データ処理システム1Cにおけるパノラマ画像の生成においては、図8に示すように、例えばカメラ2の撮影角度を回転方向Rtに変更しつつ、例えば図8に示す撮影領域P1(平行斜線部)や撮影領域P2(平行斜線部)を順次に撮影していく。なお、撮影領域P1および撮影領域P2は、撮影される領域のイメージを表したものである。
【0086】
そして、隣接する画像の端部、例えば撮影領域P1の画像および撮影領域P2の画像の端部Epが貼り合わされて画像が合成される。ここでは、カメラ2の位置・姿勢情報に基づき、各画像の三次元位置が反映された画像合成処理が行われる。
【0087】
以上の画像合成を繰り返すことにより、カメラ2を中心とした360度の全周囲パノラマ画像Pt(図8に示す円筒部分)が生成できることととなる。
【0088】
このパノラマ画像の生成処理においても、第1・第2実施形態と同様に、パノラマ画像Ptの生成ができない状態では、新たな画像データを取得する必要がある。具体的には、画像P1および画像P2などを順次に合成している途中段階において、パノラマ画像Ptが完成できない、すなわち撮影されていない領域が存在する場合には、追加の撮影が必要となる。
【0089】
一方、複数の画像データが過不足なく取得できればパノラマ画像Ptを生成できることとなるが、必要以上に画像データを取得するのは効率的でない。
【0090】
以上のことから、パノラマ画像の生成においても、第1・第2実施形態と同様に必要十分な画像データが取得できたか否かを判定して撮影者に通知する撮影支援を行えれば、無駄な撮影を省くことが可能となる。データ処理システム1Cにおける撮影支援動作を以下で説明する。
【0091】
<データ処理システム1Cの動作>
図9は、データ処理システム1Cにおける基本的な動作を説明するフローチャートである。また、図9(a)は、カメラ2の処理を示しており、図9(b)は、画像処理装置3Cの処理を示している。この画像処理装置3Cの処理は、制御部33でデータ処理プログラムDPが実行されることにより実施される。
【0092】
ステップS51では、撮影者により撮影された画像データをカメラ2で生成する。
【0093】
ステップS52では、ステップS51で生成された画像データを、通信I/F24を介して送信する。この画像データの送信の際には、位置・姿勢検出部25で検出されたカメラ2の位置・姿勢情報も送信する。
【0094】
以上のようにカメラ2から送信された画像データは、画像処理装置3Cで受信される(ステップS61)。
【0095】
ステップS62では、ステップS61で受信した画像データを画像合成することにより、全周囲のパノラマ画像Ptが生成できるかを判定する。すなわち、ステップS51においてカメラ2で1の撮影動作があった場合には、この撮影動作によって取得された画像データと、この撮影動作の前に取得されていた複数の画像データとに基づき、一定の条件を満たす所定のデータ、つまり全周囲のパノラマ画像Ptのデータが生成可能であるか否かを判定する。
【0096】
ステップS62において、全ての領域が撮影されて全周囲パノラマ画像が生成可能である場合には、ステップS63に進み、生成できない場合には、ステップS64に進む。
【0097】
ステップS63では、撮影終了の判定を行う。ここでは、ステップS62の判定で全周囲パノラマ画像が生成可能な状態であるため、撮影終了の信号が生成される。
【0098】
ステップS64では、撮影続行の判定を行う。ここでは、ステップS62の判定で全周囲パノラマ画像が未だ生成できない状態であるため、撮影続行の信号が生成される。
【0099】
ステップS65では、カメラ2に判定結果を送信する。具体的には、ステップS63で生成された撮影終了の信号、またはステップS64で生成された撮影続行の信号が送信される。
【0100】
画像処理装置3Cから送信された判定結果は、カメラ2で受信される(ステップS53)。
【0101】
ステップS54では、ステップS53で受信した判定結果が撮影終了であるかを判断する。ここで、画像処理装置3Cから撮影終了の通知を受けた場合、つまり撮影終了の信号を受信した場合には、例えばカメラ2の表示部20に撮影終了の表示を行い撮影動作を終了させるようにして、処理を終了する。そして、画像処理装置3Cでは、受信した複数の画像データに基づき、全周囲のパノラマ画像を生成する。
【0102】
一方、画像処理装置3Cから撮影終了でない通知を受けた場合、つまり撮影続行の信号を受信した場合には、例えばカメラ2の表示部20に撮影続行の表示を行い撮影動作を続行させるようにして、ステップS51に戻る。
【0103】
以上のデータ処理システム1Cの動作により、撮影の度に画像処理装置3Cで自動的に撮影終了を判定してカメラ2側に通知するため、無駄な撮影を防止して効率良くパノラマ画像を生成できる。
【0104】
<変形例>
◎上記の各実施形態においては、カメラと画像処理装置との間におけるデータ通信をケーブルCBを介して有線で行うのは必須でなく、無線で行っても良い。
【0105】
◎上記の各実施形態におけるカメラにおいては、静止画を撮影するのは必須でなく、動画を撮影しても良い。動画を撮影する場合には、連続した画像データから一定の間隔で静止画を切出し、複数の画像データを生成する。
【0106】
◎上記の各実施形態においては、画像処理装置側で撮影終了の判定を行うのは必須でなく、カメラ側で撮影終了の判定を行わせても良い。この場合には、上述の撮影支援プログラムDPが実行可能なカメラとして構成する必要がある。
【0107】
◎上記の各実施形態においては、三次元空間に固定された対象物SBに対してカメラを移動させて撮影するのは必須でなく、回転テーブル上の対象物を回転させつつ三次元空間に固定されたカメラで撮影するようにしても良い。
【0108】
この場合には、撮影者による撮影操作を行わなくとも、カメラで複数の画像データを自動的に取得する構成も可能となるが、このような構成でも、画像処理装置から撮影終了をカメラ側に通知することにより、撮影者による手動撮影と同様に、無駄な撮影を防止できることとなる。
【0109】
【発明の効果】
以上説明したように、請求項1ないし請求項5の発明によれば、撮影手段で撮影動作があった場合には撮影動作によって取得された画像データと撮影動作の前に取得されていた複数の画像データとに基づき所定のデータが生成可能であるか否かを判定し、生成可能であると判断される場合には撮影手段での撮影終了を通知する。その結果、無駄な撮影を防止して所定のデータを効率良く生成できる。
【0110】
特に、請求項2の発明においては、複数の画像データに基づき三次元データ処理を行って三次元データを生成するため、適切な三次元データを効率よく生成できる。
【0111】
また、請求項3の発明においては、複数の画像データに基づき三次元データ処理に係るキャリブレーション処理を行って撮影手段の固有データを生成するため、適切な固有データを効率よく生成できる。
【0112】
また、請求項4の発明においては、複数の画像データに基づき画像合成処理を行ってパノラマ画像のデータを生成するため、適切なパノラマ画像を効率よく生成できる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係るデータ処理システム1Aの要部構成を示す概略図である。
【図2】データ処理システム1Aの機能ブロックを示す図である。
【図3】モデリングを説明するための図である。
【図4】データ処理システム1Aにおける基本的な動作を説明するフローチャートである。
【図5】本発明の第2実施形態に係るデータ処理システム1Bにおけるキャリブレーションの動作を説明するフローチャートである。
【図6】キャリブレーションの動作を説明するための図である。
【図7】データ処理システム1Bにおける基本的な動作を説明するフローチャートである。
【図8】本発明の第3実施形態に係るデータ処理システム1Cの要部構成を示す概略図である。
【図9】データ処理システム1Cにおける基本的な動作を説明するフローチャートである。
【符号の説明】
1A、1B、1C データ処理システム
2 カメラ
3A、3B、3C 画像処理装置
20 表示部
25 位置・姿勢検出部
33 制御部
DP 撮影支援プログラム
Pt パノラマ画像
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus capable of processing image data.
[0002]
[Prior art]
2. Description of the Related Art Some conventional image processing techniques perform modeling and generate a panoramic image based on a plurality of image data obtained by sequentially photographing a subject.
[0003]
The above-described modeling is disclosed in, for example, Patent Document 1, and describes a technique for generating a three-dimensional model from a silhouette image of an object.
[0004]
Further, generation of a panoramic image is disclosed, for example, in Patent Document 2, and describes a technique of creating a panoramic image by combining and combining a plurality of two-dimensional images.
[0005]
[Patent Document 1]
JP-A-8-105724
[Patent Document 2]
JP-A-11-205648
[0006]
[Problems to be solved by the invention]
However, in the above-described modeling and generation of a panoramic image, when a photographer sequentially shoots, it is determined whether or not sufficient image data necessary for modeling or generation of a panoramic image has been acquired at the time of the current imaging. difficult. Therefore, excessive shooting may be performed. In this case, useless shooting occurs, and processing such as modeling cannot be performed efficiently and quickly.
[0007]
The present invention has been made in view of the above-described problems, and when generating predetermined data based on a plurality of image data sequentially captured and acquired, it is possible to prevent unnecessary shooting and efficiently convert predetermined data. It is an object of the present invention to provide a technology of an image processing device that can generate the image.
[0008]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, the invention according to claim 1 is an image processing apparatus capable of processing image data, wherein (a) a fixed image processing apparatus based on a plurality of image data sequentially photographed and acquired by photographing means. Processing means for generating predetermined data that satisfies the conditions of (b), and (b) when one photographing operation is performed by the photographing means, one image data acquired by the one photographing operation and one photographing operation Determining means for determining whether the predetermined data can be generated based on a plurality of image data acquired before the operation; and (c) the predetermined data can be generated by the determining means. If it is determined that there is, a notifying unit is provided for notifying the end of the shooting by the shooting unit.
[0009]
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect of the present invention, the processing means performs (B-1) three-dimensional data processing based on the plurality of pieces of image data to convert the three-dimensional data. Means for generating.
[0010]
According to a third aspect of the present invention, in the image processing apparatus according to the second aspect of the present invention, the processing unit performs (b-2) a calibration process related to the three-dimensional data processing based on the plurality of image data. And means for generating unique data of the photographing means.
[0011]
According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, the processing means performs (b-3) an image combining process based on the plurality of pieces of image data. Means for generating panoramic image data.
[0012]
According to a fifth aspect of the present invention, there is provided a program executed by a computer incorporated in an image processing apparatus to cause the image processing apparatus to function as the image processing apparatus according to any one of the first to fourth aspects. It is.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
<First embodiment>
<Three-dimensional data processing system>
FIG. 1 is a schematic diagram illustrating a main configuration of a data processing system 1A according to the first embodiment of the present invention.
[0014]
The data processing system 1A includes a camera 2 for photographing an object SB as a subject, and an image processing device 3A communicably connected to the camera 2 via a cable CB. In addition, the target object SB is an ornament, and its shape is constant and stable.
[0015]
The camera 2 can acquire a two-dimensional color image of the object SB, which is a three-dimensional object, using a digital camera, for example. The camera 2 serving as a photographing unit is provided with a display unit 20 such as a liquid crystal display on the back surface.
[0016]
The image processing device 3A is configured as a personal computer, for example, and can process image data. The image processing apparatus 3A includes a processing unit 30 having a box shape, an operation unit 31, and a display unit 32 configured by, for example, a CRT.
[0017]
A drive 301 for inserting the optical disc 9 is provided on the front of the processing unit 30.
[0018]
The operation unit 31 has a mouse 311 and a keyboard 312, and receives an operation input to the image processing apparatus 3A from a user.
[0019]
FIG. 2 is a diagram illustrating functional blocks of the data processing system 1A.
[0020]
The camera 2 includes an imaging unit 22 that captures an image of the target SB via the optical unit 21, and a control unit 23 that is communicably connected to these units. Further, the camera 2 includes a communication unit I / F 24 and a position / posture detection unit 25 which are connected to the control unit 23 so as to be able to transmit.
[0021]
The optical unit 21 has a lens group and a drive unit that changes the arrangement of these lens groups, and forms an optical image of the target SB on the imaging unit 22 by performing focus and zoom.
[0022]
The imaging unit 22 includes an imaging element such as a CCD, for example. Then, after an analog image signal of the object SB is acquired by the imaging element, A / D conversion is performed to generate image data of a digital signal.
[0023]
The communication I / F 24 is an interface for transmitting data with the image processing apparatus 3A via the cable CB.
[0024]
The position / posture detection unit 25 has, for example, an acceleration sensor and a gyro, and is a part that detects a three-dimensional position of the camera 2 and a posture of the camera 2 that determines a shooting direction. The position / posture information of the camera 2 is obtained by the position / posture detection unit 25.
[0025]
The control unit 23 has a CPU, and is a part that controls the operation of the camera 2 overall. Further, the control unit 23 performs control for transmitting the image data acquired by the imaging unit 22 to the image processing device 3A via the communication I / F 24.
[0026]
The image processing device 3A includes a control unit 33 that is connected to the operation unit 31 and the display unit 32 so that transmission is possible. Further, the image processing apparatus 3A includes a storage unit 34 that is connected to the control unit 33 so that transmission is possible, an input / output I / F 35, and a communication I / F 36.
[0027]
The storage unit 34 is configured as, for example, a hard disk, and stores a shooting support program DP described later.
[0028]
The input / output I / F 35 is an interface for controlling transmission and reception of data between the control unit 33 and the operation unit 31 and the display unit 32.
[0029]
The input / output I / F 35 is an interface for inputting and outputting data to and from the optical disc 9 as a recording medium via the drive 301.
[0030]
The communication I / F 36 is an interface for transmitting data with the camera 2 via the cable CB.
[0031]
The control unit 33 includes a CPU 331 and a memory 332 that function as a computer, and is a unit that controls the operation of the image processing apparatus 3A. When the control unit 33 executes the photographing support program DP, the image processing device 3A performs an operation that supports the photographing operation of the photographer and prevents unnecessary photographing (described later in detail).
[0032]
In the memory 332 of the control unit 33, program data such as the photographing support program DP recorded on the optical disk 9 can be stored via the input / output I / F 35. Thus, the stored program can be reflected on the operation of the image processing apparatus 3A.
[0033]
<Modeling and texture mapping>
Modeling in the data processing system 1A is performed by the image processing device 3A. That is, the image data acquired by the camera 2, the position / posture information of the camera 2, and the internal parameters are transmitted to the image processing apparatus 3 </ b> A, and the control unit 33 of the image processing apparatus 3 </ b> A that has received these data, for example, Shape From Shilohette A three-dimensional shape model of the object SB is generated using a method (hereinafter, referred to as “SFS method”). This modeling process will be described below.
[0034]
FIG. 3 is a diagram for explaining modeling. FIG. 3B shows a state in which the camera 2 is moved by a predetermined amount in the direction Ha (see FIG. 1) from the photographing state shown in FIG.
[0035]
First, contours Gs1 and Gs2 (thick lines) of the object SB are extracted from the images G1 and G2 obtained by photographing the object SB, and a silhouette image thereof is created. After extracting the contours Gs1 and Gs2 of the target SB based on the color difference between the object surface and the background, the silhouette image is binarized to set the inside of the contour to “1” and the outside of the contour to “0”, for example. Created as image data. That is, the silhouette image is a silhouette of the target SB viewed from different viewpoints (photographing positions) H1 and H2 in the line-of-sight directions (photographing directions) Hd1 and Hd2 with respect to the target SB, that is, an object centered on the viewpoints H1 and H2. This is a projection image of the object SB onto the two-dimensional space.
[0036]
Then, for example, by moving the camera 2 around the target SB in the direction Ha (FIG. 1), the plurality of images (silhouette images) acquired while relatively changing the shooting direction with respect to the subject include the position of the camera 2 Utilizing the posture information and the internal parameters, it can be associated with a predetermined three-dimensional coordinate system. Thus, the two-dimensional shape that is the silhouette area of the target SB can be integrated by using the above-described SFS method, and a three-dimensional shape model of the target SB, specifically, polygon data can be generated.
[0037]
The polygon data of the object SB generated as described above is mapped with a photographed image (texture image) photographed by the camera 2 such as images G1 and G2. In this mapping, attention is paid to each polygon of the three-dimensional shape model, and a texture image is mapped such that the polygon and the texture substantially face each other.
[0038]
As described above, modeling and texture mapping (three-dimensional data processing) are performed based on a plurality of pieces of image data obtained by sequentially photographing the object SB with the camera 2 to perform texture mapping. A three-dimensional model (three-dimensional data) of the SB is generated.
[0039]
In texture mapping, when the number of acquired images is not sufficient, a defect state where a texture cannot be mapped to a polygon due to an insufficient amount of information is mainly involved. More specifically, when there is a polygon for which no texture image is directly opposed, for example, when the rear surface of the object SB is not photographed, there is no texture image to be assigned to the polygon at the rear of the object SB. Will occur.
[0040]
On the other hand, when a plurality of image data have been acquired without excess or deficiency, textures are appropriately mapped on polygons generated from these image data, and good three-dimensional data can be generated. Is not efficient to get.
[0041]
From the above, it is possible to eliminate unnecessary photographing if it is possible to determine whether or not sufficient image data necessary for performing texture mapping on the three-dimensional shape model has been acquired and notify the photographer of the photographing support. Becomes possible. The photographing support operation in the data processing system 1A will be described below.
[0042]
<Operation of Data Processing System 1A>
FIG. 4 is a flowchart illustrating a basic operation in the data processing system 1A. FIG. 4A shows the processing of the camera 2, and FIG. 4B shows the processing of the image processing device 3A. The processing of the image processing apparatus 3A is performed by the control unit 33 executing the data processing program DP.
[0043]
In step S <b> 1, the camera 2 generates image data of an object SB photographed by a photographer.
[0044]
In step S2, the image data generated in step S1 is transmitted via the communication I / F 24. When transmitting the image data, the position / posture information and the internal parameters of the camera 2 detected by the position / posture detection unit 25 are also transmitted. The internal parameters (camera parameters) represent shooting conditions and the like, and are uniquely determined based on information such as the focal length and the optical axis center at the time of shooting, and are known in the camera 2 of the first embodiment. Has become.
[0045]
The image data, the position / orientation information, and the internal parameters transmitted from the camera 2 as described above are received by the image processing device 3A (step S11).
[0046]
In step S12, the above-described modeling is performed from the image data and the position / posture information received in step S11.
[0047]
In step S13, it is determined whether texture mapping can be performed favorably on the three-dimensional model generated in step S12. That is, when there is one photographing operation by the camera 2 in step S1, a certain amount of photographing operation is performed based on image data acquired by the photographing operation and a plurality of image data acquired before the photographing operation. It is determined whether or not predetermined data that satisfies the condition, that is, three-dimensional data to which texture mapping is appropriately performed can be generated. Here, as described above, the texture is mapped to the three-dimensional model, and it is determined whether or not there is an unmapped area.
[0048]
In step S13, if the texture mapping is good, the process proceeds to step S14; otherwise, the process proceeds to step S15.
[0049]
In step S14, the end of shooting is determined. Here, since the texture mapping is good in the determination in step S13, a signal indicating the end of imaging is generated.
[0050]
In step S15, it is determined whether to continue shooting. Here, since the texture mapping is defective in the determination in step S13, a signal to continue shooting is generated.
[0051]
In step S16, the determination result is transmitted to the camera 2. Specifically, the signal of the end of imaging generated in step S14 or the signal of continuation of imaging generated in step S15 is transmitted to camera 2.
[0052]
The determination result transmitted from the image processing device 3A is received by the camera 2 (step S3).
[0053]
In step S4, it is determined whether or not the result of the determination received in step S3 is the end of shooting. Here, when the notification of the end of the photographing is received from the image processing device 3A, that is, when the signal of the end of the photographing is received, for example, the display of the end of the photographing is displayed on the display unit 20 of the camera 2, and the photographing operation is ended. Then, the process ends. At this time, the texture is mapped on the three-dimensional shape model, and appropriate three-dimensional data is generated by the image processing device 3A. On the other hand, when the notification that the shooting is not completed is received, that is, when the signal of the shooting continuation is received, for example, the display of the shooting continuation is displayed on the display unit 20 of the camera 2 so that the shooting operation is continued, and the process returns to the step S1. .
[0054]
By the above-described operation of the data processing system 1A, the image processing apparatus 3A automatically determines the end of shooting and notifies the camera 2 in almost real time every time shooting is performed. It can be generated efficiently.
[0055]
<Second embodiment>
The data processing system 1B according to the second embodiment of the present invention has a configuration similar to that of the data processing system 1A according to the first embodiment shown in FIGS. The photographing support program DP is different.
[0056]
That is, the image processing apparatus 3A of the first embodiment has a shooting support program DP for performing a shooting support operation when performing modeling with the internal parameters of the camera 2 being known, but the image processing apparatus 3B of the second embodiment. Has a shooting support program DP for performing a shooting support operation for performing camera calibration (calibration) when the internal parameters of the camera 2 are unknown. This calibration will be described below.
[0057]
<Calibration>
The calibration in the data processing system 1B is described in, for example, a document “Reconstruction of camera internal variables, three-dimensional shape, and three-dimensional motion using three central projected images”, Noriko Sugimoto, Xu Go, IPSJ Research Report, CVIM 99-114. Pp. 9-16, 1999]. Hereinafter, this method will be briefly described.
[0058]
FIG. 5 is a flowchart illustrating the calibration operation.
[0059]
First, a plurality of image data obtained by photographing the object SB with the camera 2 is transmitted to the image processing device 3B. Then, in the image processing apparatus 3B, calibration is performed by executing the following steps based on the received plurality of image data.
[0060]
In step S21, feature points are associated between images. For example, eight or more feature points such as the nose tip Sp1, the ear tips Sp2, and Sp3 shown in FIG. 6 are set in each image, and their correspondence is taken.
[0061]
In step S22, an F matrix (fundamental matrix) is calculated based on the feature points associated in step S21. This F matrix is information including internal parameters of the camera 2 and external parameters representing the position and orientation of the camera 2.
[0062]
In step S23, the internal parameters of the camera 2 are calculated based on the F matrix calculated in step S22. In this case, for example, an internal function is calculated by setting an energy function (evaluation function) related to the F matrix and solving the value by the steepest descent method so that a numerical value derived from the energy function becomes small.
[0063]
In step S24, an E matrix (Essential Matrix) is calculated based on the F matrix calculated in step S22 and the internal parameters calculated in step S23. The E matrix is information including only external parameters of the camera 2.
[0064]
In step S25, external parameters of the camera 2 are calculated based on the E matrix calculated in step S24.
[0065]
By the above-described calibration processing, unknown internal parameters (unique data) of the camera 2 are generated and can be grasped. By using the internal parameters, the modeling in the first embodiment can be appropriately performed.
[0066]
In this calibration, similarly to the texture mapping of the first embodiment, if an unsatisfactory operation result is obtained, it is necessary to additionally acquire new image data and complement it. For example, in the case where feature point correspondence between images cannot be obtained in step S21, or in the case where the energy value is equal to or greater than a predetermined threshold value in step S23, it is determined that the image is defective.
[0067]
On the other hand, if a plurality of image data can be acquired without excess or deficiency, the calibration will be good, but acquiring image data more than necessary is not efficient.
[0068]
Accordingly, in the calibration, as in the first embodiment, if it is possible to determine whether or not necessary and sufficient image data has been obtained and notify the photographer of the photographing, it is possible to eliminate unnecessary photographing. It becomes possible. The photographing support operation in the data processing system 1B will be described below.
[0069]
<Operation of Data Processing System 1B>
FIG. 7 is a flowchart illustrating a basic operation in the data processing system 1B. FIG. 7A shows the processing of the camera 2, and FIG. 7B shows the processing of the image processing device 3B. The processing of the image processing apparatus 3B is performed by the control unit 33 executing the data processing program DP.
[0070]
In step S31, the camera 2 generates image data of the target SB photographed by the photographer.
[0071]
In step S32, the image data generated in step S31 is transmitted via the communication I / F 24.
[0072]
The image data transmitted from the camera 2 as described above is received by the image processing device 3B (step S41).
[0073]
In step S42, the calibration operation shown in FIG. 5 is performed from the image data received in step S41.
[0074]
In step S43, it is determined whether the calibration performed in step S42 is good. That is, when one shooting operation is performed by the camera 2 in step S31, a fixed image data is obtained based on the image data obtained by the shooting operation and the plurality of image data obtained before the shooting operation. It is determined whether predetermined data that satisfies the condition, that is, internal parameters (unique data) of the camera 2 in an appropriate numerical range can be generated. Here, as described above, when there is no correspondence between feature points between images or when the energy value is less than a predetermined threshold, it is determined that the image is not good. Here, if the calibration is good, the process proceeds to step S44, and if not, the process proceeds to step S45.
[0075]
In step S44, it is determined whether the photographing has been completed. Here, since the calibration is good in the determination in step S43, a signal indicating the end of the photographing is generated.
[0076]
In step S45, a determination is made to continue shooting. Here, since the calibration is not good in the determination in step S43, a signal to continue shooting is generated.
[0077]
In step S46, the determination result is transmitted to the camera 2. Specifically, the signal of the end of imaging generated in step S44 or the signal of continuation of imaging generated in step S45 is transmitted.
[0078]
The determination result transmitted from the image processing device 3B is received by the camera 2 (step S33).
[0079]
In step S34, it is determined whether or not the result of the determination received in step S33 is the end of shooting. Here, when the notification of the end of the photographing is received from the image processing apparatus 3B, that is, when the signal of the end of the photographing is received, for example, the end of the photographing is displayed on the display unit 20 of the camera 2 and the photographing operation is ended. Then, the process ends. If a notification indicating that the shooting has not been completed is received, that is, if a signal indicating that the shooting is to be continued is received, for example, a display indicating that the shooting is to be continued is displayed on the display unit 20 of the camera 2 and the shooting operation is continued, and the process returns to step S31. .
[0080]
Through the operation of the data processing system 1B, the image processing apparatus 3B automatically determines the end of shooting and notifies the camera 2 each time shooting is performed, so that unnecessary shooting can be prevented and calibration can be performed efficiently.
[0081]
<Third embodiment>
FIG. 8 is a schematic diagram illustrating a main configuration of a data processing system 1C according to the third embodiment of the present invention.
[0082]
The appearance of the data processing system 1C is the same as that of the data processing system 1A of the first embodiment shown in FIG.
[0083]
The functional blocks of the data processing system 1C have a configuration similar to that of the data processing system 1A of the first embodiment shown in FIG. Is different.
[0084]
That is, the image processing apparatus 3C according to the third embodiment has a photographing support program DP for performing a photographing support operation when generating a panoramic image by combining images acquired by the camera 2. The generation of the panoramic image will be briefly described below.
[0085]
<Generation of panoramic image>
In the generation of a panoramic image in the data processing system 1C, as shown in FIG. 8, for example, while changing the shooting angle of the camera 2 to the rotation direction Rt, for example, the shooting area P1 (parallel hatched portion) or the shooting area shown in FIG. P2 (parallel hatched portion) is sequentially photographed. Note that the photographing region P1 and the photographing region P2 represent images of the region to be photographed.
[0086]
Then, the end portions of the adjacent images, for example, the end portion Ep of the image of the photographing region P1 and the end portion Ep of the image of the photographing region P2 are attached to form an image. Here, based on the position / posture information of the camera 2, an image combining process in which the three-dimensional position of each image is reflected is performed.
[0087]
By repeating the above image composition, a 360-degree panoramic image Pt (cylindrical portion shown in FIG. 8) around the camera 2 can be generated.
[0088]
In the panorama image generation process, as in the first and second embodiments, new image data must be obtained when the panorama image Pt cannot be generated. More specifically, if the panorama image Pt cannot be completed, that is, if there is an unphotographed area in the middle of sequentially synthesizing the image P1 and the image P2, additional photography is required.
[0089]
On the other hand, if a plurality of image data can be acquired without excess or deficiency, the panoramic image Pt can be generated, but it is not efficient to acquire the image data more than necessary.
[0090]
As described above, even in the generation of a panoramic image, as in the first and second embodiments, if it is possible to determine whether or not necessary and sufficient image data has been obtained and notify the photographer of the photographing support, it is useless. This makes it possible to omit unnecessary shooting. The photographing support operation in the data processing system 1C will be described below.
[0091]
<Operation of Data Processing System 1C>
FIG. 9 is a flowchart illustrating a basic operation in the data processing system 1C. FIG. 9A shows the processing of the camera 2, and FIG. 9B shows the processing of the image processing device 3C. The processing of the image processing device 3C is performed by the control unit 33 executing the data processing program DP.
[0092]
In step S51, the image data photographed by the photographer is generated by the camera 2.
[0093]
In step S52, the image data generated in step S51 is transmitted via the communication I / F 24. When transmitting the image data, the position / posture information of the camera 2 detected by the position / posture detection unit 25 is also transmitted.
[0094]
The image data transmitted from the camera 2 as described above is received by the image processing device 3C (Step S61).
[0095]
In step S62, it is determined whether the image data received in step S61 can be combined to generate a panoramic image Pt of the entire circumference. That is, when one shooting operation is performed by the camera 2 in step S51, a fixed image data is obtained based on the image data obtained by the shooting operation and the plurality of image data obtained before the shooting operation. It is determined whether or not predetermined data that satisfies the condition, that is, data of the panoramic image Pt of the entire periphery can be generated.
[0096]
If it is determined in step S62 that all the areas have been photographed and that an all-around panoramic image can be generated, the process proceeds to step S63; otherwise, the process proceeds to step S64.
[0097]
In step S63, it is determined whether the photographing has been completed. Here, since it is in a state in which an all-around panoramic image can be generated by the determination in step S62, a signal indicating that shooting has been completed is generated.
[0098]
In step S64, a determination is made to continue shooting. Here, since the panoramic image of the entire circumference cannot be generated yet in the determination in step S62, a signal to continue shooting is generated.
[0099]
In the step S65, the determination result is transmitted to the camera 2. Specifically, the signal of the end of imaging generated in step S63 or the signal of continuation of imaging generated in step S64 is transmitted.
[0100]
The determination result transmitted from the image processing device 3C is received by the camera 2 (Step S53).
[0101]
In step S54, it is determined whether or not the result of the determination received in step S53 is the end of shooting. Here, when the notification of the end of the photographing is received from the image processing apparatus 3C, that is, when the signal of the end of the photographing is received, for example, the display of the end of the photographing is displayed on the display unit 20 of the camera 2, and the photographing operation is ended. Then, the process ends. Then, the image processing device 3C generates a panoramic image of the entire periphery based on the received plurality of image data.
[0102]
On the other hand, when a notification indicating that shooting is not completed is received from the image processing apparatus 3C, that is, when a signal indicating that shooting is to be continued is received, for example, a message indicating that shooting is to be continued is displayed on the display unit 20 of the camera 2 so that shooting is continued. The process returns to step S51.
[0103]
By the operation of the data processing system 1C described above, the image processing apparatus 3C automatically determines the end of shooting and notifies the camera 2 every time shooting is performed, so that useless shooting can be prevented and a panoramic image can be generated efficiently. .
[0104]
<Modification>
In each of the above embodiments, it is not essential that data communication between the camera and the image processing apparatus is performed via the cable CB, but may be performed wirelessly.
[0105]
In the cameras in the above embodiments, it is not essential to shoot a still image, but may shoot a moving image. When shooting a moving image, a still image is cut out at regular intervals from continuous image data to generate a plurality of image data.
[0106]
In each of the above embodiments, it is not essential that the image processing apparatus determines the end of shooting, and the camera may determine the end of shooting. In this case, the camera needs to be configured as a camera that can execute the above-described shooting support program DP.
[0107]
◎ In each of the above embodiments, it is not essential to move the camera to the object SB fixed in the three-dimensional space to take an image, and to fix the object SB in the three-dimensional space while rotating the object on the rotary table. The camera may be used for shooting.
[0108]
In this case, a configuration in which a plurality of image data is automatically acquired by the camera without performing the shooting operation by the photographer is also possible. However, even in such a configuration, the image processing apparatus notifies the camera of the end of shooting. By notifying, it is possible to prevent useless photographing as in manual photographing by the photographer.
[0109]
【The invention's effect】
As described above, according to the first to fifth aspects of the present invention, when a shooting operation is performed by the shooting unit, the image data obtained by the shooting operation and the plurality of data obtained before the shooting operation are obtained. It is determined whether or not predetermined data can be generated based on the image data. If it is determined that the predetermined data can be generated, the end of shooting by the shooting unit is notified. As a result, unnecessary data can be prevented and predetermined data can be efficiently generated.
[0110]
In particular, according to the second aspect of the present invention, since three-dimensional data processing is performed based on a plurality of image data to generate three-dimensional data, appropriate three-dimensional data can be efficiently generated.
[0111]
According to the third aspect of the present invention, since the calibration processing relating to the three-dimensional data processing is performed based on the plurality of image data to generate the unique data of the photographing unit, appropriate unique data can be efficiently generated.
[0112]
Further, in the invention according to the fourth aspect, since image synthesis processing is performed based on a plurality of image data to generate data of a panoramic image, an appropriate panoramic image can be efficiently generated.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a main configuration of a data processing system 1A according to a first embodiment of the present invention.
FIG. 2 is a diagram showing functional blocks of a data processing system 1A.
FIG. 3 is a diagram for explaining modeling.
FIG. 4 is a flowchart illustrating a basic operation in the data processing system 1A.
FIG. 5 is a flowchart illustrating a calibration operation in a data processing system 1B according to a second embodiment of the present invention.
FIG. 6 is a diagram for explaining the operation of calibration.
FIG. 7 is a flowchart illustrating a basic operation in the data processing system 1B.
FIG. 8 is a schematic diagram showing a main configuration of a data processing system 1C according to a third embodiment of the present invention.
FIG. 9 is a flowchart illustrating a basic operation in the data processing system 1C.
[Explanation of symbols]
1A, 1B, 1C data processing system
2 Camera
3A, 3B, 3C image processing device
20 Display
25 Position / posture detector
33 control unit
DP shooting support program
Pt panoramic image

Claims (5)

画像データの処理が可能な画像処理装置であって、
(a)撮影手段で順次に撮影し取得された複数の画像データに基づき、一定の条件を満たす所定のデータを生成する処理手段と、
(b)前記撮影手段で1の撮影動作があった場合には、前記1の撮影動作によって取得された1の画像データと前記1の撮影動作の前に取得されていた複数の画像データとに基づき、前記所定のデータが生成可能であるか否かを判定する判定手段と、
(c)前記判定手段で前記所定のデータが生成可能であると判断される場合には、前記撮影手段での撮影終了を通知する通知手段と、
を備えることを特徴とする画像処理装置。
An image processing device capable of processing image data,
(A) processing means for generating predetermined data that satisfies certain conditions based on a plurality of image data sequentially captured and obtained by the imaging means;
(B) When one photographing operation is performed by the photographing means, one image data acquired by the one photographing operation and a plurality of image data acquired before the one photographing operation are combined. Determining means for determining whether or not the predetermined data can be generated,
(C) a notifying unit for notifying the end of the image capturing by the image capturing unit when the determining unit determines that the predetermined data can be generated;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記処理手段は、
(b−1)前記複数の画像データに基づき、三次元データ処理を行って三次元データを生成する手段、
を有することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The processing means includes:
(B-1) means for performing three-dimensional data processing based on the plurality of image data to generate three-dimensional data;
An image processing apparatus comprising:
請求項2に記載の画像処理装置において、
前記処理手段は、
(b−2)前記複数の画像データに基づき、前記三次元データ処理に係るキャリブレーション処理を行って前記撮影手段の固有データを生成する手段、
を有することを特徴とする画像処理装置。
The image processing device according to claim 2,
The processing means includes:
(B-2) means for performing calibration processing relating to the three-dimensional data processing based on the plurality of image data to generate unique data of the imaging means;
An image processing apparatus comprising:
請求項1ないし請求項3のいずれかに記載の画像処理装置において、
前記処理手段は、
(b−3)前記複数の画像データに基づき、画像合成処理を行ってパノラマ画像のデータを生成する手段、
を有することを特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein
The processing means includes:
(B-3) means for performing panorama image data by performing image synthesis processing based on the plurality of image data;
An image processing apparatus comprising:
画像処理装置に内蔵されたコンピュータにおいて実行されることにより、当該画像処理装置を請求項1ないし請求項4のいずれかに記載の画像処理装置として機能させることを特徴とするプログラム。A non-transitory computer-readable storage medium storing a program executed by a computer built in an image processing apparatus to cause the image processing apparatus to function as the image processing apparatus according to claim 1.
JP2003140379A 2003-05-19 2003-05-19 Image processing device and program Pending JP2004342004A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003140379A JP2004342004A (en) 2003-05-19 2003-05-19 Image processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003140379A JP2004342004A (en) 2003-05-19 2003-05-19 Image processing device and program

Publications (1)

Publication Number Publication Date
JP2004342004A true JP2004342004A (en) 2004-12-02

Family

ID=33529119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003140379A Pending JP2004342004A (en) 2003-05-19 2003-05-19 Image processing device and program

Country Status (1)

Country Link
JP (1) JP2004342004A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011513829A (en) * 2008-02-27 2011-04-28 グーグル インコーポレイテッド Using image content to facilitate navigation in panoramic image data
JP2013114498A (en) * 2011-11-29 2013-06-10 Toshiba Corp Electronic device and three-dimensional model generation support method
JP2015033047A (en) * 2013-08-05 2015-02-16 Kddi株式会社 Depth estimation device employing plural cameras
US9754413B1 (en) 2015-03-26 2017-09-05 Google Inc. Method and system for navigating in panoramic images using voxel maps
WO2022059335A1 (en) * 2020-09-18 2022-03-24 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
US11650708B2 (en) 2009-03-31 2023-05-16 Google Llc System and method of indicating the distance or the surface of an image of a geographical object

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011513829A (en) * 2008-02-27 2011-04-28 グーグル インコーポレイテッド Using image content to facilitate navigation in panoramic image data
US8525825B2 (en) 2008-02-27 2013-09-03 Google Inc. Using image content to facilitate navigation in panoramic image data
JP2013242881A (en) * 2008-02-27 2013-12-05 Google Inc Using image content to facilitate navigation in panoramic image data
US8963915B2 (en) 2008-02-27 2015-02-24 Google Inc. Using image content to facilitate navigation in panoramic image data
US9632659B2 (en) 2008-02-27 2017-04-25 Google Inc. Using image content to facilitate navigation in panoramic image data
US10163263B2 (en) 2008-02-27 2018-12-25 Google Llc Using image content to facilitate navigation in panoramic image data
US11650708B2 (en) 2009-03-31 2023-05-16 Google Llc System and method of indicating the distance or the surface of an image of a geographical object
JP2013114498A (en) * 2011-11-29 2013-06-10 Toshiba Corp Electronic device and three-dimensional model generation support method
JP2015033047A (en) * 2013-08-05 2015-02-16 Kddi株式会社 Depth estimation device employing plural cameras
US9754413B1 (en) 2015-03-26 2017-09-05 Google Inc. Method and system for navigating in panoramic images using voxel maps
US10186083B1 (en) 2015-03-26 2019-01-22 Google Llc Method and system for navigating in panoramic images using voxel maps
WO2022059335A1 (en) * 2020-09-18 2022-03-24 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device

Similar Documents

Publication Publication Date Title
JP5035372B2 (en) 3D modeling apparatus, 3D modeling method, and program
TWI386056B (en) A composition determination means, a composition determination method, and a composition determination program
JP5835383B2 (en) Information processing method, information processing apparatus, and program
JP2005050035A (en) Image photographing device and image processing method
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
JP6497965B2 (en) Image processing apparatus and image processing method
JP2011139368A (en) Control apparatus and control method for capturing device
JP2015176560A (en) information processing method, information processing apparatus, and program
JP2013027021A (en) Omnidirectional imaging device and omnidirectional imaging method
JP2019128641A (en) Image processing device, image processing method and program
JP6350695B2 (en) Apparatus, method, and program
JP2010176325A (en) Device and method for generating optional viewpoint image
JP2004342004A (en) Image processing device and program
JP2005197952A (en) Imaging device and imaging method
JP2011108028A (en) Image reproduction device, imaging device and image reproduction method
KR20160031464A (en) System for tracking the position of the shooting camera for shooting video films
JP6583486B2 (en) Information processing method, information processing program, and information processing apparatus
JP2018037786A (en) Imaging apparatus, method and program
JP6257260B2 (en) Imaging apparatus and control method thereof
JP4266736B2 (en) Image processing method and apparatus
JP2013143592A (en) Information processor, information processing method of information processor, and program
JP3837882B2 (en) Captured image management apparatus and program recording medium thereof
JP2002352271A (en) Three-dimensional image acquisition device
JP6128185B2 (en) Apparatus, method, and program
JP6777208B2 (en) program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613