JP2004342004A - Image processing device and program - Google Patents
Image processing device and program Download PDFInfo
- Publication number
- JP2004342004A JP2004342004A JP2003140379A JP2003140379A JP2004342004A JP 2004342004 A JP2004342004 A JP 2004342004A JP 2003140379 A JP2003140379 A JP 2003140379A JP 2003140379 A JP2003140379 A JP 2003140379A JP 2004342004 A JP2004342004 A JP 2004342004A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- photographing
- image processing
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像データの処理が可能な画像処理装置の技術に関する。
【0002】
【従来の技術】
従来の画像処理技術においては、被写体を順次に撮影して取得された複数の画像データに基づき、モデリングやパノラマ画像の生成を行うものがある。
【0003】
上記のモデリングについては、例えば特許文献1に開示されており、対象物のシルエット画像から三次元モデルが生成される技術が記載されている。
【0004】
また、パノラマ画像の生成については、例えば特許文献2に開示されており、複数の二次元画像を貼り合わせ合成でパノラマ画像を作成する技術が記載されている。
【0005】
【特許文献1】
特開平8−105724号公報
【特許文献2】
特開平11−205648号公報
【0006】
【発明が解決しようとする課題】
しかしながら、上記のモデリングやパノラマ画像の生成において、撮影者が順次に撮影する際に、モデリングやパノラマ画像の生成に必要十分な画像データが現撮影時点で取得されているか否かを判断するのは難しい。よって、過剰な撮影が行われる場合があり、この場合には無駄な撮影が生じ、モデリングなどの処理を効率良く迅速に行えないこととなる。
【0007】
本発明は、上記課題に鑑みてなされたものであり、順次に撮影し取得された複数の画像データに基づき所定のデータを生成する際に、無駄な撮影を防止して所定のデータを効率良く生成できる画像処理装置の技術を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記の課題を解決するため、請求項1の発明は、画像データの処理が可能な画像処理装置であって、(a)撮影手段で順次に撮影し取得された複数の画像データに基づき、一定の条件を満たす所定のデータを生成する処理手段と、(b)前記撮影手段で1の撮影動作があった場合には、前記1の撮影動作によって取得された1の画像データと前記1の撮影動作の前に取得されていた複数の画像データとに基づき、前記所定のデータが生成可能であるか否かを判定する判定手段と、(c)前記判定手段で前記所定のデータが生成可能であると判断される場合には、前記撮影手段での撮影終了を通知する通知手段とを備える。
【0009】
また、請求項2の発明は、請求項1の発明に係る画像処理装置において、前記処理手段は、(b−1)前記複数の画像データに基づき、三次元データ処理を行って三次元データを生成する手段を有する。
【0010】
また、請求項3の発明は、請求項2の発明に係る画像処理装置において、前記処理手段は、(b−2)前記複数の画像データに基づき、前記三次元データ処理に係るキャリブレーション処理を行って前記撮影手段の固有データを生成する手段を有する。
【0011】
また、請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る画像処理装置において、前記処理手段は、(b−3)前記複数の画像データに基づき、画像合成処理を行ってパノラマ画像のデータを生成する手段を有する。
【0012】
また、請求項5の発明は、画像処理装置に内蔵されたコンピュータにおいて実行されることにより、当該画像処理装置を請求項1ないし請求項4のいずれかの発明に係る画像処理装置として機能させるプログラムである。
【0013】
【発明の実施の形態】
<第1実施形態>
<三次元データ処理システム>
図1は、本発明の第1実施形態に係るデータ処理システム1Aの要部構成を示す概略図である。
【0014】
データ処理システム1Aは、被写体である対象物SBを撮影するカメラ2と、カメラ2とケーブルCBを介して通信可能に接続する画像処理装置3Aとを備えている。なお、対象物SBは、置物であり、その形状が一定で安定している。
【0015】
カメラ2は、例えばデジタルカメラを利用し、立体物である対象物SBの2次元カラー画像の取得が可能である。撮影手段として働くカメラ2は、背面に例えば液晶ディスプレイなどの表示部20が設けられている。
【0016】
画像処理装置3Aは、例えばパーソナルコンピュータとして構成されており、画像データの処理が可能である。この画像処理装置3Aは、箱状の形状を有する処理部30と、操作部31と、例えばCRTで構成される表示部32とを有している。
【0017】
処理部30の前面には、光ディスク9を挿入するドライブ301が設けられている。
【0018】
操作部31は、マウス311とキーボード312とを有しており、ユーザからの画像処理装置3Aに対する操作入力を受付ける。
【0019】
図2は、データ処理システム1Aの機能ブロックを示す図である。
【0020】
カメラ2は、光学ユニット21を介して対象物SBを撮像する撮像部22と、これら各部と伝送可能に接続する制御部23とを備えている。また、カメラ2は、制御部23と伝送可能に接続する通信部I/F24および位置・姿勢検出部25を備えている。
【0021】
光学ユニット21は、レンズ群とこれらのレンズ群の配置を変更する駆動部とを有し、フォーカスやズームを行って対象物SBの光学像を撮像部22に結像させる。
【0022】
撮像部22は、例えばCCDなどの撮像素子を有して構成されている。そして、撮影素子で対象物SBのアナログ画像信号を取得した後、A/D変換を行ってデジタル信号の画像データを生成する。
【0023】
通信I/F24は、ケーブルCBを介して画像処理装置3Aとデータ伝送するためのインターフェースである。
【0024】
位置・姿勢検出部25は、例えば加速度センサおよびジャイロを有しており、カメラ2の三次元位置と、撮影方向を決めるカメラ2の姿勢とを検出する部位である。この位置・姿勢検出部25により、カメラ2の位置・姿勢情報が得られることとなる。
【0025】
制御部23は、CPUを有しており、カメラ2の動作を統括制御する部位である。また、制御部23は、撮像部22で取得した画像データを通信I/F24を介して画像処理装置3Aに送信するための制御を行う。
【0026】
画像処理装置3Aは、上記の操作部31および表示部32に伝送可能に接続する制御部33を備えている。また、画像処理装置3Aは、制御部33に伝送可能に接続する記憶部34と、入出力I/F35と、通信I/F36とを備えている。
【0027】
記憶部34は、例えばハードディスクとして構成されており、後述の撮影支援プログラムDPを格納する。
【0028】
入出力I/F35は、操作部31および表示部32と制御部33との間でデータの送受をコントロールするためのインターフェースである。
【0029】
入出力I/F35は、ドライブ301を介して、記録媒体である光ディスク9に対するデータの入出力を行うためのインターフェースである。
【0030】
通信I/F36は、ケーブルCBを介してカメラ2とデータ伝送するためのインターフェースである。
【0031】
制御部33は、コンピュータとして働くCPU331およびメモリ332を有しており、画像処理装置3Aの動作を統括制御する部位である。この制御部33で撮影支援プログラムDPが実行されることにより、撮影者の撮影動作を支援し、無駄な撮影を防止できる動作が画像処理装置3Aで行われることとなる(後で詳述)。
【0032】
制御部33のメモリ332には、光ディスク9に記録されている撮影支援プログラムDPなどのプログラムデータを入出力I/F35を介して格納することができる。これにより、この格納したプログラムを画像処理装置3Aの動作に反映できる。
【0033】
<モデリングおよびテクスチャ・マッピング>
データ処理システム1Aにおけるモデリングは、画像処理装置3Aにて行われる。すなわち、カメラ2で取得された画像データ、カメラ2の位置・姿勢情報および内部パラメータが画像処理装置3Aに送信され、これらのデータを受信した画像処理装置3Aの制御部33で、例えばShape From Shilhouette法(以下では「SFS法」という)を利用して対象物SBの三次元形状モデルが生成される。このモデリング処理を以下で説明する。
【0034】
図3は、モデリングを説明するための図である。図3(b)は、図3(a)に示す撮影状態から、カメラ2を方向Ha(図1参照)に所定量だけ移動させて対象物SBを撮影する様子を示している。
【0035】
まず、対象物SBを撮影した各画像G1、G2から、対象物SBの輪郭Gs1、Gs2(太線)が抽出され、そのシルエット画像を作成する。このシルエット画像は、物体表面と背景との色差に基づき対象物SBの輪郭Gs1、Gs2を抽出した後、例えば輪郭の内部を「1」に、輪郭の外部を「0」にする二値化された画像データとして作成される。すなわち、シルエット画像は、対象物SBに対して異なる視点(撮影位置)H1、H2から視線方向(撮影方向)Hd1、Hd2に見た対象物SBのシルエット、つまり視点H1、H2を中心とした対象物SBの二次元空間への投影画像となる。
【0036】
そして、例えば方向Ha(図1)にカメラ2を対象物SBの周りで移動させて、被写体に対する撮影方向を相対的に変更しつつ取得した複数の画像(シルエット画像)は、カメラ2の位置・姿勢情報および内部パラメータを利用して、所定の三次元座標系に関連付けることができる。これにより、対象物SBのシルエット領域である二次元形状について、上記のSFS法を利用することで統合でき、対象物SBの三次元形状モデル、具体的にはポリゴンデータが生成できる。
【0037】
以上のように生成された対象物SBのポリゴンデータは、例えば画像G1、G2のようにカメラ2で撮影された撮影画像(テクスチャ画像)がマッピングされる。このマッピングでは、三次元形状モデルの各ポリゴンに注目し、ポリゴンとテクスチャが略正対するようなテクスチャ画像がマッピングされる。
【0038】
上述したように、カメラ2で対象物SBを順次に撮影し取得された複数の画像データに基づき、モデリングおよびテクスチャ・マッピング(三次元データ処理)を行って、テクスチャ・マッピングが施された対象物SBの三次元モデル(三次元データ)が生成されることとなる。
【0039】
テクスチャ・マッピングにおいて、取得した画像の数が十分でない場合などに、情報量不足からポリゴンにテクスチャがマッピングできない不良な状態が主じる。具体的には、正対するテクスチャ画像が存在しないポリゴンがある場合、例えば対象物SBの後方面を撮影していない場合には、対象物SBの後部のポリゴンに割り当てるテクスチャ画像が存在しないので、マッピングの不良が生じることとなる。
【0040】
一方、複数の画像データが過不足なく取得されている場合には、これらの画像データから生成されるポリゴンにテクスチャが適切にマッピングされ、良好な三次元データが生成できるが、必要以上に画像データを取得するのは効率的でない。
【0041】
以上のことから、三次元形状モデルにテクスチャ・マッピングを行うために必要十分な画像データが取得できたか否かを判定して撮影者に通知する撮影支援を行えれば、無駄な撮影を省くことが可能となる。データ処理システム1Aにおける撮影支援動作を以下で説明する。
【0042】
<データ処理システム1Aの動作>
図4は、データ処理システム1Aにおける基本的な動作を説明するフローチャートである。また、図4(a)は、カメラ2の処理を示しており、図4(b)は、画像処理装置3Aの処理を示している。この画像処理装置3Aの処理は、制御部33でデータ処理プログラムDPが実行されることにより実施される。
【0043】
ステップS1では、撮影者により撮影された対象物SBの画像データをカメラ2で生成する。
【0044】
ステップS2では、ステップS1で生成された画像データを、通信I/F24を介して送信する。この画像データの送信の際には、位置・姿勢検出部25で検出されたカメラ2の位置・姿勢情報および内部パラメータも送信する。この内部パラメータ(カメラパラメータ)は、撮影条件などを表すもので、撮影する際の焦点距離や光軸中心などの情報に基づき一義的に定まるもので、第1実施形態のカメラ2においては既知となっている。
【0045】
以上のようにカメラ2から送信された画像データ、位置・姿勢情報および内部パラメータは、画像処理装置3Aで受信される(ステップS11)。
【0046】
ステップS12では、ステップS11で受信した画像データおよび位置・姿勢情報等から、上述したモデリングを行う。
【0047】
ステップS13では、ステップS12で生成された三次元モデルに対して、テクスチャ・マッピングを良好に行えるかを判定する。すなわち、ステップS1においてカメラ2で1の撮影動作があった場合には、この撮影動作によって取得された画像データと、この撮影動作の前に取得されていた複数の画像データとに基づき、一定の条件を満たす所定のデータ、つまりテキスチャ・マッピングが適切に施された三次元データが生成可能であるか否かを判定する。ここでは、上述したように、三次元モデルに、テクスチャをマッピングして、マッピングされない領域が存在するか否かを判断する。
【0048】
ステップS13において、テクスチャ・マッピングが良好である場合には、ステップS14に進み、良好でない場合には、ステップS15に進む。
【0049】
ステップS14では、撮影終了の判定を行う。ここでは、ステップS13の判定でテクスチャ・マッピングが良好であるため、撮影終了の信号が生成される。
【0050】
ステップS15では、撮影続行の判定を行う。ここでは、ステップS13の判定でテクスチャ・マッピングが不良であるため、撮影続行の信号が生成される。
【0051】
ステップS16では、カメラ2に判定結果を送信する。具体的には、ステップS14で生成された撮影終了の信号、またはステップS15で生成された撮影続行の信号がカメラ2に送信される。
【0052】
画像処理装置3Aから送信された判定結果は、カメラ2で受信される(ステップS3)。
【0053】
ステップS4では、ステップS3で受信した判定結果が撮影終了であるかを判断する。ここで、画像処理装置3Aから撮影終了の通知を受けた場合、つまり撮影終了の信号を受信した場合には、例えばカメラ2の表示部20に撮影終了の表示を行い撮影動作を終了させるようにして、処理を終了する。この際には、三次元形状モデルにテクスチャがマッピングされて適切な三次元データが画像処理装置3Aで生成されている。一方、撮影終了でない通知を受けた場合、つまり撮影続行の信号を受信した場合には、例えばカメラ2の表示部20に撮影続行の表示を行い撮影動作を続行させるようにして、ステップS1に戻る。
【0054】
以上のデータ処理システム1Aの動作により、撮影の度に画像処理装置3Aにおいて自動的に撮影終了を判定してカメラ2側にほぼリアルタイムで通知するため、無駄な撮影を防止して三次元データを効率よく生成できる。
【0055】
<第2実施形態>
本発明の第2実施形態に係るデータ処理システム1Bは、図1および図2に示す第1実施形態のデータ処理システム1Aと類似の構成を有しているが、画像処理装置、特に記憶部34内の撮影支援プログラムDPが異なっている。
【0056】
すなわち、第1実施形態の画像処理装置3Aは、カメラ2の内部パラメータが既知としてモデリングを行う際の撮影支援動作を行うための撮影支援プログラムDPを有するが、第2実施形態の画像処理装置3Bは、カメラ2の内部パラメータが未知である場合にカメラ校正(キャリブレーション)を行う際の撮影支援動作を行うための撮影支援プログラムDPを有している。このキャリブレーションについて以下で説明する。
【0057】
<キャリブレーション>
データ処理システム1Bにおけるキャリブレションは、例えば、文献『”3枚の中心射影画像によるカメラ内部変数・3次元形状・3次元運動の復元”、杉本典子、徐剛、情報処理学会研究報告、CVIM99−114、pp.9−16、1999』に記載される方法で行われる。以下では、この方法を簡単に説明する。
【0058】
図5は、キャリブレーションの動作を説明するフローチャートである。
【0059】
まず、カメラ2で対象物SBを撮影して取得した複数の画像データを画像処理装置3Bに送信する。そして、画像処理装置3Bでは、受信した複数の画像データに基づき、以下のステップを実行してキャリブレーションが行われる。
【0060】
ステップS21では、画像間における特徴点の対応付けを行う。例えば、図6に示す鼻先Sp1、耳先Sp2、Sp3など8点以上の特徴点を各画像に設定して、それらの対応をとる。
【0061】
ステップS22では、ステップS21で対応付けした特徴点に基づき、F行列(Fundamental Matrix)を算出する。このF行列は、カメラ2の内部パラメータと、カメラ2の位置・姿勢を表す外部パラメータとを含む情報となっている。
【0062】
ステップS23では、ステップS22で算出されたF行列に基づき、カメラ2の内部パラメータを算出する。この場合、例えばF行列に関するエネルギー関数(評価関数)を設定し、最急降下法によってエネルギー関数から導かれる数値が小さくなるように解かれることで内部パラメータが算出される。
【0063】
ステップS24では、ステップS22で算出されたF行列と、ステップS23で算出された内部パラメータとに基づき、E行列(Essential Matrix)を算出する。このE行列は、カメラ2の外部パラメータのみを含む情報である。
【0064】
ステップS25では、ステップS24で算出されたE行列に基づき、カメラ2の外部パラメータを算出する。
【0065】
以上のキャリブレーション処理により、未知であったカメラ2の内部パラメータ(固有データ)が生成され把握できることとなる。この内部パラメータを利用することで、第1実施形態におけるモデリングも適切に行える。
【0066】
このキャリブレーションにおいても、第1実施形態のテクスチャ・マッピングと同様に、良好でない演算結果となる場合には、新たな画像データを追加取得して補完する必要がある。例えば、上記のステップS21において画像間の特徴点対応がとれない場合や、上記のステップS23においてエネルギー値が予め定められた閾値以上である場合には不良であると判断する。
【0067】
一方、複数の画像データが過不足なく取得できればキャリブレーションが良好となるが、必要以上に画像データを取得するのは効率的でない。
【0068】
このことから、キャリブレーションにおいても、第1実施形態と同様に必要十分な画像データが取得できたか否かを判定して撮影者に通知する撮影支援を行えれば、無駄な撮影を省くことが可能となる。データ処理システム1Bにおける撮影支援動作を以下で説明する。
【0069】
<データ処理システム1Bの動作>
図7は、データ処理システム1Bにおける基本的な動作を説明するフローチャートである。また、図7(a)は、カメラ2の処理を示しており、図7(b)は、画像処理装置3Bの処理を示している。この画像処理装置3Bの処理は、制御部33でデータ処理プログラムDPが実行されることにより実施される。
【0070】
ステップS31では、撮影者により撮影された対象物SBの画像データをカメラ2で生成する。
【0071】
ステップS32では、ステップS31で生成された画像データを、通信I/F24を介して送信する。
【0072】
このようにカメラ2から送信された画像データは、画像処理装置3Bで受信される(ステップS41)。
【0073】
ステップS42では、ステップS41で受信した画像データから、図5に示すキャリブレーションの動作を行う。
【0074】
ステップS43では、ステップS42で行われるキャリブレーションが良好であるかを判定する。すなわち、ステップS31においてカメラ2で1の撮影動作があった場合には、この撮影動作によって取得された画像データと、この撮影動作の前に取得されていた複数の画像データとに基づき、一定の条件を満たす所定のデータ、つまり適切な数値範囲のカメラ2の内部パラメータ(固有データ)が生成可能であるか否かを判定する。ここでは、上述したように、画像間の特徴点対応がとれない場合や、エネルギー値が所定の閾値未満である場合には、良好でないと判断する。ここで、キャリブレーションが良好である場合には、ステップS44に進み、良好でない場合には、ステップS45に進む。
【0075】
ステップS44では、撮影終了の判定を行う。ここでは、ステップS43の判定でキャリブレーションが良好であるため、撮影終了の信号が生成される。
【0076】
ステップS45では、撮影続行の判定を行う。ここでは、ステップS43の判定でキャリブレーションが良好でないため、撮影続行の信号が生成される。
【0077】
ステップS46では、カメラ2に判定結果を送信する。具体的には、ステップS44で生成された撮影終了の信号、またはステップS45で生成された撮影続行の信号が送信される。
【0078】
画像処理装置3Bから送信された判定結果は、カメラ2で受信される(ステップS33)。
【0079】
ステップS34では、ステップS33で受信した判定結果が撮影終了であるかを判断する。ここで、画像処理装置3Bから撮影終了の通知を受けた場合、つまり撮影終了の信号を受信した場合には、例えばカメラ2の表示部20に撮影終了の表示を行い撮影動作を終了させるようにして、処理を終了する。また、撮影終了でない通知を受けた場合、つまり撮影続行の信号を受信した場合には、例えばカメラ2の表示部20に撮影続行の表示を行い撮影動作を続行させるようにして、ステップS31に戻る。
【0080】
以上のデータ処理システム1Bの動作により、撮影の度に画像処理装置3Bで自動的に撮影終了を判定してカメラ2側に通知するため、無駄な撮影を防止してキャリブレーションを効率良く行える。
【0081】
<第3実施形態>
図8は、本発明の第3実施形態に係るデータ処理システム1Cの要部構成を示す概略図である。
【0082】
データ処理システム1Cの外観については、図1に示す第1実施形態のデータ処理システム1Aと同様の構成となっている。
【0083】
また、データ処理システム1Cの機能ブロックは、図2に示す第1実施形態のデータ処理システム1Aと類似の構成を有しているが、画像処理装置、特に記憶部34内の撮影支援プログラムDPが異なっている。
【0084】
すなわち、第3実施形態の画像処理装置3Cでは、カメラ2で取得する画像を合成することでパノラマ画像を生成する際の撮影支援動作を行うための撮影支援プログラムDPを有している。このパノラマ画像の生成について以下で簡単に説明する。
【0085】
<パノラマ画像の生成>
データ処理システム1Cにおけるパノラマ画像の生成においては、図8に示すように、例えばカメラ2の撮影角度を回転方向Rtに変更しつつ、例えば図8に示す撮影領域P1(平行斜線部)や撮影領域P2(平行斜線部)を順次に撮影していく。なお、撮影領域P1および撮影領域P2は、撮影される領域のイメージを表したものである。
【0086】
そして、隣接する画像の端部、例えば撮影領域P1の画像および撮影領域P2の画像の端部Epが貼り合わされて画像が合成される。ここでは、カメラ2の位置・姿勢情報に基づき、各画像の三次元位置が反映された画像合成処理が行われる。
【0087】
以上の画像合成を繰り返すことにより、カメラ2を中心とした360度の全周囲パノラマ画像Pt(図8に示す円筒部分)が生成できることととなる。
【0088】
このパノラマ画像の生成処理においても、第1・第2実施形態と同様に、パノラマ画像Ptの生成ができない状態では、新たな画像データを取得する必要がある。具体的には、画像P1および画像P2などを順次に合成している途中段階において、パノラマ画像Ptが完成できない、すなわち撮影されていない領域が存在する場合には、追加の撮影が必要となる。
【0089】
一方、複数の画像データが過不足なく取得できればパノラマ画像Ptを生成できることとなるが、必要以上に画像データを取得するのは効率的でない。
【0090】
以上のことから、パノラマ画像の生成においても、第1・第2実施形態と同様に必要十分な画像データが取得できたか否かを判定して撮影者に通知する撮影支援を行えれば、無駄な撮影を省くことが可能となる。データ処理システム1Cにおける撮影支援動作を以下で説明する。
【0091】
<データ処理システム1Cの動作>
図9は、データ処理システム1Cにおける基本的な動作を説明するフローチャートである。また、図9(a)は、カメラ2の処理を示しており、図9(b)は、画像処理装置3Cの処理を示している。この画像処理装置3Cの処理は、制御部33でデータ処理プログラムDPが実行されることにより実施される。
【0092】
ステップS51では、撮影者により撮影された画像データをカメラ2で生成する。
【0093】
ステップS52では、ステップS51で生成された画像データを、通信I/F24を介して送信する。この画像データの送信の際には、位置・姿勢検出部25で検出されたカメラ2の位置・姿勢情報も送信する。
【0094】
以上のようにカメラ2から送信された画像データは、画像処理装置3Cで受信される(ステップS61)。
【0095】
ステップS62では、ステップS61で受信した画像データを画像合成することにより、全周囲のパノラマ画像Ptが生成できるかを判定する。すなわち、ステップS51においてカメラ2で1の撮影動作があった場合には、この撮影動作によって取得された画像データと、この撮影動作の前に取得されていた複数の画像データとに基づき、一定の条件を満たす所定のデータ、つまり全周囲のパノラマ画像Ptのデータが生成可能であるか否かを判定する。
【0096】
ステップS62において、全ての領域が撮影されて全周囲パノラマ画像が生成可能である場合には、ステップS63に進み、生成できない場合には、ステップS64に進む。
【0097】
ステップS63では、撮影終了の判定を行う。ここでは、ステップS62の判定で全周囲パノラマ画像が生成可能な状態であるため、撮影終了の信号が生成される。
【0098】
ステップS64では、撮影続行の判定を行う。ここでは、ステップS62の判定で全周囲パノラマ画像が未だ生成できない状態であるため、撮影続行の信号が生成される。
【0099】
ステップS65では、カメラ2に判定結果を送信する。具体的には、ステップS63で生成された撮影終了の信号、またはステップS64で生成された撮影続行の信号が送信される。
【0100】
画像処理装置3Cから送信された判定結果は、カメラ2で受信される(ステップS53)。
【0101】
ステップS54では、ステップS53で受信した判定結果が撮影終了であるかを判断する。ここで、画像処理装置3Cから撮影終了の通知を受けた場合、つまり撮影終了の信号を受信した場合には、例えばカメラ2の表示部20に撮影終了の表示を行い撮影動作を終了させるようにして、処理を終了する。そして、画像処理装置3Cでは、受信した複数の画像データに基づき、全周囲のパノラマ画像を生成する。
【0102】
一方、画像処理装置3Cから撮影終了でない通知を受けた場合、つまり撮影続行の信号を受信した場合には、例えばカメラ2の表示部20に撮影続行の表示を行い撮影動作を続行させるようにして、ステップS51に戻る。
【0103】
以上のデータ処理システム1Cの動作により、撮影の度に画像処理装置3Cで自動的に撮影終了を判定してカメラ2側に通知するため、無駄な撮影を防止して効率良くパノラマ画像を生成できる。
【0104】
<変形例>
◎上記の各実施形態においては、カメラと画像処理装置との間におけるデータ通信をケーブルCBを介して有線で行うのは必須でなく、無線で行っても良い。
【0105】
◎上記の各実施形態におけるカメラにおいては、静止画を撮影するのは必須でなく、動画を撮影しても良い。動画を撮影する場合には、連続した画像データから一定の間隔で静止画を切出し、複数の画像データを生成する。
【0106】
◎上記の各実施形態においては、画像処理装置側で撮影終了の判定を行うのは必須でなく、カメラ側で撮影終了の判定を行わせても良い。この場合には、上述の撮影支援プログラムDPが実行可能なカメラとして構成する必要がある。
【0107】
◎上記の各実施形態においては、三次元空間に固定された対象物SBに対してカメラを移動させて撮影するのは必須でなく、回転テーブル上の対象物を回転させつつ三次元空間に固定されたカメラで撮影するようにしても良い。
【0108】
この場合には、撮影者による撮影操作を行わなくとも、カメラで複数の画像データを自動的に取得する構成も可能となるが、このような構成でも、画像処理装置から撮影終了をカメラ側に通知することにより、撮影者による手動撮影と同様に、無駄な撮影を防止できることとなる。
【0109】
【発明の効果】
以上説明したように、請求項1ないし請求項5の発明によれば、撮影手段で撮影動作があった場合には撮影動作によって取得された画像データと撮影動作の前に取得されていた複数の画像データとに基づき所定のデータが生成可能であるか否かを判定し、生成可能であると判断される場合には撮影手段での撮影終了を通知する。その結果、無駄な撮影を防止して所定のデータを効率良く生成できる。
【0110】
特に、請求項2の発明においては、複数の画像データに基づき三次元データ処理を行って三次元データを生成するため、適切な三次元データを効率よく生成できる。
【0111】
また、請求項3の発明においては、複数の画像データに基づき三次元データ処理に係るキャリブレーション処理を行って撮影手段の固有データを生成するため、適切な固有データを効率よく生成できる。
【0112】
また、請求項4の発明においては、複数の画像データに基づき画像合成処理を行ってパノラマ画像のデータを生成するため、適切なパノラマ画像を効率よく生成できる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係るデータ処理システム1Aの要部構成を示す概略図である。
【図2】データ処理システム1Aの機能ブロックを示す図である。
【図3】モデリングを説明するための図である。
【図4】データ処理システム1Aにおける基本的な動作を説明するフローチャートである。
【図5】本発明の第2実施形態に係るデータ処理システム1Bにおけるキャリブレーションの動作を説明するフローチャートである。
【図6】キャリブレーションの動作を説明するための図である。
【図7】データ処理システム1Bにおける基本的な動作を説明するフローチャートである。
【図8】本発明の第3実施形態に係るデータ処理システム1Cの要部構成を示す概略図である。
【図9】データ処理システム1Cにおける基本的な動作を説明するフローチャートである。
【符号の説明】
1A、1B、1C データ処理システム
2 カメラ
3A、3B、3C 画像処理装置
20 表示部
25 位置・姿勢検出部
33 制御部
DP 撮影支援プログラム
Pt パノラマ画像[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus capable of processing image data.
[0002]
[Prior art]
2. Description of the Related Art Some conventional image processing techniques perform modeling and generate a panoramic image based on a plurality of image data obtained by sequentially photographing a subject.
[0003]
The above-described modeling is disclosed in, for example,
[0004]
Further, generation of a panoramic image is disclosed, for example, in
[0005]
[Patent Document 1]
JP-A-8-105724
[Patent Document 2]
JP-A-11-205648
[0006]
[Problems to be solved by the invention]
However, in the above-described modeling and generation of a panoramic image, when a photographer sequentially shoots, it is determined whether or not sufficient image data necessary for modeling or generation of a panoramic image has been acquired at the time of the current imaging. difficult. Therefore, excessive shooting may be performed. In this case, useless shooting occurs, and processing such as modeling cannot be performed efficiently and quickly.
[0007]
The present invention has been made in view of the above-described problems, and when generating predetermined data based on a plurality of image data sequentially captured and acquired, it is possible to prevent unnecessary shooting and efficiently convert predetermined data. It is an object of the present invention to provide a technology of an image processing device that can generate the image.
[0008]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, the invention according to
[0009]
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect of the present invention, the processing means performs (B-1) three-dimensional data processing based on the plurality of pieces of image data to convert the three-dimensional data. Means for generating.
[0010]
According to a third aspect of the present invention, in the image processing apparatus according to the second aspect of the present invention, the processing unit performs (b-2) a calibration process related to the three-dimensional data processing based on the plurality of image data. And means for generating unique data of the photographing means.
[0011]
According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, the processing means performs (b-3) an image combining process based on the plurality of pieces of image data. Means for generating panoramic image data.
[0012]
According to a fifth aspect of the present invention, there is provided a program executed by a computer incorporated in an image processing apparatus to cause the image processing apparatus to function as the image processing apparatus according to any one of the first to fourth aspects. It is.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
<First embodiment>
<Three-dimensional data processing system>
FIG. 1 is a schematic diagram illustrating a main configuration of a
[0014]
The
[0015]
The
[0016]
The
[0017]
A
[0018]
The
[0019]
FIG. 2 is a diagram illustrating functional blocks of the
[0020]
The
[0021]
The
[0022]
The
[0023]
The communication I /
[0024]
The position /
[0025]
The
[0026]
The
[0027]
The
[0028]
The input / output I /
[0029]
The input / output I /
[0030]
The communication I /
[0031]
The
[0032]
In the
[0033]
<Modeling and texture mapping>
Modeling in the
[0034]
FIG. 3 is a diagram for explaining modeling. FIG. 3B shows a state in which the
[0035]
First, contours Gs1 and Gs2 (thick lines) of the object SB are extracted from the images G1 and G2 obtained by photographing the object SB, and a silhouette image thereof is created. After extracting the contours Gs1 and Gs2 of the target SB based on the color difference between the object surface and the background, the silhouette image is binarized to set the inside of the contour to “1” and the outside of the contour to “0”, for example. Created as image data. That is, the silhouette image is a silhouette of the target SB viewed from different viewpoints (photographing positions) H1 and H2 in the line-of-sight directions (photographing directions) Hd1 and Hd2 with respect to the target SB, that is, an object centered on the viewpoints H1 and H2. This is a projection image of the object SB onto the two-dimensional space.
[0036]
Then, for example, by moving the
[0037]
The polygon data of the object SB generated as described above is mapped with a photographed image (texture image) photographed by the
[0038]
As described above, modeling and texture mapping (three-dimensional data processing) are performed based on a plurality of pieces of image data obtained by sequentially photographing the object SB with the
[0039]
In texture mapping, when the number of acquired images is not sufficient, a defect state where a texture cannot be mapped to a polygon due to an insufficient amount of information is mainly involved. More specifically, when there is a polygon for which no texture image is directly opposed, for example, when the rear surface of the object SB is not photographed, there is no texture image to be assigned to the polygon at the rear of the object SB. Will occur.
[0040]
On the other hand, when a plurality of image data have been acquired without excess or deficiency, textures are appropriately mapped on polygons generated from these image data, and good three-dimensional data can be generated. Is not efficient to get.
[0041]
From the above, it is possible to eliminate unnecessary photographing if it is possible to determine whether or not sufficient image data necessary for performing texture mapping on the three-dimensional shape model has been acquired and notify the photographer of the photographing support. Becomes possible. The photographing support operation in the
[0042]
<Operation of
FIG. 4 is a flowchart illustrating a basic operation in the
[0043]
In step S <b> 1, the
[0044]
In step S2, the image data generated in step S1 is transmitted via the communication I /
[0045]
The image data, the position / orientation information, and the internal parameters transmitted from the
[0046]
In step S12, the above-described modeling is performed from the image data and the position / posture information received in step S11.
[0047]
In step S13, it is determined whether texture mapping can be performed favorably on the three-dimensional model generated in step S12. That is, when there is one photographing operation by the
[0048]
In step S13, if the texture mapping is good, the process proceeds to step S14; otherwise, the process proceeds to step S15.
[0049]
In step S14, the end of shooting is determined. Here, since the texture mapping is good in the determination in step S13, a signal indicating the end of imaging is generated.
[0050]
In step S15, it is determined whether to continue shooting. Here, since the texture mapping is defective in the determination in step S13, a signal to continue shooting is generated.
[0051]
In step S16, the determination result is transmitted to the
[0052]
The determination result transmitted from the
[0053]
In step S4, it is determined whether or not the result of the determination received in step S3 is the end of shooting. Here, when the notification of the end of the photographing is received from the
[0054]
By the above-described operation of the
[0055]
<Second embodiment>
The data processing system 1B according to the second embodiment of the present invention has a configuration similar to that of the
[0056]
That is, the
[0057]
<Calibration>
The calibration in the data processing system 1B is described in, for example, a document “Reconstruction of camera internal variables, three-dimensional shape, and three-dimensional motion using three central projected images”, Noriko Sugimoto, Xu Go, IPSJ Research Report, CVIM 99-114. Pp. 9-16, 1999]. Hereinafter, this method will be briefly described.
[0058]
FIG. 5 is a flowchart illustrating the calibration operation.
[0059]
First, a plurality of image data obtained by photographing the object SB with the
[0060]
In step S21, feature points are associated between images. For example, eight or more feature points such as the nose tip Sp1, the ear tips Sp2, and Sp3 shown in FIG. 6 are set in each image, and their correspondence is taken.
[0061]
In step S22, an F matrix (fundamental matrix) is calculated based on the feature points associated in step S21. This F matrix is information including internal parameters of the
[0062]
In step S23, the internal parameters of the
[0063]
In step S24, an E matrix (Essential Matrix) is calculated based on the F matrix calculated in step S22 and the internal parameters calculated in step S23. The E matrix is information including only external parameters of the
[0064]
In step S25, external parameters of the
[0065]
By the above-described calibration processing, unknown internal parameters (unique data) of the
[0066]
In this calibration, similarly to the texture mapping of the first embodiment, if an unsatisfactory operation result is obtained, it is necessary to additionally acquire new image data and complement it. For example, in the case where feature point correspondence between images cannot be obtained in step S21, or in the case where the energy value is equal to or greater than a predetermined threshold value in step S23, it is determined that the image is defective.
[0067]
On the other hand, if a plurality of image data can be acquired without excess or deficiency, the calibration will be good, but acquiring image data more than necessary is not efficient.
[0068]
Accordingly, in the calibration, as in the first embodiment, if it is possible to determine whether or not necessary and sufficient image data has been obtained and notify the photographer of the photographing, it is possible to eliminate unnecessary photographing. It becomes possible. The photographing support operation in the data processing system 1B will be described below.
[0069]
<Operation of Data Processing System 1B>
FIG. 7 is a flowchart illustrating a basic operation in the data processing system 1B. FIG. 7A shows the processing of the
[0070]
In step S31, the
[0071]
In step S32, the image data generated in step S31 is transmitted via the communication I /
[0072]
The image data transmitted from the
[0073]
In step S42, the calibration operation shown in FIG. 5 is performed from the image data received in step S41.
[0074]
In step S43, it is determined whether the calibration performed in step S42 is good. That is, when one shooting operation is performed by the
[0075]
In step S44, it is determined whether the photographing has been completed. Here, since the calibration is good in the determination in step S43, a signal indicating the end of the photographing is generated.
[0076]
In step S45, a determination is made to continue shooting. Here, since the calibration is not good in the determination in step S43, a signal to continue shooting is generated.
[0077]
In step S46, the determination result is transmitted to the
[0078]
The determination result transmitted from the image processing device 3B is received by the camera 2 (step S33).
[0079]
In step S34, it is determined whether or not the result of the determination received in step S33 is the end of shooting. Here, when the notification of the end of the photographing is received from the image processing apparatus 3B, that is, when the signal of the end of the photographing is received, for example, the end of the photographing is displayed on the
[0080]
Through the operation of the data processing system 1B, the image processing apparatus 3B automatically determines the end of shooting and notifies the
[0081]
<Third embodiment>
FIG. 8 is a schematic diagram illustrating a main configuration of a
[0082]
The appearance of the
[0083]
The functional blocks of the
[0084]
That is, the
[0085]
<Generation of panoramic image>
In the generation of a panoramic image in the
[0086]
Then, the end portions of the adjacent images, for example, the end portion Ep of the image of the photographing region P1 and the end portion Ep of the image of the photographing region P2 are attached to form an image. Here, based on the position / posture information of the
[0087]
By repeating the above image composition, a 360-degree panoramic image Pt (cylindrical portion shown in FIG. 8) around the
[0088]
In the panorama image generation process, as in the first and second embodiments, new image data must be obtained when the panorama image Pt cannot be generated. More specifically, if the panorama image Pt cannot be completed, that is, if there is an unphotographed area in the middle of sequentially synthesizing the image P1 and the image P2, additional photography is required.
[0089]
On the other hand, if a plurality of image data can be acquired without excess or deficiency, the panoramic image Pt can be generated, but it is not efficient to acquire the image data more than necessary.
[0090]
As described above, even in the generation of a panoramic image, as in the first and second embodiments, if it is possible to determine whether or not necessary and sufficient image data has been obtained and notify the photographer of the photographing support, it is useless. This makes it possible to omit unnecessary shooting. The photographing support operation in the
[0091]
<Operation of
FIG. 9 is a flowchart illustrating a basic operation in the
[0092]
In step S51, the image data photographed by the photographer is generated by the
[0093]
In step S52, the image data generated in step S51 is transmitted via the communication I /
[0094]
The image data transmitted from the
[0095]
In step S62, it is determined whether the image data received in step S61 can be combined to generate a panoramic image Pt of the entire circumference. That is, when one shooting operation is performed by the
[0096]
If it is determined in step S62 that all the areas have been photographed and that an all-around panoramic image can be generated, the process proceeds to step S63; otherwise, the process proceeds to step S64.
[0097]
In step S63, it is determined whether the photographing has been completed. Here, since it is in a state in which an all-around panoramic image can be generated by the determination in step S62, a signal indicating that shooting has been completed is generated.
[0098]
In step S64, a determination is made to continue shooting. Here, since the panoramic image of the entire circumference cannot be generated yet in the determination in step S62, a signal to continue shooting is generated.
[0099]
In the step S65, the determination result is transmitted to the
[0100]
The determination result transmitted from the
[0101]
In step S54, it is determined whether or not the result of the determination received in step S53 is the end of shooting. Here, when the notification of the end of the photographing is received from the
[0102]
On the other hand, when a notification indicating that shooting is not completed is received from the
[0103]
By the operation of the
[0104]
<Modification>
In each of the above embodiments, it is not essential that data communication between the camera and the image processing apparatus is performed via the cable CB, but may be performed wirelessly.
[0105]
In the cameras in the above embodiments, it is not essential to shoot a still image, but may shoot a moving image. When shooting a moving image, a still image is cut out at regular intervals from continuous image data to generate a plurality of image data.
[0106]
In each of the above embodiments, it is not essential that the image processing apparatus determines the end of shooting, and the camera may determine the end of shooting. In this case, the camera needs to be configured as a camera that can execute the above-described shooting support program DP.
[0107]
◎ In each of the above embodiments, it is not essential to move the camera to the object SB fixed in the three-dimensional space to take an image, and to fix the object SB in the three-dimensional space while rotating the object on the rotary table. The camera may be used for shooting.
[0108]
In this case, a configuration in which a plurality of image data is automatically acquired by the camera without performing the shooting operation by the photographer is also possible. However, even in such a configuration, the image processing apparatus notifies the camera of the end of shooting. By notifying, it is possible to prevent useless photographing as in manual photographing by the photographer.
[0109]
【The invention's effect】
As described above, according to the first to fifth aspects of the present invention, when a shooting operation is performed by the shooting unit, the image data obtained by the shooting operation and the plurality of data obtained before the shooting operation are obtained. It is determined whether or not predetermined data can be generated based on the image data. If it is determined that the predetermined data can be generated, the end of shooting by the shooting unit is notified. As a result, unnecessary data can be prevented and predetermined data can be efficiently generated.
[0110]
In particular, according to the second aspect of the present invention, since three-dimensional data processing is performed based on a plurality of image data to generate three-dimensional data, appropriate three-dimensional data can be efficiently generated.
[0111]
According to the third aspect of the present invention, since the calibration processing relating to the three-dimensional data processing is performed based on the plurality of image data to generate the unique data of the photographing unit, appropriate unique data can be efficiently generated.
[0112]
Further, in the invention according to the fourth aspect, since image synthesis processing is performed based on a plurality of image data to generate data of a panoramic image, an appropriate panoramic image can be efficiently generated.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a main configuration of a
FIG. 2 is a diagram showing functional blocks of a
FIG. 3 is a diagram for explaining modeling.
FIG. 4 is a flowchart illustrating a basic operation in the
FIG. 5 is a flowchart illustrating a calibration operation in a data processing system 1B according to a second embodiment of the present invention.
FIG. 6 is a diagram for explaining the operation of calibration.
FIG. 7 is a flowchart illustrating a basic operation in the data processing system 1B.
FIG. 8 is a schematic diagram showing a main configuration of a
FIG. 9 is a flowchart illustrating a basic operation in the
[Explanation of symbols]
1A, 1B, 1C data processing system
2 Camera
3A, 3B, 3C image processing device
20 Display
25 Position / posture detector
33 control unit
DP shooting support program
Pt panoramic image
Claims (5)
(a)撮影手段で順次に撮影し取得された複数の画像データに基づき、一定の条件を満たす所定のデータを生成する処理手段と、
(b)前記撮影手段で1の撮影動作があった場合には、前記1の撮影動作によって取得された1の画像データと前記1の撮影動作の前に取得されていた複数の画像データとに基づき、前記所定のデータが生成可能であるか否かを判定する判定手段と、
(c)前記判定手段で前記所定のデータが生成可能であると判断される場合には、前記撮影手段での撮影終了を通知する通知手段と、
を備えることを特徴とする画像処理装置。An image processing device capable of processing image data,
(A) processing means for generating predetermined data that satisfies certain conditions based on a plurality of image data sequentially captured and obtained by the imaging means;
(B) When one photographing operation is performed by the photographing means, one image data acquired by the one photographing operation and a plurality of image data acquired before the one photographing operation are combined. Determining means for determining whether or not the predetermined data can be generated,
(C) a notifying unit for notifying the end of the image capturing by the image capturing unit when the determining unit determines that the predetermined data can be generated;
An image processing apparatus comprising:
前記処理手段は、
(b−1)前記複数の画像データに基づき、三次元データ処理を行って三次元データを生成する手段、
を有することを特徴とする画像処理装置。The image processing apparatus according to claim 1,
The processing means includes:
(B-1) means for performing three-dimensional data processing based on the plurality of image data to generate three-dimensional data;
An image processing apparatus comprising:
前記処理手段は、
(b−2)前記複数の画像データに基づき、前記三次元データ処理に係るキャリブレーション処理を行って前記撮影手段の固有データを生成する手段、
を有することを特徴とする画像処理装置。The image processing device according to claim 2,
The processing means includes:
(B-2) means for performing calibration processing relating to the three-dimensional data processing based on the plurality of image data to generate unique data of the imaging means;
An image processing apparatus comprising:
前記処理手段は、
(b−3)前記複数の画像データに基づき、画像合成処理を行ってパノラマ画像のデータを生成する手段、
を有することを特徴とする画像処理装置。The image processing apparatus according to claim 1, wherein
The processing means includes:
(B-3) means for performing panorama image data by performing image synthesis processing based on the plurality of image data;
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003140379A JP2004342004A (en) | 2003-05-19 | 2003-05-19 | Image processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003140379A JP2004342004A (en) | 2003-05-19 | 2003-05-19 | Image processing device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004342004A true JP2004342004A (en) | 2004-12-02 |
Family
ID=33529119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003140379A Pending JP2004342004A (en) | 2003-05-19 | 2003-05-19 | Image processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004342004A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011513829A (en) * | 2008-02-27 | 2011-04-28 | グーグル インコーポレイテッド | Using image content to facilitate navigation in panoramic image data |
JP2013114498A (en) * | 2011-11-29 | 2013-06-10 | Toshiba Corp | Electronic device and three-dimensional model generation support method |
JP2015033047A (en) * | 2013-08-05 | 2015-02-16 | Kddi株式会社 | Depth estimation device employing plural cameras |
US9754413B1 (en) | 2015-03-26 | 2017-09-05 | Google Inc. | Method and system for navigating in panoramic images using voxel maps |
WO2022059335A1 (en) * | 2020-09-18 | 2022-03-24 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
US11650708B2 (en) | 2009-03-31 | 2023-05-16 | Google Llc | System and method of indicating the distance or the surface of an image of a geographical object |
-
2003
- 2003-05-19 JP JP2003140379A patent/JP2004342004A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011513829A (en) * | 2008-02-27 | 2011-04-28 | グーグル インコーポレイテッド | Using image content to facilitate navigation in panoramic image data |
US8525825B2 (en) | 2008-02-27 | 2013-09-03 | Google Inc. | Using image content to facilitate navigation in panoramic image data |
JP2013242881A (en) * | 2008-02-27 | 2013-12-05 | Google Inc | Using image content to facilitate navigation in panoramic image data |
US8963915B2 (en) | 2008-02-27 | 2015-02-24 | Google Inc. | Using image content to facilitate navigation in panoramic image data |
US9632659B2 (en) | 2008-02-27 | 2017-04-25 | Google Inc. | Using image content to facilitate navigation in panoramic image data |
US10163263B2 (en) | 2008-02-27 | 2018-12-25 | Google Llc | Using image content to facilitate navigation in panoramic image data |
US11650708B2 (en) | 2009-03-31 | 2023-05-16 | Google Llc | System and method of indicating the distance or the surface of an image of a geographical object |
JP2013114498A (en) * | 2011-11-29 | 2013-06-10 | Toshiba Corp | Electronic device and three-dimensional model generation support method |
JP2015033047A (en) * | 2013-08-05 | 2015-02-16 | Kddi株式会社 | Depth estimation device employing plural cameras |
US9754413B1 (en) | 2015-03-26 | 2017-09-05 | Google Inc. | Method and system for navigating in panoramic images using voxel maps |
US10186083B1 (en) | 2015-03-26 | 2019-01-22 | Google Llc | Method and system for navigating in panoramic images using voxel maps |
WO2022059335A1 (en) * | 2020-09-18 | 2022-03-24 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5035372B2 (en) | 3D modeling apparatus, 3D modeling method, and program | |
TWI386056B (en) | A composition determination means, a composition determination method, and a composition determination program | |
JP5835383B2 (en) | Information processing method, information processing apparatus, and program | |
JP2005050035A (en) | Image photographing device and image processing method | |
JP5725953B2 (en) | Imaging apparatus, control method therefor, and information processing apparatus | |
JP6497965B2 (en) | Image processing apparatus and image processing method | |
JP2011139368A (en) | Control apparatus and control method for capturing device | |
JP2015176560A (en) | information processing method, information processing apparatus, and program | |
JP2013027021A (en) | Omnidirectional imaging device and omnidirectional imaging method | |
JP2019128641A (en) | Image processing device, image processing method and program | |
JP6350695B2 (en) | Apparatus, method, and program | |
JP2010176325A (en) | Device and method for generating optional viewpoint image | |
JP2004342004A (en) | Image processing device and program | |
JP2005197952A (en) | Imaging device and imaging method | |
JP2011108028A (en) | Image reproduction device, imaging device and image reproduction method | |
KR20160031464A (en) | System for tracking the position of the shooting camera for shooting video films | |
JP6583486B2 (en) | Information processing method, information processing program, and information processing apparatus | |
JP2018037786A (en) | Imaging apparatus, method and program | |
JP6257260B2 (en) | Imaging apparatus and control method thereof | |
JP4266736B2 (en) | Image processing method and apparatus | |
JP2013143592A (en) | Information processor, information processing method of information processor, and program | |
JP3837882B2 (en) | Captured image management apparatus and program recording medium thereof | |
JP2002352271A (en) | Three-dimensional image acquisition device | |
JP6128185B2 (en) | Apparatus, method, and program | |
JP6777208B2 (en) | program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050613 |