JP2005043084A - System and method for compositing photographed image, program, and recording medium - Google Patents
System and method for compositing photographed image, program, and recording medium Download PDFInfo
- Publication number
- JP2005043084A JP2005043084A JP2003200283A JP2003200283A JP2005043084A JP 2005043084 A JP2005043084 A JP 2005043084A JP 2003200283 A JP2003200283 A JP 2003200283A JP 2003200283 A JP2003200283 A JP 2003200283A JP 2005043084 A JP2005043084 A JP 2005043084A
- Authority
- JP
- Japan
- Prior art keywords
- data
- combined
- photographed
- input device
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、実物体の3次元形状を非接触で計測する3次元形状計測システムにに関するものである。
【0002】
【従来の技術】
近年、コンピュータハードウェアの性能は急速に向上してきている。特にグラフィックスハードウェアやネットワークの情報転送速度はめざましい進歩を遂げており、汎用PCでさえも高性能なハードウェアを搭載し、高速通信が進んできている。また、3次元入力装置を用いた実体物から3次元情報(形状や色)をデータ化し、コンピュータに取り込む技術も進歩してきている。
【0003】
以上のことから、ネットワーク経由で3次元コンピュータグラフィックス(以下3DCG)コンテンツを配信するサービスの需要が高まりつつある。従来の3DCG制作方法(3DCG制作アプリケーションで制作)では、3DCGコンテンツの制作コストが高くなるため、制作コストを低減する3次元形状入力装置が導入されるようになった。
【0004】
例えば、レーザ光を用いた光切断方式の3次元形状入力装置が知られている。即ち、この方式は、レーザ光をスリット状にして対象物をスキャンし、その反射光をCCDカメラで受光する。三角測量法の原理で、レーザ発光部から対象物までの方向と距離とを検出することで、対象物の3次元形状を計測する(特許文献1参照)。
【0005】
また、複数の照射手段を設け、互いに異なる方向から対象物に照射し、収差による影響の低減、および計測精度を向上させる3次元形状計測装置がある(特許文献2参照)。
【0006】
【特許文献1】
特開2000−131031号公報
【特許文献2】
特開2000−329531号公報
【0007】
【発明が解決しようとする課題】
しかしながら、レーザ光を用いた3次元形状入力装置において、1度に撮影できる奥行き方向の範囲(以下、被写界深度と記す)は限られている。このため、奥行き方向に距離がある対象物は、1度の撮影で全ての計測を行うことができない。
【0008】
従来は、焦点距離(被写界深度の範囲)をずらしながら、対象物を複数回計測し、計測結果の位置関係を手動修正した後、結合(合成)していた。このため、対象物の撮影と、結合処理を繰り返し行う必要があり、3次元形状CGデータの制作コストが高くなる原因となっていた。
【0009】
本発明は、このような問題に鑑みてなされたもので、その目的とするところは、奥行きのある対象物の3次元形状CGデータを、効率的に制作できる撮影画像合成システムを提供することにある。
【0010】
【課題を解決するための手段】
前述した目的を達成するために第1の発明は、対象物の3次元形状を撮影する形状入力装置と、前記形状入力装置が撮影する複数の撮影データを読み取る読取手段と、前記複数の撮影データを結合し、結合データを作成する結合データ作成手段と、前記結合データを記憶する記憶手段とを、具備し、前記形状入力装置は、焦点距離をずらして前記対象物を複数回撮影し、前記対象物の撮影データを得ることを特徴とする撮影画像合成システムである。
【0011】
形状入力装置は、焦点距離をずらして対象物を撮影すると、焦点の合う奥行き方向の距離範囲である被写界深度もずれ、撮影される前記対象物の領域が変わる。
【0012】
前記結合データ作成手段は、前記複数の撮影データを、重み付け法、最小二乗法、ロバスト推定法等を用いて結合し、結合データを作成する。即ち、被写界深度を変えて得られた複数の撮影データを、最適な手法で結合して高精度な3次元形状を得る。
【0013】
重み付け法は、例えば、焦点距離の近い撮影データに重みをより大きくつけて、撮影データを結合する。
【0014】
最小二乗法は、撮影データと結合データとの差の2乗和が最小となるようなパラメータを決定する手法であり、撮影データの誤差が正規分布を示す時の最尤推定法である。
【0015】
ロバスト推定法は、例外値をある程度含む撮影データであっても、例外値の影響を受けにくい推定法である。
【0016】
前記結合データ作成手段は、前記複数の撮影データを、焦点距離が近い撮影データほど優先して結合する。焦点距離が近いほど測定精度が高いので、焦点距離が近い撮影データを優先して結合する結合手法である。
【0017】
形状入力装置は、レーザ光を用いた光切断方式の3次元形状入力装置である。レーザ照射機から照射されたレーザ光を、円筒形レンズでスリット状にし、ガルバノミラーで方向を変え、対象物に照射する。対象物をスキャンして反射光をCCD等の画像撮影装置で取り込み、三角測量法の原理で、レーザ発光部から対象物までの距離と方向を検出して、対象物の3次元形状を計測する。
【0018】
撮影データとは、レーザ光をガルバノミラーで走査し、1回のスキャンで例えば640点×480点の計測を行い、各点ごとに対象物の奥行き情報(距離情報)を測定したデータである。本実施の形態では、同一視点からレーザ光の焦点距離を変えて、計測対象物の複数の撮影データを得る。
【0019】
結合データとは、得られた複数の撮影データの重複する領域に、前述のいずれかの結合データ作成手段を施して得られる、高精度な対象物の3次元形状データである。
【0020】
第1の発明の撮影画像合成システムは、対象物の3次元形状を撮影する形状入力装置の複数の撮影データを読み取り、複数の撮影データを結合して結合データを作成する。形状入力装置は、同一視点からレーザ光の焦点距離を変えて対象物を複数回撮影し、撮影データを得る。結合データ作成手段は、重み付けの方法、最小二乗法を利用する方法、ロバスト推定法、レーザ強度が弱い撮影データを優先させる方法等がある。
【0021】
第2の発明は、形状入力装置が対象物の3次元形状を撮影して得る、複数の撮影データを読み取る読取工程と、前記複数の撮影データを結合し、結合データを作成する結合データ作成工程と、前記結合データを記憶する記憶工程とを、具備し、前記形状入力装置は、焦点距離をずらして前記対象物を複数回撮影し、前記対象物の撮影データを得ることを特徴とする撮影画像合成方法である。
【0022】
第2の発明の撮影画像合成方法は、形状入力装置が対象物の3次元形状を撮影して得る、複数の撮影データを読み取り、複数の撮影データを結合して結合データを作成する方法である。形状入力装置は、同一視点からレーザ光の焦点距離をずらして対象物を複数回撮影し、対象物の撮影データを得る。
【0023】
第3の発明は、コンピュータを、請求項1から請求項3記載のいずれかの撮影画像合成システムとして機能させるためのプログラムである。
【0024】
第3の発明のプログラムは、請求項1から請求項3記載の撮影画像合成システムを機能させるものであり、このプログラムをネットワークを介して流通させることもできる。
【0025】
第4の発明は、コンピュータを、請求項1から請求項3記載のいずれかの撮影画像合成システムとして機能させるためのプログラムを記録した記録媒体である。
【0026】
第4の発明の記録媒体は、請求項1から請求項3記載の撮影画像合成システムを機能させるプログラムを記憶しており、この記録媒体を流通させることもでき、またこのプログラムをネットワークを介して流通させることもできる。
【0027】
【発明の実施の形態】
以下、図面に基づいて本発明の実施の形態を詳細に説明する。図1は、本発明の実施の形態に係る撮影画像合成システム1の構成を示す図である。
【0028】
(1.構成)
撮影画像合成システム1は、計測対象物11の3次元形状を、非接触で測定するシステムであり、形状結合処理装置3と、3次元形状入力装置5とで構成される。
【0029】
(1−1.形状結合処理装置3の構造)
形状結合処理装置3は、図1に示すように、CPU(中央処理装置)等の制御部15と、ハードディスク等の記憶部13と、ディスプレイ等の表示装置7と、キーボードやマウスなどの入力装置9等で構成される。
【0030】
操作者は、入力装置9から撮影パラメータの入力を行う。撮影パラメータとは、計測対象物11までの距離、撮影に使われるレーザ強度、画像撮影時の輝度などである。尚、幾つかのパターンの撮影パラメータを記憶部13に登録し、それを選択するようにしても良い。
【0031】
表示装置7は、CRTや液晶ディスプレイ等の機器であり、撮影パラメータの設定項目や、計測された3次元コンピュータグラフィックスデータ(ポリゴン化された形状情報、及びテクスチャ情報)を表示する。
【0032】
記憶部13は、ハードディスクやCD−ROM等の機器である。図3に記憶部13の内容を示す。記憶部13には、3次元形状入力装置5で測定された計測対象物11の撮影データ29、及び色情報39を登録する。また、撮影データ29を結合した結合データ31を登録する。また、結合データ31に色情報39をつけて作成される3DCGデータ41を登録する。
【0033】
制御部15は、入力装置9から入力される撮影パラメータを、3次元形状入力装置5に設定し、撮影処理の管理を行う。また、3次元形状入力装置5から、計測対象物11の奥行き情報、及び色情報39を読み込み、加工処理と結合処理を施して表示装置7に出力する。制御部15の詳細構造を図2に示す。
【0034】
制御部15は、コンピュータのCPU等であり、処理機能により図2のような構造に分けられる。即ち制御部15は、その機能により、3次元形状入力装置管理部23と、撮影データ処理部25と、撮影処理管理部21と、結合処理部27とで構成される。図2により、処理の流れとともに、制御部15の各機能を説明する。
【0035】
撮影処理管理部21は、入力装置9から入力(ステップ401)された撮影パラメータを、3次元形状入力装置管理部23に送り、更に形状入力装置管理部23に対し撮影実行の命令を行う(ステップ402)。
【0036】
3次元形状入力装置管理部23は、撮影パラメータを3次元形状入力装置5に設定し、撮影処理を実行させる(ステップ403)。また、3次元形状入力装置5からの、計測対象物11の奥行き情報(撮影データ29)と色情報39を取得し(ステップ404)、撮影データ処理部25に送る(ステップ405)。
【0037】
撮影データ処理部25は、3次元形状入力装置管理部23から計測対象物11の奥行き情報(撮影データ29)と色情報39を読み込み、修正及び変換した後、撮影処理管理部21に送る(ステップ406)。
【0038】
撮影処理管理部21は、撮影データ処理部25から計測対象物11の奥行き情報(撮影データ29)と色情報39を読み込み、結合処理部27に送る(ステップ407)。
【0039】
結合処理部27は、焦点距離(被写界深度の範囲)の異なる奥行き情報(撮影データ29)、及び色情報39を撮影処理管理部21から読み込み、結合して結合データ31、3DCGデータ41を作成し、撮影処理管理部21に送る(ステップ408)。
【0040】
撮影処理管理部21は、奥行き情報(撮影データ29)、色情報39、結合データ31、3DCGデータ41を記憶部13に登録する(ステップ409)。また、撮影処理管理部21は、3DCGデータ41を記憶部13から読み出して(ステップ410)、表示装置7に3次元画像として表示させる(ステップ411)。
【0041】
(1−2.3次元形状入力装置5の構造)
3次元形状入力装置5は、レーザ光による光切断方式を採用しており、レーザ照射装置17と画像撮影装置19とを備える。レーザ照射装置17は、3次元形状入力装置管理部23により設定された撮影パラメータを基に、計測対象物11に対してレーザ光を照射する。図4に3次元形状入力装置5の構成を示す。
【0042】
レーザ照射装置17は、レーザ照射機33と、円筒型レンズ35と、ガルバノミラー37とで構成される。レーザ照射機33から照射されるレーザ光を、円筒型レンズ35でスリット状にし、さらにガルバノミラー37で方向を変えて計測対象物11に照射する。計測対象物11で反射されたレーザ光を、CCD等の画像撮影装置19が受光する。レーザ光は、一般照明光と比べて輝度が高いため、入力された画像内のレーザ照射部分を読み取ることができる。
【0043】
レーザ照射機33とガルバノミラー37の位置関係、及びガルバノミラー37の角度と受光データから、三角測量法を用いて計測対象物11の奥行き情報(距離情報)を得る。ガルバノミラー37の角度を変え、計測対象物11を1回走査することで、画像撮影装置19は例えば640点×480点の奥行き情報を取得する。
【0044】
また、レーザを照射していないときの計測対象物11の色を収集することで、色情報39を取得し、奥行き情報と合わせて、計測対象物11の3次元形状を復元する。
【0045】
尚、3次元形状入力装置5は、計測対象物11が前後方向に奥行きを持つ場合、被写界深度の範囲に計測対象物11が入らないならば、1度の撮影で計測対象物11の撮影データを得ることはできない。この場合、レーザ光の焦点距離(即ち被写界深度の範囲)を重複領域があるようにずらしながら、計測対象物11を何回かに分けて撮影する。撮影データ29のうち、焦点距離の近いデータのほうが、測定精度は高い。
【0046】
図5、及び図6に、被写界深度57内外の位置の違いによる、計測対象物の撮影画像59の例を示す。図5は、3次元形状入力装置5に向かって前後方向に並んだ計測対象物51、53、55を示す。レーザ照射装置17の被写界深度57が、図5に示す深さに設定されているとすると、計測対象物53のみが、焦点の合う距離範囲にある。
【0047】
3次元形状入力装置5の画像撮影装置19で撮影された撮影画像59は、図6に示される。即ち、焦点の合う(被写界深度57の範囲にある)計測対象物53は、鮮明な画像が得られるが、計測対象物51、55は、ピントのずれた画像になる。このとき、焦点の合う計測対象物53は、奥行き情報(距離情報)が得られるが、ピントの合わない範囲(即ち被写界深度57外)の画像の奥行き情報は得られず、NOVALUE値が入る。
【0048】
画像撮影装置19は、撮影後の計測対象物11の奥行き情報と色情報39を、3次元形状入力装置管理部23に送る。
【0049】
(2.フローチャート)
次に、図7に本実施の形態における撮影画像合成システム1のフローチャートを示す。計測対象物61の3次元形状データを取得する図を図10に示す。また、図11に、レーザ光の焦点距離(被写界深度の範囲)をずらして計測対象物61を撮影した複数の撮影画像28を示す。図12は、図11のそれぞれの画像の撮影データ29(a)、(b)、(c)及び、結合データ31(d)を示す。
【0050】
図7のフローチャートにおいて、まず計測対象物61の撮影準備として、操作者は計測対象物61の設置、及び照明の調整などを行う。また、制御部15は、入力された撮影パラメータ(計測対象物61までの距離、レーザ強度、撮影時の輝度など)を、3次元形状入力装置5に設定する(ステップ101)。
【0051】
次に、3次元形状入力装置5は、制御部15が設定する撮影パラメータに従い、計測対象物61までの距離、即ち焦点距離(被写界深度の範囲)を変更しつつ且つ、被写界深度の重複部分が存在するように、同一視点から計測対象物61を複数回撮影し撮影データ29(計測対象物61の奥行き情報)を得る(ステップ102)。
【0052】
例えば図10のように計測対象物61は、前後方向に距離があるので、3次元形状入力装置5の焦点距離(被写界深度の範囲)を、被写界深度63、65、67の3段階にずらして撮影する。それぞれの被写界深度63、65、67の時の撮影画像28を、図11の(a)、(b)、(c)に示す。
【0053】
図11の、被写界深度の範囲(即ち焦点の合う範囲)にある計測対象物61の領域は、それぞれ領域69、75、81に示される。斜線領域71、73、77、79は、被写界深度の範囲外、即ち焦点のずれた領域を示す。
【0054】
また、3次元形状入力装置5は、制御部15の指示によりレーザ光を照射しないで計測対象物61の色情報39を収集し、撮影データ29とともに形状結合処理装置3(制御部15)に送る。
【0055】
形状結合処理装置3の3次元形状入力装置管理部23は、撮影データ29と色情報39を撮影データ処理部25に送る。撮影データ処理部25では、撮影データ29を、格子状(640×480)のデータ配列に変換する。即ち図11の撮影画像28(a)は図12の撮影データ29(a)に、図11の撮影画像28(b)は図12の撮影データ29(b)に、図11の撮影画像28(c)は図12の撮影データ29(c)に、変換する。尚、図12の*印は、その配列に奥行き情報があることを示す。
【0056】
図11撮影画像28(a)の領域69は、図12撮影データ29(a)の領域83と領域85で示される。図11撮影画像28(a)の斜線領域71は、図12撮影データ29(a)の領域87に対応しており、被写界深度外(焦点が合っていない)の領域であるため、奥行き情報は得られず初期値であるNOVALUE値が入ることを示す。図11撮影画像28(b)、図11撮影画像28(c)についても同様に、図12撮影データ29(b)、図12撮影データ29(c)のデータを得る。
【0057】
尚、図10のように、被写界深度の範囲をずらして計測対象物61を撮影するとき、重複して撮影する領域がある。即ち重複して撮影データの得られる領域は、図12撮影データ29(a)の領域85と図12撮影データ29(b)の領域91、図12撮影データ29(b)の領域95と図12撮影データ29(c)の領域101である。
【0058】
撮影データ処理部25は、上記のように変換された撮影データ29を、撮影処理管理部21に送る。撮影処理管理部21は、この撮影データ29を結合処理部27に送り、結合処理部27では、撮影データ29の結合処理を行い結合データ31を作成する(ステップ103)。また結合データ31と色情報39を3DCGデータ41に変換する。結合処理方法については後述する。
【0059】
撮影処理管理部21は、結合処理部27から、作成された3DCGデータ41を読み出し、記憶部13に登録する(ステップ104)。尚、記憶部13には、撮影データ29、結合データ31、色情報39を登録してもよい。
【0060】
(3.撮影データ29のデータ結合方法)
結合処理部27における撮影データ29のデータ結合処理について説明する。結合方法にはいくつかの手段が考えられ、ここでは2種類のデータ結合処理のフローチャートを図8、図9に示す。ただしフローチャート内で利用される結合方法は、記載された手法だけとは限らない。
【0061】
撮影データ29は、格子状の奥行き情報群として撮影データ29配列Fi(x、y)、1≦i≦n(n:撮影回数)に格納される。例えばx=640、y=480の格子状の2次元配列であるとすると、配列(640、480)の座標ごとに奥行き情報が格納されている。
【0062】
尚、奥行き情報のない座標には、NOVALUE値が格納されている。例えば図12の撮影データ29F1(x、y)では、計測対象物11の奥行き情報のある領域83、85には奥行き情報が格納されている(図中の*印は奥行き情報が格納されていることを示す)が、その他の領域には奥行き情報がなくNOVALUE値が格納されている。例えば領域87は、計測対象物61のピントが合っていない部分なので、奥行き情報は得られずNOVALUE値が格納されている。
【0063】
また、全撮影データ29の結合結果を結合データ31配列S(x、y)に格納する。初期値として結合データ31配列S(x、y)の全座標に、NOVALUE値を格納する。
【0064】
(3−1.撮影データ29の第1のデータ結合方法)
撮影データ29の、第1のデータ結合方法のフローチャートを図8に示す。また、第1のデータ結合方法を図12を用いて説明する。まず初期設定として、図12(d)の結合データ31配列S(x、y)の全座標に、NOVALUE値を格納する。
【0065】
結合処理部27は、撮影処理管理部21から取得した全撮影データ29の配列F1(x、y)〜Fn(x、y)から、同一座標(x、y)の奥行き情報をn個抽出する(ステップ201)。
【0066】
抽出したn個のデータから、奥行き情報が格納されている(即ちNOVALUE値ではない)座標を抽出する。ここではm個(0≦m≦n)が抽出されたとする(ステップ202)。例えば図12(a)、(b)、(c)において、同じ座標(a)の領域85と、(b)の領域91には奥行き情報が格納されているが、(c)では領域99にあたり、NOVALUE値が格納されている。即ち図12の例では、撮影データ29のn=3(個)のうち、(a)の領域85にあたる座標では、奥行き情報の格納されているデータは、m=2(個)である。
【0067】
次に結合処理部27は、抽出したm個の奥行き情報を結合する。結合方法には、
(a)重み付け
(b)最小二乗法
(c)ロバスト推定法
等の方法を行い(ステップ203)、結合データ31配列S(x、y)の座標(x、y)に結合した値を代入する(ステップ204)。
【0068】
(a)重み付けは、奥行き情報F1(x、y)〜Fn(x、y)に、それぞれ適切な重みを付け、式(1)を用いて算出する。
【0069】
【数1】
【0070】
ただし、重みαは式(2)のとおりとする。
【0071】
【数2】
【0072】
(b)最小二乗法は、測定値(撮影データ29)とモデル関数から得られる理論値(結合データ31)の差の2乗和が最小となるようなモデル関数のパラメータを決定する手法のことで、式(3)が最小となるようなS(x,y)の値を求める。
【0073】
【数3】
【0074】
最小二乗法は、撮影データ29の誤差が正規分布を示す時、最尤推定法といえる。
【0075】
(c)ロバスト推定法は、例外値をある程度含むデータ群であっても、比較的安定に代表値を推定できる方法である。式(4)は、ロバスト推定法の1つである、M−estimatorの評価関数である。式(4)が最小値をとるよう、S(x,y)の値を求める。
【0076】
【数4】
【0077】
尚、式(4)のρ関数は、
ρ(t)=t2/(σ+t2) ……(5)
と表される。tは代表値との誤差であり、ρ(t)は、t=0で唯一最小値を持つ正規関数である。即ち、代表値から離れた値は、代表値算出には殆ど影響力がなくなる。
【0078】
以上のように、1座標ずつ、複数の撮影データ29の結合処理を行い結合データ31を算出して配列S(x、y)の対応する座標に代入する。例えばx=640、y=480ならば、640×480個の座標に同様の結合処理を行い(ステップ205のNO、ステップ206)、結合処理を終了する。
【0079】
図12を用いて説明すると、レーザ光の焦点距離(即ち被写界深度の範囲)の異なる、それぞれの撮影データ29配列F1(x、y)、F2(x、y)、F3(x、y)について結合処理を行い、奥行き情報のある部分、即ち領域85と領域91、領域95と領域101のデータについて、同じ座標(x、y)同士で結合処理を行う。
【0080】
例えば図12において(a)の領域85にあたるx=500、y=300の座標で、F1(500、300)=320、F2(500、300)=314、F3(500、300)=NOVALUEとすると、奥行き情報のある撮影データ29のみを抽出、即ちF3(500、300)=NOVALUEは除外して、上記の何らかの結合方法を用い、結合データ31配列S(500、300)を算出する。全ての座標について結合処理を行い、結合データ31を作成する。計測対象物61の、被写界深度の異なる複数の撮影データ29を結合処理し、精度の高い3DCGデータとして結合データ31配列S(x、y)を得る。
【0081】
(3−2.撮影データ29の第2のデータ結合方法)
撮影データ29の、第2のデータ結合方法のフローチャートを図9に示す。また、第2のデータ結合方法を、図12を用いて説明する。
【0082】
第2のデータ結合方法では、まず撮影データ29配列F1(x、y)〜Fn(x、y)を、焦点距離の近い順に並べ替える。即ち撮影データ29配列F1(x、y)のデータが、最も焦点距離の近い撮影データであり、最も撮影精度が高い撮影データである。第2の結合方法は、配列F1(x、y)を最も優先順位を高く設定し、順にF2(x、y)、F3(x、y)・・と、焦点距離が長くなるほど優先順位を落として結合し、結合データ31を作成する。
【0083】
まず、結合データ31配列S(x、y)を初期化する。即ち結合データ31配列S(x、y)の全座標に、NOVALUE値を格納する(ステップ301)。全撮影回数をn回とし、i=1を設定する。
【0084】
次に、結合処理部27は、i番目の撮影データ29配列Fi(x、y)を取得する(ステップ302)。i=1のとき、撮影データ29配列F1(x、y)を取得する。
【0085】
次に、結合データ31配列Sの座標(x、y)の値を、DataSに読み込み(ステップ303)、DataSに奥行き情報が格納されていなければ(ステップ304のNO)、撮影データ29配列Fiの座標(x、y)の値をDataFに読み込む(ステップ305)。DataSに奥行き情報が格納されている場合、即ち結合データ31配列S(x、y)にデータが格納されていれば(ステップ304のYES)、ステップ308に進む。
【0086】
DataFに奥行き情報があれば(ステップ306のYES)、結合データ31配列S(x、y)にDataFを代入し(ステップ307)、ステップ308に進む。DataFに奥行き情報がない場合、即ち撮影データ29配列Fi(x、y)がNOVALUE値であるとき(ステップ306のNO)、ステップ308に進む。
【0087】
ステップ308では、全座標(x、y)の、結合データ31配列S(x、y)の格納値調査が終了していない場合(ステップ308のNO)、結合データ31配列S(x、y)の次の座標に移動して(ステップ309)、ステップ303に戻る。例えば、結合データ31配列S(100、100)の次の座標S(100、101)の格納値の調査に移る。
【0088】
ステップ308で、全座標(x、y)の、結合データ31配列S(x、y)の格納値調査が終了した場合で(ステップ308のYES)、かつ最後の撮影データ29配列Fn(x、y)であった場合は(ステップ310のYES)、結合処理は終了する。未処理の撮影データ29がある場合は(ステップ310のNO)、次の撮影データ29配列Fi+1(x、y)へ移動し(ステップ311)、ステップ302に戻る。
【0089】
図12は、上記図9のフローチャートに従い、全撮影データ29の配列F1(x、y)〜F3(x、y)を結合処理して結合データ31配列S(x、y)を求める図である。撮影データ29配列F1(x、y)が、最も焦点距離が近い撮影データである。
【0090】
撮影データ29配列F1(x、y)の奥行き情報のある領域83と領域85が、まず優先されて結合データ31配列S(x、y)に格納される。
【0091】
次に、撮影データ29配列F2(x、y)の奥行き情報のある領域91、領域93、領域95のうち、対応する結合データ31配列S(x、y)の座標に奥行き情報のない領域、即ち領域93、領域95の奥行き情報が結合データ31配列S(x、y)に結合される。
【0092】
次に、撮影データ29配列F3(x、y)の奥行き情報のある領域101、領域103のうち、対応する結合データ31配列S(x、y)の座標に奥行き情報のない領域、即ち領域103の奥行き情報が結合データ31配列S(x、y)に結合される。
【0093】
このようにして、図9のフローチャートに従うと、焦点距離の近い撮影データ29から順に優先されて、結合データ31配列S(x、y)が作成される。従って、図12(d)の、結合データ31配列S(x、y)は、図12(a)、(b)、(c)の撮影データ29配列の同じ座標に奥行き情報がある場合には、焦点距離のより近い撮影データ29を選択し、結合データ31配列S(x、y)の奥行き情報として格納する。
【0094】
従って、焦点距離の近い撮影データ29ほど撮影精度が高いので、誤差の影響を抑えながら、複数の撮影データ29を高精度な1つの結合データ31にまとめることができる。
【0095】
(4.効果など)
撮影データ29の結合方法は、上記説明した方法等から最適な方法を選択することができる。例えば、撮影データ29の枚数が少ない場合には、第1の結合方法では(a)重み付けを行う方法等を選択し、逆に撮影データ29が多い場合には統計的処理である(b)最小二乗法や(c)ロバスト推定法を選択してもよい。尚、撮影データ29の結合方法は、上記説明した方法に限らない。
【0096】
また、複数の結合方法で結合データ31を作成し、表示装置7に計測対象物11の3DCG画像をそれぞれの結合方法の結果として表示し、作成された3次元形状を比較して、結合方法を検討してもよい。
【0097】
また、レーザ光の焦点距離をずらす方法と、被写界深度を広く、或いは浅く変える方法を組み合わせて計測対象物11を複数回撮影して結合データを作成し、3次元画像を得るようにしてもよい。
【0098】
本実施の形態によれば、奥行きのある計測対象物11に対し、レーザ光の焦点距離(被写界深度の範囲)を変えて複数回撮影し、撮影データの焦点の合っている領域を結合して1つの結合データを作成するので、高精度な3次元画像を効率的に制作できる。
【0099】
また、本実施の形態によれば、奥行きのある計測対象物の結合データ作成処理を手動で行う工程を削除できるので、高精度な3次元画像の制作効率を上げ、制作コストを低減する効果がある。
【0100】
尚、本発明の技術的範囲は、前述した実施の形態に限られるものではない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
【0101】
【発明の効果】
以上、詳細に説明したように本発明によれば、奥行きのある対象物の3次元形状CGデータを、効率的に制作できる撮影画像合成システムを提供することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る撮影画像合成システム1の構成を示す図
【図2】制御部15の構成を示す図
【図3】記憶部13を示す図
【図4】3次元形状入力装置5の構成を示す図
【図5】被写界深度57を示す図
【図6】被写界深度57内外の違いによる撮影画像59を示す図
【図7】撮影画像合成システム1のフローチャート
【図8】第1のデータ結合処理を示すフローチャート
【図9】第2のデータ結合処理を示すフローチャート
【図10】3次元形状入力装置5による計測を示す図
【図11】被写界深度を変えて撮影した画像を示す図
【図12】被写界深度を変えて撮影した撮影データ、及び結合データを示す図
【符号の説明】
1・・・ 撮影誤差低減システム
3・・・ 形状結合処理装置
5・・・ 3次元形状入力装置
7・・・ 表示装置
9・・・ 入力装置
11、51、53、55、61・・・ 計測対象物
13・・・ 記憶部
15・・・ 制御部
17・・・ レーザ照射装置
19・・・ 画像撮影装置
21・・・ 撮影処理管理部
23・・・ 3次元形状入力装置管理部
25・・・ 撮影データ処理部
27・・・ 結合処理部
28、59・・・ 撮影画像
29・・・ 撮影データ
31・・・ 結合データ
33・・・ 結合照射機
35・・・ 円筒型レンズ
37・・・ ガルバノミラー
39・・・ 色情報
41・・・ 3DCGデータ
57、63、65、67・・・ 被写界深度
69、75、81・・・ 被写界深度の合った領域
71、73、77、79・・・ 被写界深度外(焦点の合っていない)の領域
83、85、91、93、95、101、103、105、107・・・ 奥行きデータ
87、89、97、99・・・ NOVALUEデータ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional shape measurement system that measures a three-dimensional shape of a real object in a non-contact manner.
[0002]
[Prior art]
In recent years, the performance of computer hardware has improved rapidly. In particular, graphics hardware and network information transfer speeds have made remarkable progress, and even general-purpose PCs are equipped with high-performance hardware, and high-speed communication is progressing. In addition, a technique has also been advanced in which three-dimensional information (shape and color) is converted into data from an entity using a three-dimensional input device and loaded into a computer.
[0003]
From the above, there is an increasing demand for services that deliver 3D computer graphics (hereinafter 3DCG) content via a network. In the conventional 3DCG production method (produced by a 3DCG production application), the production cost of 3DCG content is increased, and therefore, a three-dimensional shape input device that reduces the production cost has been introduced.
[0004]
For example, an optical cutting type three-dimensional shape input device using laser light is known. That is, in this method, a laser beam is slit and an object is scanned, and the reflected light is received by a CCD camera. The three-dimensional shape of the object is measured by detecting the direction and distance from the laser light emitting unit to the object based on the principle of triangulation (see Patent Document 1).
[0005]
In addition, there is a three-dimensional shape measurement apparatus that includes a plurality of irradiation units and irradiates an object from different directions to reduce the influence of aberrations and improve measurement accuracy (see Patent Document 2).
[0006]
[Patent Document 1]
JP 2000-131031 A [Patent Document 2]
Japanese Patent Laid-Open No. 2000-329531
[Problems to be solved by the invention]
However, in a three-dimensional shape input apparatus using laser light, the range in the depth direction (hereinafter referred to as depth of field) that can be photographed at one time is limited. For this reason, an object having a distance in the depth direction cannot be measured all at once.
[0008]
Conventionally, the object is measured a plurality of times while shifting the focal distance (the range of the depth of field), and the positional relationship of the measurement results is manually corrected and then combined (synthesized). For this reason, it is necessary to repeatedly perform shooting of an object and a combining process, which causes a high production cost of the three-dimensional shape CG data.
[0009]
The present invention has been made in view of such problems, and an object of the present invention is to provide a photographed image composition system that can efficiently produce three-dimensional shape CG data of a deep object. is there.
[0010]
[Means for Solving the Problems]
In order to achieve the above-described object, a first invention includes a shape input device that images a three-dimensional shape of an object, a reading unit that reads a plurality of image data captured by the shape input device, and the plurality of image data. And a storage means for storing the combined data, and the shape input device images the object a plurality of times while shifting the focal length, A photographic image composition system characterized by obtaining photographic data of an object.
[0011]
When the shape input device captures an object by shifting the focal distance, the depth of field, which is the distance range in the depth direction in focus, is also shifted, and the region of the object to be captured changes.
[0012]
The combined data creating means combines the plurality of pieces of photographing data using a weighting method, a least square method, a robust estimation method, or the like to create combined data. That is, a plurality of shooting data obtained by changing the depth of field is combined by an optimum method to obtain a highly accurate three-dimensional shape.
[0013]
In the weighting method, for example, a larger weight is given to photographing data with a short focal distance, and the photographing data is combined.
[0014]
The least square method is a method for determining a parameter that minimizes the sum of squares of the difference between the photographed data and the combined data, and is a maximum likelihood estimation method when the photographed data error shows a normal distribution.
[0015]
The robust estimation method is an estimation method that is difficult to be influenced by the exceptional value even if the photographing data includes the exceptional value to some extent.
[0016]
The combined data creation means preferentially combines the plurality of pieces of photographing data with photographing data having a shorter focal length. Since the measurement accuracy is higher as the focal length is shorter, this is a coupling method that preferentially couples photographing data with a shorter focal length.
[0017]
The shape input device is a light cutting type three-dimensional shape input device using laser light. The laser light emitted from the laser irradiator is slit with a cylindrical lens, and the direction is changed with a galvano mirror to irradiate an object. The object is scanned, the reflected light is captured by an image capturing device such as a CCD, and the three-dimensional shape of the object is measured by detecting the distance and direction from the laser emission unit to the object by the principle of triangulation. .
[0018]
The imaging data is data obtained by scanning laser light with a galvanometer mirror, measuring, for example, 640 points × 480 points in one scan, and measuring the depth information (distance information) of the object for each point. In the present embodiment, a plurality of pieces of imaging data of the measurement object are obtained by changing the focal length of the laser light from the same viewpoint.
[0019]
The combined data is highly accurate three-dimensional shape data of an object obtained by applying any of the above-described combined data creating means to a region where a plurality of obtained photographing data overlap.
[0020]
The photographed image composition system of the first invention reads a plurality of pieces of photographed data of a shape input device for photographing a three-dimensional shape of an object, and creates a combined data by combining the plurality of photographed data. The shape input device captures image data by capturing the object multiple times while changing the focal length of the laser beam from the same viewpoint. As the combined data creation means, there are a weighting method, a method using a least square method, a robust estimation method, a method of giving priority to photographing data having a low laser intensity, and the like.
[0021]
According to a second aspect of the present invention, there is provided a reading step of reading a plurality of shooting data obtained by a shape input device shooting a three-dimensional shape of an object, and a combined data generation step of combining the plurality of shooting data and generating combined data And a storing step for storing the combined data, wherein the shape input device images the object a plurality of times while shifting a focal length to obtain imaging data of the object. This is an image composition method.
[0022]
The photographed image composition method of the second invention is a method in which a shape input device captures a three-dimensional shape of an object, reads a plurality of photographed data, and combines the plurality of photographed data to create combined data. . The shape input device captures the target object multiple times by shifting the focal length of the laser light from the same viewpoint and capturing the target object a plurality of times.
[0023]
A third invention is a program for causing a computer to function as the photographed image composition system according to any one of
[0024]
A program according to a third aspect of the invention causes the photographed image composition system according to
[0025]
A fourth invention is a recording medium on which a program for causing a computer to function as the photographed image composition system according to any one of
[0026]
A recording medium according to a fourth aspect of the invention stores a program that causes the photographed image composition system according to
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing a configuration of a captured
[0028]
(1. Configuration)
The captured
[0029]
(1-1. Structure of Shape Joining Processing Device 3)
As shown in FIG. 1, the shape
[0030]
The operator inputs photographing parameters from the
[0031]
The
[0032]
The
[0033]
The
[0034]
The
[0035]
The imaging processing management unit 21 sends the imaging parameters input from the input device 9 (step 401) to the three-dimensional shape input
[0036]
The three-dimensional shape input
[0037]
The imaging
[0038]
The imaging processing management unit 21 reads the depth information (imaging data 29) and color information 39 of the
[0039]
The
[0040]
The imaging process management unit 21 registers depth information (imaging data 29), color information 39, combined data 31, and
[0041]
(1-2. Structure of 3D Shape Input Device 5)
The three-dimensional
[0042]
The
[0043]
Depth information (distance information) of the
[0044]
Moreover, the color information 39 is acquired by collecting the color of the
[0045]
Note that the three-dimensional
[0046]
FIG. 5 and FIG. 6 show an example of a captured image 59 of the measurement object due to a difference in position inside and outside the depth of field 57. FIG. 5 shows the measurement objects 51, 53, 55 arranged in the front-rear direction toward the three-dimensional
[0047]
A photographed image 59 photographed by the
[0048]
The
[0049]
(2. Flow chart)
Next, FIG. 7 shows a flowchart of the captured
[0050]
In the flowchart of FIG. 7, first, as preparation for photographing the
[0051]
Next, the three-dimensional
[0052]
For example, as shown in FIG. 10, since the
[0053]
Areas of the
[0054]
Further, the three-dimensional
[0055]
The three-dimensional shape input
[0056]
An
[0057]
Note that, as shown in FIG. 10, when the
[0058]
The photographing
[0059]
The imaging processing management unit 21 reads the created
[0060]
(3. Data combination method of shooting data 29)
A data combination process of the
[0061]
The shooting
[0062]
Note that a NOVALUE value is stored at coordinates without depth information. For example, in the shooting data 29F 1 (x, y) of FIG. 12, depth information is stored in the
[0063]
Further, the combined result of all the photographing
[0064]
(3-1. First Data Combining Method of Shooting Data 29)
FIG. 8 shows a flowchart of the first data combination method for the
[0065]
The
[0066]
From the extracted n pieces of data, coordinates where depth information is stored (that is, not NOVALUE values) are extracted. Here, m (0 ≦ m ≦ n) are extracted (step 202). For example, in FIGS. 12A, 12 </ b> B, and 12 </ b> C, depth information is stored in the
[0067]
Next, the
(A) Weighting (b) Least square method (c) Robust estimation method or the like is performed (step 203), and the combined value is substituted into the coordinates (x, y) of the combined data 31 array S (x, y). (Step 204).
[0068]
(A) Weighting is calculated using Formula (1) by assigning appropriate weights to the depth information F 1 (x, y) to F n (x, y), respectively.
[0069]
[Expression 1]
[0070]
However, the weight α is as shown in Equation (2).
[0071]
[Expression 2]
[0072]
(B) The least square method is a method for determining a parameter of a model function that minimizes the sum of squares of a difference between a measured value (imaging data 29) and a theoretical value (coupled data 31) obtained from the model function. Thus, the value of S (x, y) that minimizes the expression (3) is obtained.
[0073]
[Equation 3]
[0074]
The least square method can be said to be a maximum likelihood estimation method when the error of the
[0075]
(C) The robust estimation method is a method in which a representative value can be estimated relatively stably even for a data group including an exceptional value to some extent. Equation (4) is an evaluation function of M-estimator, which is one of robust estimation methods. The value of S (x, y) is obtained so that Equation (4) takes the minimum value.
[0076]
[Expression 4]
[0077]
The ρ function in equation (4) is
ρ (t) = t 2 / (σ + t 2 ) (5)
It is expressed. t is an error from the representative value, and ρ (t) is a normal function having a minimum value only at t = 0. That is, a value far from the representative value has little influence on the calculation of the representative value.
[0078]
As described above, the combined data 31 is combined for each coordinate, the combined data 31 is calculated, and substituted into the corresponding coordinates of the array S (x, y). For example, if x = 640 and y = 480, a similar joining process is performed on 640 × 480 coordinates (NO in
[0079]
Referring to FIG. 12, the
[0080]
For example, in FIG. 12, the coordinates of x = 500 and y = 300 corresponding to the
[0081]
(3-2. Second Data Combining Method of Shooting Data 29)
FIG. 9 shows a flowchart of the second data combination method for the
[0082]
In the second data combination method, first, the
[0083]
First, the combined data 31 array S (x, y) is initialized. That is, the NOVALUE value is stored in all coordinates of the combined data 31 array S (x, y) (step 301). The total number of shootings is n, and i = 1 is set.
[0084]
Next, the
[0085]
Next, the value of the coordinate (x, y) of the combined data 31 array S is read into DataS (step 303), and if the depth information is not stored in DataS (NO at step 304), the captured
[0086]
If there is depth information in DataF (YES in step 306), DataF is substituted into the combined data 31 array S (x, y) (step 307), and the process proceeds to step 308. When there is no depth information in DataF, that is, when the
[0087]
In
[0088]
In
[0089]
FIG. 12 is a view for obtaining a combined data 31 array S (x, y) by combining the arrays F 1 (x, y) to F 3 (x, y) of all the imaged
[0090]
The
[0091]
Next, out of the
[0092]
Next, of the
[0093]
In this way, according to the flowchart of FIG. 9, the combined data 31 array S (x, y) is created with priority given in order from the photographing
[0094]
Accordingly, since the
[0095]
(4. Effects, etc.)
As the method for combining the photographing
[0096]
Further, the combination data 31 is created by a plurality of joining methods, the 3DCG image of the
[0097]
In addition, by combining the method of shifting the focal length of the laser light and the method of changing the depth of field to be wider or shallower, the
[0098]
According to the present embodiment, the
[0099]
In addition, according to the present embodiment, it is possible to delete the step of manually performing the combined data creation processing of the measurement object having a depth, so that it is possible to increase the production efficiency of a highly accurate three-dimensional image and to reduce the production cost. is there.
[0100]
The technical scope of the present invention is not limited to the embodiment described above. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these are naturally within the technical scope of the present invention. Understood.
[0101]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide a photographed image composition system that can efficiently produce the three-dimensional shape CG data of a deep object.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a captured
DESCRIPTION OF
Claims (8)
前記形状入力装置が撮影する複数の撮影データを読み取る読取手段と、
前記複数の撮影データを結合し、結合データを作成する結合データ作成手段と、
前記結合データを記憶する記憶手段と、
を、具備し、
前記形状入力装置は、焦点距離をずらして前記対象物を複数回撮影し、前記対象物の撮影データを得ることを特徴とする撮影画像合成システム。A shape input device for photographing a three-dimensional shape of an object;
Reading means for reading a plurality of photographing data photographed by the shape input device;
Combined data creating means for combining the plurality of shooting data and creating combined data;
Storage means for storing the combined data;
Comprising
The shape input device captures the object a plurality of times by shifting a focal length, and obtains image data of the object.
前記複数の撮影データを、重み付け法、最小二乗法、ロバスト推定法等を用いて結合し、結合データを作成することを特徴とする請求項1記載の撮影画像合成システム。The combined data creation means includes:
The photographed image composition system according to claim 1, wherein the plurality of photographed data are combined using a weighting method, a least square method, a robust estimation method, or the like to generate combined data.
前記複数の撮影データを、焦点距離が近い撮影データほど優先して結合することを特徴とする請求項1記載の撮影画像合成システム。The combined data creation means includes:
The photographed image composition system according to claim 1, wherein the plurality of photographed data is preferentially combined as the photographed data having a shorter focal distance.
前記複数の撮影データを結合し、結合データを作成する結合データ作成工程と、
前記結合データを記憶する記憶工程と、
を、具備し、
前記形状入力装置は、焦点距離をずらして前記対象物を複数回撮影し、前記対象物の撮影データを得ることを特徴とする撮影画像合成方法。A reading step of reading a plurality of shooting data obtained by a shape input device shooting a three-dimensional shape of an object;
A combined data creation step of combining the plurality of shooting data and creating combined data;
A storage step of storing the combined data;
Comprising
The shape input device captures the target object a plurality of times by shifting a focal length, and obtains captured data of the target object.
前記複数の撮影データを、重み付け法、最小二乗法、ロバスト推定法等を用いて結合し、結合データを作成することを特徴とする請求項4記載の撮影画像合成方法。The combined data creation step includes:
5. The photographed image composition method according to claim 4, wherein the plurality of photographed data are combined by using a weighting method, a least square method, a robust estimation method, or the like to generate combined data.
前記複数の撮影データを、焦点距離が近い撮影データほど優先して結合することを特徴とする請求項4記載の撮影画像合成方法。The combined data creation step includes:
5. The photographed image composition method according to claim 4, wherein the plurality of photographed data is preferentially combined as the photographed data having a shorter focal distance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003200283A JP2005043084A (en) | 2003-07-23 | 2003-07-23 | System and method for compositing photographed image, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003200283A JP2005043084A (en) | 2003-07-23 | 2003-07-23 | System and method for compositing photographed image, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005043084A true JP2005043084A (en) | 2005-02-17 |
Family
ID=34260742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003200283A Pending JP2005043084A (en) | 2003-07-23 | 2003-07-23 | System and method for compositing photographed image, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005043084A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7812969B2 (en) | 2006-06-23 | 2010-10-12 | Konica Minolta Sensing, Inc. | Three-dimensional shape measuring apparatus |
CN113660407A (en) * | 2020-04-28 | 2021-11-16 | 合肥美亚光电技术股份有限公司 | Image forming apparatus, control method of image forming apparatus, and storage medium |
JP7549025B2 (en) | 2020-09-07 | 2024-09-10 | ファナック株式会社 | 3D measuring device |
-
2003
- 2003-07-23 JP JP2003200283A patent/JP2005043084A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7812969B2 (en) | 2006-06-23 | 2010-10-12 | Konica Minolta Sensing, Inc. | Three-dimensional shape measuring apparatus |
CN113660407A (en) * | 2020-04-28 | 2021-11-16 | 合肥美亚光电技术股份有限公司 | Image forming apparatus, control method of image forming apparatus, and storage medium |
CN113660407B (en) * | 2020-04-28 | 2023-11-17 | 合肥美亚光电技术股份有限公司 | Imaging apparatus, control method of imaging apparatus, and storage medium |
JP7549025B2 (en) | 2020-09-07 | 2024-09-10 | ファナック株式会社 | 3D measuring device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3392831B1 (en) | Three-dimensional sensor system and three-dimensional data acquisition method | |
JP4290733B2 (en) | Three-dimensional shape measuring method and apparatus | |
EP2568253B1 (en) | Structured-light measuring method and system | |
JP5620200B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
JP2008241355A (en) | Device for deriving distance of object | |
JP5955028B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2008242658A (en) | Three-dimensional object imaging apparatus | |
JP2011069965A (en) | Image capturing apparatus, image display method, and recording medium with image display program recorded thereon | |
KR102479827B1 (en) | Image processing device and image processing method | |
US20180322329A1 (en) | Image processing device, imaging device, microscope device, image processing method, and image processing program | |
JP2022033344A (en) | Oct retina image data rendering method and oct retina image data rendering device | |
WO2020075252A1 (en) | Information processing device, program, and information processing method | |
JP7409443B2 (en) | Imaging device | |
US11060853B2 (en) | Three-dimensional sensor system and three-dimensional data acquisition method | |
CN105306922A (en) | Method and device for obtaining depth camera reference diagram | |
WO2019076192A1 (en) | Image reconstruction method and device, and microscope imaging device | |
JP2019016230A (en) | Learning device, image combining device, learning method, image combining method, and program | |
JP2005043083A (en) | System and method for reducing photographing error, program, and recording medium | |
US8818124B1 (en) | Methods, apparatus, and systems for super resolution of LIDAR data sets | |
CN107534730B (en) | Image processing apparatus and image processing method | |
JP2005043084A (en) | System and method for compositing photographed image, program, and recording medium | |
JP2019120590A (en) | Parallax value calculation device, parallax value calculation method and program | |
JP6456084B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011133360A (en) | Distance measuring device, distance measurement method, and program | |
JP3637416B2 (en) | Three-dimensional measurement method, three-dimensional measurement system, image processing apparatus, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060629 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090120 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090609 |