JP2005043084A - System and method for compositing photographed image, program, and recording medium - Google Patents

System and method for compositing photographed image, program, and recording medium Download PDF

Info

Publication number
JP2005043084A
JP2005043084A JP2003200283A JP2003200283A JP2005043084A JP 2005043084 A JP2005043084 A JP 2005043084A JP 2003200283 A JP2003200283 A JP 2003200283A JP 2003200283 A JP2003200283 A JP 2003200283A JP 2005043084 A JP2005043084 A JP 2005043084A
Authority
JP
Japan
Prior art keywords
data
combined
photographed
input device
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003200283A
Other languages
Japanese (ja)
Inventor
Kazuo Matsufuji
和夫 松藤
Akira Takakura
章 高倉
Toshiki Hara
豪紀 原
Yoko Hanada
陽子 花田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2003200283A priority Critical patent/JP2005043084A/en
Publication of JP2005043084A publication Critical patent/JP2005043084A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographed image composition system capable of producing efficiently a three-dimensional CG data of an object having a depth. <P>SOLUTION: A shape coupling processor 3 sets photographing parameters in a three-dimensional shape input device 5, in a photographed image composition system 1. The three-dimensional shape input device 5 shifts a focal distance (within the range of the depth of a field) of a laser beam to acquire a plurality of photographed data of the measuring object 11. The shape coupling processor 3 receives the plurality of photographed data acquired by the three-dimensional shape input device 5, and couples the data to create a highly accurate coupled data. The three-dimensional shape of the measuring object 11 having the depth is produced efficiently based on the coupled data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、実物体の3次元形状を非接触で計測する3次元形状計測システムにに関するものである。
【0002】
【従来の技術】
近年、コンピュータハードウェアの性能は急速に向上してきている。特にグラフィックスハードウェアやネットワークの情報転送速度はめざましい進歩を遂げており、汎用PCでさえも高性能なハードウェアを搭載し、高速通信が進んできている。また、3次元入力装置を用いた実体物から3次元情報(形状や色)をデータ化し、コンピュータに取り込む技術も進歩してきている。
【0003】
以上のことから、ネットワーク経由で3次元コンピュータグラフィックス(以下3DCG)コンテンツを配信するサービスの需要が高まりつつある。従来の3DCG制作方法(3DCG制作アプリケーションで制作)では、3DCGコンテンツの制作コストが高くなるため、制作コストを低減する3次元形状入力装置が導入されるようになった。
【0004】
例えば、レーザ光を用いた光切断方式の3次元形状入力装置が知られている。即ち、この方式は、レーザ光をスリット状にして対象物をスキャンし、その反射光をCCDカメラで受光する。三角測量法の原理で、レーザ発光部から対象物までの方向と距離とを検出することで、対象物の3次元形状を計測する(特許文献1参照)。
【0005】
また、複数の照射手段を設け、互いに異なる方向から対象物に照射し、収差による影響の低減、および計測精度を向上させる3次元形状計測装置がある(特許文献2参照)。
【0006】
【特許文献1】
特開2000−131031号公報
【特許文献2】
特開2000−329531号公報
【0007】
【発明が解決しようとする課題】
しかしながら、レーザ光を用いた3次元形状入力装置において、1度に撮影できる奥行き方向の範囲(以下、被写界深度と記す)は限られている。このため、奥行き方向に距離がある対象物は、1度の撮影で全ての計測を行うことができない。
【0008】
従来は、焦点距離(被写界深度の範囲)をずらしながら、対象物を複数回計測し、計測結果の位置関係を手動修正した後、結合(合成)していた。このため、対象物の撮影と、結合処理を繰り返し行う必要があり、3次元形状CGデータの制作コストが高くなる原因となっていた。
【0009】
本発明は、このような問題に鑑みてなされたもので、その目的とするところは、奥行きのある対象物の3次元形状CGデータを、効率的に制作できる撮影画像合成システムを提供することにある。
【0010】
【課題を解決するための手段】
前述した目的を達成するために第1の発明は、対象物の3次元形状を撮影する形状入力装置と、前記形状入力装置が撮影する複数の撮影データを読み取る読取手段と、前記複数の撮影データを結合し、結合データを作成する結合データ作成手段と、前記結合データを記憶する記憶手段とを、具備し、前記形状入力装置は、焦点距離をずらして前記対象物を複数回撮影し、前記対象物の撮影データを得ることを特徴とする撮影画像合成システムである。
【0011】
形状入力装置は、焦点距離をずらして対象物を撮影すると、焦点の合う奥行き方向の距離範囲である被写界深度もずれ、撮影される前記対象物の領域が変わる。
【0012】
前記結合データ作成手段は、前記複数の撮影データを、重み付け法、最小二乗法、ロバスト推定法等を用いて結合し、結合データを作成する。即ち、被写界深度を変えて得られた複数の撮影データを、最適な手法で結合して高精度な3次元形状を得る。
【0013】
重み付け法は、例えば、焦点距離の近い撮影データに重みをより大きくつけて、撮影データを結合する。
【0014】
最小二乗法は、撮影データと結合データとの差の2乗和が最小となるようなパラメータを決定する手法であり、撮影データの誤差が正規分布を示す時の最尤推定法である。
【0015】
ロバスト推定法は、例外値をある程度含む撮影データであっても、例外値の影響を受けにくい推定法である。
【0016】
前記結合データ作成手段は、前記複数の撮影データを、焦点距離が近い撮影データほど優先して結合する。焦点距離が近いほど測定精度が高いので、焦点距離が近い撮影データを優先して結合する結合手法である。
【0017】
形状入力装置は、レーザ光を用いた光切断方式の3次元形状入力装置である。レーザ照射機から照射されたレーザ光を、円筒形レンズでスリット状にし、ガルバノミラーで方向を変え、対象物に照射する。対象物をスキャンして反射光をCCD等の画像撮影装置で取り込み、三角測量法の原理で、レーザ発光部から対象物までの距離と方向を検出して、対象物の3次元形状を計測する。
【0018】
撮影データとは、レーザ光をガルバノミラーで走査し、1回のスキャンで例えば640点×480点の計測を行い、各点ごとに対象物の奥行き情報(距離情報)を測定したデータである。本実施の形態では、同一視点からレーザ光の焦点距離を変えて、計測対象物の複数の撮影データを得る。
【0019】
結合データとは、得られた複数の撮影データの重複する領域に、前述のいずれかの結合データ作成手段を施して得られる、高精度な対象物の3次元形状データである。
【0020】
第1の発明の撮影画像合成システムは、対象物の3次元形状を撮影する形状入力装置の複数の撮影データを読み取り、複数の撮影データを結合して結合データを作成する。形状入力装置は、同一視点からレーザ光の焦点距離を変えて対象物を複数回撮影し、撮影データを得る。結合データ作成手段は、重み付けの方法、最小二乗法を利用する方法、ロバスト推定法、レーザ強度が弱い撮影データを優先させる方法等がある。
【0021】
第2の発明は、形状入力装置が対象物の3次元形状を撮影して得る、複数の撮影データを読み取る読取工程と、前記複数の撮影データを結合し、結合データを作成する結合データ作成工程と、前記結合データを記憶する記憶工程とを、具備し、前記形状入力装置は、焦点距離をずらして前記対象物を複数回撮影し、前記対象物の撮影データを得ることを特徴とする撮影画像合成方法である。
【0022】
第2の発明の撮影画像合成方法は、形状入力装置が対象物の3次元形状を撮影して得る、複数の撮影データを読み取り、複数の撮影データを結合して結合データを作成する方法である。形状入力装置は、同一視点からレーザ光の焦点距離をずらして対象物を複数回撮影し、対象物の撮影データを得る。
【0023】
第3の発明は、コンピュータを、請求項1から請求項3記載のいずれかの撮影画像合成システムとして機能させるためのプログラムである。
【0024】
第3の発明のプログラムは、請求項1から請求項3記載の撮影画像合成システムを機能させるものであり、このプログラムをネットワークを介して流通させることもできる。
【0025】
第4の発明は、コンピュータを、請求項1から請求項3記載のいずれかの撮影画像合成システムとして機能させるためのプログラムを記録した記録媒体である。
【0026】
第4の発明の記録媒体は、請求項1から請求項3記載の撮影画像合成システムを機能させるプログラムを記憶しており、この記録媒体を流通させることもでき、またこのプログラムをネットワークを介して流通させることもできる。
【0027】
【発明の実施の形態】
以下、図面に基づいて本発明の実施の形態を詳細に説明する。図1は、本発明の実施の形態に係る撮影画像合成システム1の構成を示す図である。
【0028】
(1.構成)
撮影画像合成システム1は、計測対象物11の3次元形状を、非接触で測定するシステムであり、形状結合処理装置3と、3次元形状入力装置5とで構成される。
【0029】
(1−1.形状結合処理装置3の構造)
形状結合処理装置3は、図1に示すように、CPU(中央処理装置)等の制御部15と、ハードディスク等の記憶部13と、ディスプレイ等の表示装置7と、キーボードやマウスなどの入力装置9等で構成される。
【0030】
操作者は、入力装置9から撮影パラメータの入力を行う。撮影パラメータとは、計測対象物11までの距離、撮影に使われるレーザ強度、画像撮影時の輝度などである。尚、幾つかのパターンの撮影パラメータを記憶部13に登録し、それを選択するようにしても良い。
【0031】
表示装置7は、CRTや液晶ディスプレイ等の機器であり、撮影パラメータの設定項目や、計測された3次元コンピュータグラフィックスデータ(ポリゴン化された形状情報、及びテクスチャ情報)を表示する。
【0032】
記憶部13は、ハードディスクやCD−ROM等の機器である。図3に記憶部13の内容を示す。記憶部13には、3次元形状入力装置5で測定された計測対象物11の撮影データ29、及び色情報39を登録する。また、撮影データ29を結合した結合データ31を登録する。また、結合データ31に色情報39をつけて作成される3DCGデータ41を登録する。
【0033】
制御部15は、入力装置9から入力される撮影パラメータを、3次元形状入力装置5に設定し、撮影処理の管理を行う。また、3次元形状入力装置5から、計測対象物11の奥行き情報、及び色情報39を読み込み、加工処理と結合処理を施して表示装置7に出力する。制御部15の詳細構造を図2に示す。
【0034】
制御部15は、コンピュータのCPU等であり、処理機能により図2のような構造に分けられる。即ち制御部15は、その機能により、3次元形状入力装置管理部23と、撮影データ処理部25と、撮影処理管理部21と、結合処理部27とで構成される。図2により、処理の流れとともに、制御部15の各機能を説明する。
【0035】
撮影処理管理部21は、入力装置9から入力(ステップ401)された撮影パラメータを、3次元形状入力装置管理部23に送り、更に形状入力装置管理部23に対し撮影実行の命令を行う(ステップ402)。
【0036】
3次元形状入力装置管理部23は、撮影パラメータを3次元形状入力装置5に設定し、撮影処理を実行させる(ステップ403)。また、3次元形状入力装置5からの、計測対象物11の奥行き情報(撮影データ29)と色情報39を取得し(ステップ404)、撮影データ処理部25に送る(ステップ405)。
【0037】
撮影データ処理部25は、3次元形状入力装置管理部23から計測対象物11の奥行き情報(撮影データ29)と色情報39を読み込み、修正及び変換した後、撮影処理管理部21に送る(ステップ406)。
【0038】
撮影処理管理部21は、撮影データ処理部25から計測対象物11の奥行き情報(撮影データ29)と色情報39を読み込み、結合処理部27に送る(ステップ407)。
【0039】
結合処理部27は、焦点距離(被写界深度の範囲)の異なる奥行き情報(撮影データ29)、及び色情報39を撮影処理管理部21から読み込み、結合して結合データ31、3DCGデータ41を作成し、撮影処理管理部21に送る(ステップ408)。
【0040】
撮影処理管理部21は、奥行き情報(撮影データ29)、色情報39、結合データ31、3DCGデータ41を記憶部13に登録する(ステップ409)。また、撮影処理管理部21は、3DCGデータ41を記憶部13から読み出して(ステップ410)、表示装置7に3次元画像として表示させる(ステップ411)。
【0041】
(1−2.3次元形状入力装置5の構造)
3次元形状入力装置5は、レーザ光による光切断方式を採用しており、レーザ照射装置17と画像撮影装置19とを備える。レーザ照射装置17は、3次元形状入力装置管理部23により設定された撮影パラメータを基に、計測対象物11に対してレーザ光を照射する。図4に3次元形状入力装置5の構成を示す。
【0042】
レーザ照射装置17は、レーザ照射機33と、円筒型レンズ35と、ガルバノミラー37とで構成される。レーザ照射機33から照射されるレーザ光を、円筒型レンズ35でスリット状にし、さらにガルバノミラー37で方向を変えて計測対象物11に照射する。計測対象物11で反射されたレーザ光を、CCD等の画像撮影装置19が受光する。レーザ光は、一般照明光と比べて輝度が高いため、入力された画像内のレーザ照射部分を読み取ることができる。
【0043】
レーザ照射機33とガルバノミラー37の位置関係、及びガルバノミラー37の角度と受光データから、三角測量法を用いて計測対象物11の奥行き情報(距離情報)を得る。ガルバノミラー37の角度を変え、計測対象物11を1回走査することで、画像撮影装置19は例えば640点×480点の奥行き情報を取得する。
【0044】
また、レーザを照射していないときの計測対象物11の色を収集することで、色情報39を取得し、奥行き情報と合わせて、計測対象物11の3次元形状を復元する。
【0045】
尚、3次元形状入力装置5は、計測対象物11が前後方向に奥行きを持つ場合、被写界深度の範囲に計測対象物11が入らないならば、1度の撮影で計測対象物11の撮影データを得ることはできない。この場合、レーザ光の焦点距離(即ち被写界深度の範囲)を重複領域があるようにずらしながら、計測対象物11を何回かに分けて撮影する。撮影データ29のうち、焦点距離の近いデータのほうが、測定精度は高い。
【0046】
図5、及び図6に、被写界深度57内外の位置の違いによる、計測対象物の撮影画像59の例を示す。図5は、3次元形状入力装置5に向かって前後方向に並んだ計測対象物51、53、55を示す。レーザ照射装置17の被写界深度57が、図5に示す深さに設定されているとすると、計測対象物53のみが、焦点の合う距離範囲にある。
【0047】
3次元形状入力装置5の画像撮影装置19で撮影された撮影画像59は、図6に示される。即ち、焦点の合う(被写界深度57の範囲にある)計測対象物53は、鮮明な画像が得られるが、計測対象物51、55は、ピントのずれた画像になる。このとき、焦点の合う計測対象物53は、奥行き情報(距離情報)が得られるが、ピントの合わない範囲(即ち被写界深度57外)の画像の奥行き情報は得られず、NOVALUE値が入る。
【0048】
画像撮影装置19は、撮影後の計測対象物11の奥行き情報と色情報39を、3次元形状入力装置管理部23に送る。
【0049】
(2.フローチャート)
次に、図7に本実施の形態における撮影画像合成システム1のフローチャートを示す。計測対象物61の3次元形状データを取得する図を図10に示す。また、図11に、レーザ光の焦点距離(被写界深度の範囲)をずらして計測対象物61を撮影した複数の撮影画像28を示す。図12は、図11のそれぞれの画像の撮影データ29(a)、(b)、(c)及び、結合データ31(d)を示す。
【0050】
図7のフローチャートにおいて、まず計測対象物61の撮影準備として、操作者は計測対象物61の設置、及び照明の調整などを行う。また、制御部15は、入力された撮影パラメータ(計測対象物61までの距離、レーザ強度、撮影時の輝度など)を、3次元形状入力装置5に設定する(ステップ101)。
【0051】
次に、3次元形状入力装置5は、制御部15が設定する撮影パラメータに従い、計測対象物61までの距離、即ち焦点距離(被写界深度の範囲)を変更しつつ且つ、被写界深度の重複部分が存在するように、同一視点から計測対象物61を複数回撮影し撮影データ29(計測対象物61の奥行き情報)を得る(ステップ102)。
【0052】
例えば図10のように計測対象物61は、前後方向に距離があるので、3次元形状入力装置5の焦点距離(被写界深度の範囲)を、被写界深度63、65、67の3段階にずらして撮影する。それぞれの被写界深度63、65、67の時の撮影画像28を、図11の(a)、(b)、(c)に示す。
【0053】
図11の、被写界深度の範囲(即ち焦点の合う範囲)にある計測対象物61の領域は、それぞれ領域69、75、81に示される。斜線領域71、73、77、79は、被写界深度の範囲外、即ち焦点のずれた領域を示す。
【0054】
また、3次元形状入力装置5は、制御部15の指示によりレーザ光を照射しないで計測対象物61の色情報39を収集し、撮影データ29とともに形状結合処理装置3(制御部15)に送る。
【0055】
形状結合処理装置3の3次元形状入力装置管理部23は、撮影データ29と色情報39を撮影データ処理部25に送る。撮影データ処理部25では、撮影データ29を、格子状(640×480)のデータ配列に変換する。即ち図11の撮影画像28(a)は図12の撮影データ29(a)に、図11の撮影画像28(b)は図12の撮影データ29(b)に、図11の撮影画像28(c)は図12の撮影データ29(c)に、変換する。尚、図12の*印は、その配列に奥行き情報があることを示す。
【0056】
図11撮影画像28(a)の領域69は、図12撮影データ29(a)の領域83と領域85で示される。図11撮影画像28(a)の斜線領域71は、図12撮影データ29(a)の領域87に対応しており、被写界深度外(焦点が合っていない)の領域であるため、奥行き情報は得られず初期値であるNOVALUE値が入ることを示す。図11撮影画像28(b)、図11撮影画像28(c)についても同様に、図12撮影データ29(b)、図12撮影データ29(c)のデータを得る。
【0057】
尚、図10のように、被写界深度の範囲をずらして計測対象物61を撮影するとき、重複して撮影する領域がある。即ち重複して撮影データの得られる領域は、図12撮影データ29(a)の領域85と図12撮影データ29(b)の領域91、図12撮影データ29(b)の領域95と図12撮影データ29(c)の領域101である。
【0058】
撮影データ処理部25は、上記のように変換された撮影データ29を、撮影処理管理部21に送る。撮影処理管理部21は、この撮影データ29を結合処理部27に送り、結合処理部27では、撮影データ29の結合処理を行い結合データ31を作成する(ステップ103)。また結合データ31と色情報39を3DCGデータ41に変換する。結合処理方法については後述する。
【0059】
撮影処理管理部21は、結合処理部27から、作成された3DCGデータ41を読み出し、記憶部13に登録する(ステップ104)。尚、記憶部13には、撮影データ29、結合データ31、色情報39を登録してもよい。
【0060】
(3.撮影データ29のデータ結合方法)
結合処理部27における撮影データ29のデータ結合処理について説明する。結合方法にはいくつかの手段が考えられ、ここでは2種類のデータ結合処理のフローチャートを図8、図9に示す。ただしフローチャート内で利用される結合方法は、記載された手法だけとは限らない。
【0061】
撮影データ29は、格子状の奥行き情報群として撮影データ29配列F(x、y)、1≦i≦n(n:撮影回数)に格納される。例えばx=640、y=480の格子状の2次元配列であるとすると、配列(640、480)の座標ごとに奥行き情報が格納されている。
【0062】
尚、奥行き情報のない座標には、NOVALUE値が格納されている。例えば図12の撮影データ29F(x、y)では、計測対象物11の奥行き情報のある領域83、85には奥行き情報が格納されている(図中の*印は奥行き情報が格納されていることを示す)が、その他の領域には奥行き情報がなくNOVALUE値が格納されている。例えば領域87は、計測対象物61のピントが合っていない部分なので、奥行き情報は得られずNOVALUE値が格納されている。
【0063】
また、全撮影データ29の結合結果を結合データ31配列S(x、y)に格納する。初期値として結合データ31配列S(x、y)の全座標に、NOVALUE値を格納する。
【0064】
(3−1.撮影データ29の第1のデータ結合方法)
撮影データ29の、第1のデータ結合方法のフローチャートを図8に示す。また、第1のデータ結合方法を図12を用いて説明する。まず初期設定として、図12(d)の結合データ31配列S(x、y)の全座標に、NOVALUE値を格納する。
【0065】
結合処理部27は、撮影処理管理部21から取得した全撮影データ29の配列F(x、y)〜F(x、y)から、同一座標(x、y)の奥行き情報をn個抽出する(ステップ201)。
【0066】
抽出したn個のデータから、奥行き情報が格納されている(即ちNOVALUE値ではない)座標を抽出する。ここではm個(0≦m≦n)が抽出されたとする(ステップ202)。例えば図12(a)、(b)、(c)において、同じ座標(a)の領域85と、(b)の領域91には奥行き情報が格納されているが、(c)では領域99にあたり、NOVALUE値が格納されている。即ち図12の例では、撮影データ29のn=3(個)のうち、(a)の領域85にあたる座標では、奥行き情報の格納されているデータは、m=2(個)である。
【0067】
次に結合処理部27は、抽出したm個の奥行き情報を結合する。結合方法には、
(a)重み付け
(b)最小二乗法
(c)ロバスト推定法
等の方法を行い(ステップ203)、結合データ31配列S(x、y)の座標(x、y)に結合した値を代入する(ステップ204)。
【0068】
(a)重み付けは、奥行き情報F(x、y)〜F(x、y)に、それぞれ適切な重みを付け、式(1)を用いて算出する。
【0069】
【数1】

Figure 2005043084
【0070】
ただし、重みαは式(2)のとおりとする。
【0071】
【数2】
Figure 2005043084
【0072】
(b)最小二乗法は、測定値(撮影データ29)とモデル関数から得られる理論値(結合データ31)の差の2乗和が最小となるようなモデル関数のパラメータを決定する手法のことで、式(3)が最小となるようなS(x,y)の値を求める。
【0073】
【数3】
Figure 2005043084
【0074】
最小二乗法は、撮影データ29の誤差が正規分布を示す時、最尤推定法といえる。
【0075】
(c)ロバスト推定法は、例外値をある程度含むデータ群であっても、比較的安定に代表値を推定できる方法である。式(4)は、ロバスト推定法の1つである、M−estimatorの評価関数である。式(4)が最小値をとるよう、S(x,y)の値を求める。
【0076】
【数4】
Figure 2005043084
【0077】
尚、式(4)のρ関数は、
ρ(t)=t/(σ+t) ……(5)
と表される。tは代表値との誤差であり、ρ(t)は、t=0で唯一最小値を持つ正規関数である。即ち、代表値から離れた値は、代表値算出には殆ど影響力がなくなる。
【0078】
以上のように、1座標ずつ、複数の撮影データ29の結合処理を行い結合データ31を算出して配列S(x、y)の対応する座標に代入する。例えばx=640、y=480ならば、640×480個の座標に同様の結合処理を行い(ステップ205のNO、ステップ206)、結合処理を終了する。
【0079】
図12を用いて説明すると、レーザ光の焦点距離(即ち被写界深度の範囲)の異なる、それぞれの撮影データ29配列F(x、y)、F(x、y)、F(x、y)について結合処理を行い、奥行き情報のある部分、即ち領域85と領域91、領域95と領域101のデータについて、同じ座標(x、y)同士で結合処理を行う。
【0080】
例えば図12において(a)の領域85にあたるx=500、y=300の座標で、F(500、300)=320、F(500、300)=314、F(500、300)=NOVALUEとすると、奥行き情報のある撮影データ29のみを抽出、即ちF(500、300)=NOVALUEは除外して、上記の何らかの結合方法を用い、結合データ31配列S(500、300)を算出する。全ての座標について結合処理を行い、結合データ31を作成する。計測対象物61の、被写界深度の異なる複数の撮影データ29を結合処理し、精度の高い3DCGデータとして結合データ31配列S(x、y)を得る。
【0081】
(3−2.撮影データ29の第2のデータ結合方法)
撮影データ29の、第2のデータ結合方法のフローチャートを図9に示す。また、第2のデータ結合方法を、図12を用いて説明する。
【0082】
第2のデータ結合方法では、まず撮影データ29配列F(x、y)〜F(x、y)を、焦点距離の近い順に並べ替える。即ち撮影データ29配列F(x、y)のデータが、最も焦点距離の近い撮影データであり、最も撮影精度が高い撮影データである。第2の結合方法は、配列F(x、y)を最も優先順位を高く設定し、順にF(x、y)、F(x、y)・・と、焦点距離が長くなるほど優先順位を落として結合し、結合データ31を作成する。
【0083】
まず、結合データ31配列S(x、y)を初期化する。即ち結合データ31配列S(x、y)の全座標に、NOVALUE値を格納する(ステップ301)。全撮影回数をn回とし、i=1を設定する。
【0084】
次に、結合処理部27は、i番目の撮影データ29配列F(x、y)を取得する(ステップ302)。i=1のとき、撮影データ29配列F(x、y)を取得する。
【0085】
次に、結合データ31配列Sの座標(x、y)の値を、DataSに読み込み(ステップ303)、DataSに奥行き情報が格納されていなければ(ステップ304のNO)、撮影データ29配列Fの座標(x、y)の値をDataFに読み込む(ステップ305)。DataSに奥行き情報が格納されている場合、即ち結合データ31配列S(x、y)にデータが格納されていれば(ステップ304のYES)、ステップ308に進む。
【0086】
DataFに奥行き情報があれば(ステップ306のYES)、結合データ31配列S(x、y)にDataFを代入し(ステップ307)、ステップ308に進む。DataFに奥行き情報がない場合、即ち撮影データ29配列F(x、y)がNOVALUE値であるとき(ステップ306のNO)、ステップ308に進む。
【0087】
ステップ308では、全座標(x、y)の、結合データ31配列S(x、y)の格納値調査が終了していない場合(ステップ308のNO)、結合データ31配列S(x、y)の次の座標に移動して(ステップ309)、ステップ303に戻る。例えば、結合データ31配列S(100、100)の次の座標S(100、101)の格納値の調査に移る。
【0088】
ステップ308で、全座標(x、y)の、結合データ31配列S(x、y)の格納値調査が終了した場合で(ステップ308のYES)、かつ最後の撮影データ29配列F(x、y)であった場合は(ステップ310のYES)、結合処理は終了する。未処理の撮影データ29がある場合は(ステップ310のNO)、次の撮影データ29配列Fi+1(x、y)へ移動し(ステップ311)、ステップ302に戻る。
【0089】
図12は、上記図9のフローチャートに従い、全撮影データ29の配列F(x、y)〜F(x、y)を結合処理して結合データ31配列S(x、y)を求める図である。撮影データ29配列F(x、y)が、最も焦点距離が近い撮影データである。
【0090】
撮影データ29配列F(x、y)の奥行き情報のある領域83と領域85が、まず優先されて結合データ31配列S(x、y)に格納される。
【0091】
次に、撮影データ29配列F(x、y)の奥行き情報のある領域91、領域93、領域95のうち、対応する結合データ31配列S(x、y)の座標に奥行き情報のない領域、即ち領域93、領域95の奥行き情報が結合データ31配列S(x、y)に結合される。
【0092】
次に、撮影データ29配列F(x、y)の奥行き情報のある領域101、領域103のうち、対応する結合データ31配列S(x、y)の座標に奥行き情報のない領域、即ち領域103の奥行き情報が結合データ31配列S(x、y)に結合される。
【0093】
このようにして、図9のフローチャートに従うと、焦点距離の近い撮影データ29から順に優先されて、結合データ31配列S(x、y)が作成される。従って、図12(d)の、結合データ31配列S(x、y)は、図12(a)、(b)、(c)の撮影データ29配列の同じ座標に奥行き情報がある場合には、焦点距離のより近い撮影データ29を選択し、結合データ31配列S(x、y)の奥行き情報として格納する。
【0094】
従って、焦点距離の近い撮影データ29ほど撮影精度が高いので、誤差の影響を抑えながら、複数の撮影データ29を高精度な1つの結合データ31にまとめることができる。
【0095】
(4.効果など)
撮影データ29の結合方法は、上記説明した方法等から最適な方法を選択することができる。例えば、撮影データ29の枚数が少ない場合には、第1の結合方法では(a)重み付けを行う方法等を選択し、逆に撮影データ29が多い場合には統計的処理である(b)最小二乗法や(c)ロバスト推定法を選択してもよい。尚、撮影データ29の結合方法は、上記説明した方法に限らない。
【0096】
また、複数の結合方法で結合データ31を作成し、表示装置7に計測対象物11の3DCG画像をそれぞれの結合方法の結果として表示し、作成された3次元形状を比較して、結合方法を検討してもよい。
【0097】
また、レーザ光の焦点距離をずらす方法と、被写界深度を広く、或いは浅く変える方法を組み合わせて計測対象物11を複数回撮影して結合データを作成し、3次元画像を得るようにしてもよい。
【0098】
本実施の形態によれば、奥行きのある計測対象物11に対し、レーザ光の焦点距離(被写界深度の範囲)を変えて複数回撮影し、撮影データの焦点の合っている領域を結合して1つの結合データを作成するので、高精度な3次元画像を効率的に制作できる。
【0099】
また、本実施の形態によれば、奥行きのある計測対象物の結合データ作成処理を手動で行う工程を削除できるので、高精度な3次元画像の制作効率を上げ、制作コストを低減する効果がある。
【0100】
尚、本発明の技術的範囲は、前述した実施の形態に限られるものではない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
【0101】
【発明の効果】
以上、詳細に説明したように本発明によれば、奥行きのある対象物の3次元形状CGデータを、効率的に制作できる撮影画像合成システムを提供することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る撮影画像合成システム1の構成を示す図
【図2】制御部15の構成を示す図
【図3】記憶部13を示す図
【図4】3次元形状入力装置5の構成を示す図
【図5】被写界深度57を示す図
【図6】被写界深度57内外の違いによる撮影画像59を示す図
【図7】撮影画像合成システム1のフローチャート
【図8】第1のデータ結合処理を示すフローチャート
【図9】第2のデータ結合処理を示すフローチャート
【図10】3次元形状入力装置5による計測を示す図
【図11】被写界深度を変えて撮影した画像を示す図
【図12】被写界深度を変えて撮影した撮影データ、及び結合データを示す図
【符号の説明】
1・・・ 撮影誤差低減システム
3・・・ 形状結合処理装置
5・・・ 3次元形状入力装置
7・・・ 表示装置
9・・・ 入力装置
11、51、53、55、61・・・ 計測対象物
13・・・ 記憶部
15・・・ 制御部
17・・・ レーザ照射装置
19・・・ 画像撮影装置
21・・・ 撮影処理管理部
23・・・ 3次元形状入力装置管理部
25・・・ 撮影データ処理部
27・・・ 結合処理部
28、59・・・ 撮影画像
29・・・ 撮影データ
31・・・ 結合データ
33・・・ 結合照射機
35・・・ 円筒型レンズ
37・・・ ガルバノミラー
39・・・ 色情報
41・・・ 3DCGデータ
57、63、65、67・・・ 被写界深度
69、75、81・・・ 被写界深度の合った領域
71、73、77、79・・・ 被写界深度外(焦点の合っていない)の領域
83、85、91、93、95、101、103、105、107・・・ 奥行きデータ
87、89、97、99・・・ NOVALUEデータ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional shape measurement system that measures a three-dimensional shape of a real object in a non-contact manner.
[0002]
[Prior art]
In recent years, the performance of computer hardware has improved rapidly. In particular, graphics hardware and network information transfer speeds have made remarkable progress, and even general-purpose PCs are equipped with high-performance hardware, and high-speed communication is progressing. In addition, a technique has also been advanced in which three-dimensional information (shape and color) is converted into data from an entity using a three-dimensional input device and loaded into a computer.
[0003]
From the above, there is an increasing demand for services that deliver 3D computer graphics (hereinafter 3DCG) content via a network. In the conventional 3DCG production method (produced by a 3DCG production application), the production cost of 3DCG content is increased, and therefore, a three-dimensional shape input device that reduces the production cost has been introduced.
[0004]
For example, an optical cutting type three-dimensional shape input device using laser light is known. That is, in this method, a laser beam is slit and an object is scanned, and the reflected light is received by a CCD camera. The three-dimensional shape of the object is measured by detecting the direction and distance from the laser light emitting unit to the object based on the principle of triangulation (see Patent Document 1).
[0005]
In addition, there is a three-dimensional shape measurement apparatus that includes a plurality of irradiation units and irradiates an object from different directions to reduce the influence of aberrations and improve measurement accuracy (see Patent Document 2).
[0006]
[Patent Document 1]
JP 2000-131031 A [Patent Document 2]
Japanese Patent Laid-Open No. 2000-329531
[Problems to be solved by the invention]
However, in a three-dimensional shape input apparatus using laser light, the range in the depth direction (hereinafter referred to as depth of field) that can be photographed at one time is limited. For this reason, an object having a distance in the depth direction cannot be measured all at once.
[0008]
Conventionally, the object is measured a plurality of times while shifting the focal distance (the range of the depth of field), and the positional relationship of the measurement results is manually corrected and then combined (synthesized). For this reason, it is necessary to repeatedly perform shooting of an object and a combining process, which causes a high production cost of the three-dimensional shape CG data.
[0009]
The present invention has been made in view of such problems, and an object of the present invention is to provide a photographed image composition system that can efficiently produce three-dimensional shape CG data of a deep object. is there.
[0010]
[Means for Solving the Problems]
In order to achieve the above-described object, a first invention includes a shape input device that images a three-dimensional shape of an object, a reading unit that reads a plurality of image data captured by the shape input device, and the plurality of image data. And a storage means for storing the combined data, and the shape input device images the object a plurality of times while shifting the focal length, A photographic image composition system characterized by obtaining photographic data of an object.
[0011]
When the shape input device captures an object by shifting the focal distance, the depth of field, which is the distance range in the depth direction in focus, is also shifted, and the region of the object to be captured changes.
[0012]
The combined data creating means combines the plurality of pieces of photographing data using a weighting method, a least square method, a robust estimation method, or the like to create combined data. That is, a plurality of shooting data obtained by changing the depth of field is combined by an optimum method to obtain a highly accurate three-dimensional shape.
[0013]
In the weighting method, for example, a larger weight is given to photographing data with a short focal distance, and the photographing data is combined.
[0014]
The least square method is a method for determining a parameter that minimizes the sum of squares of the difference between the photographed data and the combined data, and is a maximum likelihood estimation method when the photographed data error shows a normal distribution.
[0015]
The robust estimation method is an estimation method that is difficult to be influenced by the exceptional value even if the photographing data includes the exceptional value to some extent.
[0016]
The combined data creation means preferentially combines the plurality of pieces of photographing data with photographing data having a shorter focal length. Since the measurement accuracy is higher as the focal length is shorter, this is a coupling method that preferentially couples photographing data with a shorter focal length.
[0017]
The shape input device is a light cutting type three-dimensional shape input device using laser light. The laser light emitted from the laser irradiator is slit with a cylindrical lens, and the direction is changed with a galvano mirror to irradiate an object. The object is scanned, the reflected light is captured by an image capturing device such as a CCD, and the three-dimensional shape of the object is measured by detecting the distance and direction from the laser emission unit to the object by the principle of triangulation. .
[0018]
The imaging data is data obtained by scanning laser light with a galvanometer mirror, measuring, for example, 640 points × 480 points in one scan, and measuring the depth information (distance information) of the object for each point. In the present embodiment, a plurality of pieces of imaging data of the measurement object are obtained by changing the focal length of the laser light from the same viewpoint.
[0019]
The combined data is highly accurate three-dimensional shape data of an object obtained by applying any of the above-described combined data creating means to a region where a plurality of obtained photographing data overlap.
[0020]
The photographed image composition system of the first invention reads a plurality of pieces of photographed data of a shape input device for photographing a three-dimensional shape of an object, and creates a combined data by combining the plurality of photographed data. The shape input device captures image data by capturing the object multiple times while changing the focal length of the laser beam from the same viewpoint. As the combined data creation means, there are a weighting method, a method using a least square method, a robust estimation method, a method of giving priority to photographing data having a low laser intensity, and the like.
[0021]
According to a second aspect of the present invention, there is provided a reading step of reading a plurality of shooting data obtained by a shape input device shooting a three-dimensional shape of an object, and a combined data generation step of combining the plurality of shooting data and generating combined data And a storing step for storing the combined data, wherein the shape input device images the object a plurality of times while shifting a focal length to obtain imaging data of the object. This is an image composition method.
[0022]
The photographed image composition method of the second invention is a method in which a shape input device captures a three-dimensional shape of an object, reads a plurality of photographed data, and combines the plurality of photographed data to create combined data. . The shape input device captures the target object multiple times by shifting the focal length of the laser light from the same viewpoint and capturing the target object a plurality of times.
[0023]
A third invention is a program for causing a computer to function as the photographed image composition system according to any one of claims 1 to 3.
[0024]
A program according to a third aspect of the invention causes the photographed image composition system according to claims 1 to 3 to function, and the program can be distributed via a network.
[0025]
A fourth invention is a recording medium on which a program for causing a computer to function as the photographed image composition system according to any one of claims 1 to 3 is recorded.
[0026]
A recording medium according to a fourth aspect of the invention stores a program that causes the photographed image composition system according to claims 1 to 3 to function. The recording medium can also be distributed, and the program can be distributed via a network. It can also be distributed.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing a configuration of a captured image composition system 1 according to an embodiment of the present invention.
[0028]
(1. Configuration)
The captured image composition system 1 is a system that measures the three-dimensional shape of the measurement object 11 in a non-contact manner, and includes a shape combination processing device 3 and a three-dimensional shape input device 5.
[0029]
(1-1. Structure of Shape Joining Processing Device 3)
As shown in FIG. 1, the shape combination processing device 3 includes a control unit 15 such as a CPU (central processing unit), a storage unit 13 such as a hard disk, a display device 7 such as a display, and an input device such as a keyboard and a mouse. 9 etc.
[0030]
The operator inputs photographing parameters from the input device 9. The imaging parameters are the distance to the measurement object 11, the laser intensity used for imaging, the brightness at the time of imaging, and the like. Note that it is also possible to register several patterns of shooting parameters in the storage unit 13 and select them.
[0031]
The display device 7 is a device such as a CRT or a liquid crystal display, and displays imaging parameter setting items and measured three-dimensional computer graphics data (polygonal shape information and texture information).
[0032]
The storage unit 13 is a device such as a hard disk or a CD-ROM. FIG. 3 shows the contents of the storage unit 13. In the storage unit 13, shooting data 29 and color information 39 of the measurement object 11 measured by the three-dimensional shape input device 5 are registered. Also, the combined data 31 obtained by combining the shooting data 29 is registered. In addition, 3DCG data 41 created by adding color information 39 to the combined data 31 is registered.
[0033]
The control unit 15 sets shooting parameters input from the input device 9 in the three-dimensional shape input device 5 and manages shooting processing. Further, the depth information and the color information 39 of the measurement object 11 are read from the three-dimensional shape input device 5, processed and combined, and output to the display device 7. A detailed structure of the control unit 15 is shown in FIG.
[0034]
The control unit 15 is a CPU of a computer or the like, and is divided into a structure as shown in FIG. That is, the control unit 15 includes a three-dimensional shape input device management unit 23, a photographing data processing unit 25, a photographing processing management unit 21, and a combination processing unit 27 according to the function. With reference to FIG. 2, each function of the control unit 15 will be described along with the flow of processing.
[0035]
The imaging processing management unit 21 sends the imaging parameters input from the input device 9 (step 401) to the three-dimensional shape input device management unit 23, and further instructs the shape input device management unit 23 to execute imaging (step). 402).
[0036]
The three-dimensional shape input device management unit 23 sets the photographing parameters in the three-dimensional shape input device 5 and executes photographing processing (step 403). Further, the depth information (shooting data 29) and the color information 39 of the measurement object 11 are acquired from the three-dimensional shape input device 5 (step 404) and sent to the shooting data processing unit 25 (step 405).
[0037]
The imaging data processing unit 25 reads the depth information (imaging data 29) and the color information 39 of the measurement object 11 from the three-dimensional shape input device management unit 23, corrects and converts them, and sends them to the imaging processing management unit 21 (step). 406).
[0038]
The imaging processing management unit 21 reads the depth information (imaging data 29) and color information 39 of the measurement object 11 from the imaging data processing unit 25 and sends them to the combination processing unit 27 (step 407).
[0039]
The combination processing unit 27 reads depth information (shooting data 29) and color information 39 having different focal lengths (range of depth of field) from the shooting processing management unit 21 and combines them to obtain combined data 31 and 3DCG data 41. It is created and sent to the photographing process management unit 21 (step 408).
[0040]
The imaging process management unit 21 registers depth information (imaging data 29), color information 39, combined data 31, and 3DCG data 41 in the storage unit 13 (step 409). In addition, the imaging processing management unit 21 reads the 3DCG data 41 from the storage unit 13 (step 410) and causes the display device 7 to display it as a three-dimensional image (step 411).
[0041]
(1-2. Structure of 3D Shape Input Device 5)
The three-dimensional shape input device 5 employs a light cutting method using laser light, and includes a laser irradiation device 17 and an image photographing device 19. The laser irradiation device 17 irradiates the measurement target 11 with laser light based on the imaging parameters set by the three-dimensional shape input device management unit 23. FIG. 4 shows the configuration of the three-dimensional shape input device 5.
[0042]
The laser irradiation device 17 includes a laser irradiation machine 33, a cylindrical lens 35, and a galvano mirror 37. The laser light emitted from the laser irradiator 33 is formed into a slit shape by the cylindrical lens 35, and the direction is changed by the galvano mirror 37 to irradiate the measurement object 11. An image photographing device 19 such as a CCD receives the laser light reflected by the measurement object 11. Since the laser light has a higher luminance than the general illumination light, it is possible to read the laser irradiated portion in the input image.
[0043]
Depth information (distance information) of the measurement object 11 is obtained from the positional relationship between the laser irradiator 33 and the galvanometer mirror 37 and the angle and light reception data of the galvanometer mirror 37 using the triangulation method. By changing the angle of the galvanometer mirror 37 and scanning the measurement object 11 once, the image capturing device 19 acquires depth information of 640 points × 480 points, for example.
[0044]
Moreover, the color information 39 is acquired by collecting the color of the measurement object 11 when the laser is not irradiated, and the three-dimensional shape of the measurement object 11 is restored together with the depth information.
[0045]
Note that the three-dimensional shape input device 5 allows the measurement object 11 to be measured in one shooting if the measurement object 11 has a depth in the front-rear direction and the measurement object 11 does not fall within the range of the depth of field. It is not possible to obtain shooting data. In this case, the measurement object 11 is imaged several times while shifting the focal length of the laser light (that is, the range of depth of field) so that there is an overlapping region. Of the photographic data 29, data with a shorter focal length has higher measurement accuracy.
[0046]
FIG. 5 and FIG. 6 show an example of a captured image 59 of the measurement object due to a difference in position inside and outside the depth of field 57. FIG. 5 shows the measurement objects 51, 53, 55 arranged in the front-rear direction toward the three-dimensional shape input device 5. If the depth of field 57 of the laser irradiation device 17 is set to the depth shown in FIG. 5, only the measurement object 53 is in the in-focus distance range.
[0047]
A photographed image 59 photographed by the image photographing device 19 of the three-dimensional shape input device 5 is shown in FIG. That is, the measurement object 53 that is in focus (in the range of the depth of field 57) provides a clear image, but the measurement objects 51 and 55 are images that are out of focus. At this time, the measurement object 53 in focus can obtain depth information (distance information), but cannot obtain depth information of an image in an out-of-focus range (that is, outside the depth of field 57), and a NOVALUE value is obtained. enter.
[0048]
The image photographing device 19 sends the depth information and color information 39 of the measurement object 11 after photographing to the three-dimensional shape input device management unit 23.
[0049]
(2. Flow chart)
Next, FIG. 7 shows a flowchart of the captured image composition system 1 in the present embodiment. The figure which acquires the three-dimensional shape data of the measurement object 61 is shown in FIG. FIG. 11 shows a plurality of captured images 28 obtained by capturing the measurement object 61 by shifting the focal length (the range of the depth of field) of the laser light. FIG. 12 shows the shooting data 29 (a), (b), (c) and combined data 31 (d) of each image in FIG.
[0050]
In the flowchart of FIG. 7, first, as preparation for photographing the measurement object 61, the operator performs installation of the measurement object 61, adjustment of illumination, and the like. In addition, the control unit 15 sets the input imaging parameters (distance to the measurement target 61, laser intensity, luminance at the time of imaging, etc.) in the three-dimensional shape input device 5 (step 101).
[0051]
Next, the three-dimensional shape input device 5 changes the distance to the measurement object 61, that is, the focal length (the range of the depth of field) according to the imaging parameters set by the control unit 15, and the depth of field. The measurement object 61 is imaged a plurality of times from the same viewpoint so that there is an overlapping portion of the image data 29 to obtain image data 29 (depth information of the measurement object 61) (step 102).
[0052]
For example, as shown in FIG. 10, since the measurement object 61 has a distance in the front-rear direction, the focal length (the range of the depth of field) of the three-dimensional shape input device 5 is set to 3 of the depth of field 63, 65, 67. Shoot in stages. The captured images 28 at respective depths of field 63, 65, and 67 are shown in FIGS. 11 (a), 11 (b), and 11 (c).
[0053]
Areas of the measurement object 61 in the range of the depth of field (that is, the in-focus range) in FIG. 11 are shown as areas 69, 75, and 81, respectively. The hatched areas 71, 73, 77, and 79 indicate areas outside the depth of field, that is, out of focus.
[0054]
Further, the three-dimensional shape input device 5 collects the color information 39 of the measurement object 61 without irradiating the laser beam according to an instruction from the control unit 15, and sends it to the shape combination processing device 3 (control unit 15) together with the photographing data 29. .
[0055]
The three-dimensional shape input device management unit 23 of the shape combination processing device 3 sends the shooting data 29 and the color information 39 to the shooting data processing unit 25. The shooting data processing unit 25 converts the shooting data 29 into a grid (640 × 480) data array. That is, the captured image 28 (a) in FIG. 11 is captured in the captured data 29 (a) in FIG. 12, the captured image 28 (b) in FIG. 11 is captured in the captured data 29 (b) in FIG. c) is converted into the photographing data 29 (c) of FIG. In addition, * mark of FIG. 12 shows that there exists depth information in the arrangement | sequence.
[0056]
An area 69 of the photographed image 28 (a) in FIG. 11 is indicated by an area 83 and an area 85 of the photographed data 29 (a) in FIG. A hatched area 71 in the photographed image 28 (a) in FIG. 11 corresponds to the area 87 in the photographed data 29 (a) in FIG. 12, and is an area outside the depth of field (not in focus). No information is obtained, indicating that the initial value NOVALUE is entered. Similarly, the data of FIG. 12 photographic data 29 (b) and FIG. 12 photographic data 29 (c) are obtained for the photographic image 28 (b) and FIG. 11 photographic image 28 (c).
[0057]
Note that, as shown in FIG. 10, when the measurement object 61 is photographed while shifting the range of the depth of field, there are areas to be photographed in duplicate. In other words, the areas in which the shooting data are obtained in duplicate are the area 85 of the shooting data 29 (a) in FIG. 12, the area 91 of the shooting data 29 (b) in FIG. 12, the area 95 of the shooting data 29 (b) in FIG. This is the area 101 of the shooting data 29 (c).
[0058]
The photographing data processing unit 25 sends the photographing data 29 converted as described above to the photographing processing management unit 21. The imaging processing management unit 21 sends the imaging data 29 to the combination processing unit 27, and the combination processing unit 27 performs a combination process on the imaging data 29 and creates combined data 31 (step 103). Further, the combined data 31 and the color information 39 are converted into 3DCG data 41. The combination processing method will be described later.
[0059]
The imaging processing management unit 21 reads the created 3DCG data 41 from the combination processing unit 27 and registers it in the storage unit 13 (step 104). In the storage unit 13, shooting data 29, combined data 31, and color information 39 may be registered.
[0060]
(3. Data combination method of shooting data 29)
A data combination process of the shooting data 29 in the combination processing unit 27 will be described. Several means are conceivable as a combining method, and here, flowcharts of two types of data combining processes are shown in FIGS. However, the combination method used in the flowchart is not limited to the described method.
[0061]
The shooting data 29 is stored as a grid-like depth information group in a shooting data 29 array F i (x, y), 1 ≦ i ≦ n (n: number of times of shooting). For example, assuming that the grid is a two-dimensional array with x = 640 and y = 480, depth information is stored for each coordinate of the array (640, 480).
[0062]
Note that a NOVALUE value is stored at coordinates without depth information. For example, in the shooting data 29F 1 (x, y) of FIG. 12, depth information is stored in the areas 83 and 85 with depth information of the measurement object 11 (marked with * in the figure is depth information). However, there is no depth information in other areas, and NOVALUE values are stored. For example, since the area 87 is a portion where the measurement target 61 is not in focus, depth information is not obtained and a NOVALUE value is stored.
[0063]
Further, the combined result of all the photographing data 29 is stored in the combined data 31 array S (x, y). The NOVALUE value is stored in all coordinates of the combined data 31 array S (x, y) as an initial value.
[0064]
(3-1. First Data Combining Method of Shooting Data 29)
FIG. 8 shows a flowchart of the first data combination method for the shooting data 29. The first data combination method will be described with reference to FIG. First, as an initial setting, NOVALUE values are stored in all coordinates of the combined data 31 array S (x, y) in FIG.
[0065]
The combination processing unit 27 obtains n pieces of depth information of the same coordinates (x, y) from the arrays F 1 (x, y) to F n (x, y) of all the shooting data 29 acquired from the shooting processing management unit 21. Extract (step 201).
[0066]
From the extracted n pieces of data, coordinates where depth information is stored (that is, not NOVALUE values) are extracted. Here, m (0 ≦ m ≦ n) are extracted (step 202). For example, in FIGS. 12A, 12 </ b> B, and 12 </ b> C, depth information is stored in the area 85 of the same coordinate (a) and the area 91 of (b), but in FIG. , NOVALUE values are stored. That is, in the example of FIG. 12, the data in which the depth information is stored is n = 2 (pieces) in the coordinates corresponding to the area 85 of (a) among n = 3 pieces (pieces) of the shooting data 29.
[0067]
Next, the combination processing unit 27 combines the extracted m pieces of depth information. Join method includes
(A) Weighting (b) Least square method (c) Robust estimation method or the like is performed (step 203), and the combined value is substituted into the coordinates (x, y) of the combined data 31 array S (x, y). (Step 204).
[0068]
(A) Weighting is calculated using Formula (1) by assigning appropriate weights to the depth information F 1 (x, y) to F n (x, y), respectively.
[0069]
[Expression 1]
Figure 2005043084
[0070]
However, the weight α is as shown in Equation (2).
[0071]
[Expression 2]
Figure 2005043084
[0072]
(B) The least square method is a method for determining a parameter of a model function that minimizes the sum of squares of a difference between a measured value (imaging data 29) and a theoretical value (coupled data 31) obtained from the model function. Thus, the value of S (x, y) that minimizes the expression (3) is obtained.
[0073]
[Equation 3]
Figure 2005043084
[0074]
The least square method can be said to be a maximum likelihood estimation method when the error of the photographic data 29 shows a normal distribution.
[0075]
(C) The robust estimation method is a method in which a representative value can be estimated relatively stably even for a data group including an exceptional value to some extent. Equation (4) is an evaluation function of M-estimator, which is one of robust estimation methods. The value of S (x, y) is obtained so that Equation (4) takes the minimum value.
[0076]
[Expression 4]
Figure 2005043084
[0077]
The ρ function in equation (4) is
ρ (t) = t 2 / (σ + t 2 ) (5)
It is expressed. t is an error from the representative value, and ρ (t) is a normal function having a minimum value only at t = 0. That is, a value far from the representative value has little influence on the calculation of the representative value.
[0078]
As described above, the combined data 31 is combined for each coordinate, the combined data 31 is calculated, and substituted into the corresponding coordinates of the array S (x, y). For example, if x = 640 and y = 480, a similar joining process is performed on 640 × 480 coordinates (NO in step 205, step 206), and the joining process is terminated.
[0079]
Referring to FIG. 12, the respective shooting data 29 arrays F 1 (x, y), F 2 (x, y), and F 3 (F 3 (x, y), F 3 (x, y) and F 3 (x, y) having different focal lengths (ie, depth of field ranges)) are used. x, y) is combined, and the data having the depth information, that is, the data of region 85 and region 91 and region 95 and region 101, is combined at the same coordinates (x, y).
[0080]
For example, in FIG. 12, the coordinates of x = 500 and y = 300 corresponding to the area 85 in FIG. 12A are F 1 (500, 300) = 320, F 2 (500, 300) = 314, F 3 (500, 300) = Assuming NOVALUE, only the imaging data 29 with depth information is extracted, that is, F 3 (500, 300) = NOVALUE is excluded, and the combined data 31 array S (500, 300) is calculated using any of the above-described combining methods. To do. A combination process is performed for all coordinates to generate combined data 31. A plurality of pieces of photographing data 29 having different depths of field of the measurement object 61 are combined to obtain a combined data 31 array S (x, y) as highly accurate 3DCG data.
[0081]
(3-2. Second Data Combining Method of Shooting Data 29)
FIG. 9 shows a flowchart of the second data combination method for the shooting data 29. The second data combination method will be described with reference to FIG.
[0082]
In the second data combination method, first, the imaging data 29 array F 1 (x, y) to F n (x, y) is rearranged in order of increasing focal length. That is, the data of the shooting data 29 array F 1 (x, y) is the shooting data with the shortest focal length and the shooting data with the highest shooting accuracy. In the second combining method, the array F 1 (x, y) is set with the highest priority, and F 2 (x, y), F 3 (x, y),... The combined data 31 is created by combining the ranks.
[0083]
First, the combined data 31 array S (x, y) is initialized. That is, the NOVALUE value is stored in all coordinates of the combined data 31 array S (x, y) (step 301). The total number of shootings is n, and i = 1 is set.
[0084]
Next, the combination processing unit 27 acquires the i-th imaging data 29 array F i (x, y) (step 302). When i = 1, the imaging data 29 array F 1 (x, y) is acquired.
[0085]
Next, the value of the coordinate (x, y) of the combined data 31 array S is read into DataS (step 303), and if the depth information is not stored in DataS (NO at step 304), the captured data 29 array F i. The value of the coordinate (x, y) is read into DataF (step 305). If depth information is stored in DataS, that is, if data is stored in the combined data 31 array S (x, y) (YES in step 304), the process proceeds to step 308.
[0086]
If there is depth information in DataF (YES in step 306), DataF is substituted into the combined data 31 array S (x, y) (step 307), and the process proceeds to step 308. When there is no depth information in DataF, that is, when the imaging data 29 array F i (x, y) is a NOVALUE value (NO in step 306), the process proceeds to step 308.
[0087]
In step 308, when the stored value search of the combined data 31 array S (x, y) for all coordinates (x, y) has not ended (NO in step 308), the combined data 31 array S (x, y) (Step 309), the process returns to step 303. For example, the process proceeds to the examination of the stored value of the next coordinate S (100, 101) of the combined data 31 array S (100, 100).
[0088]
In step 308, when the stored value search of the combined data 31 array S (x, y) for all coordinates (x, y) is completed (YES in step 308), and the last captured data 29 array F n (x , Y) (YES in step 310), the combining process ends. If there is unprocessed shooting data 29 (NO in step 310), the process moves to the next shooting data 29 array F i + 1 (x, y) (step 311) and returns to step 302.
[0089]
FIG. 12 is a view for obtaining a combined data 31 array S (x, y) by combining the arrays F 1 (x, y) to F 3 (x, y) of all the imaged data 29 according to the flowchart of FIG. It is. The shooting data 29 array F 1 (x, y) is the shooting data with the shortest focal length.
[0090]
The region 83 and the region 85 having depth information of the shooting data 29 array F 1 (x, y) are first stored with priority in the combined data 31 array S (x, y).
[0091]
Next, out of the area 91, area 93, and area 95 with depth information of the shooting data 29 array F 2 (x, y), the area without depth information at the coordinates of the corresponding combined data 31 array S (x, y) That is, the depth information of the region 93 and the region 95 is combined with the combined data 31 array S (x, y).
[0092]
Next, of the areas 101 and 103 having the depth information of the captured data 29 array F 3 (x, y), the areas having no depth information at the coordinates of the corresponding combined data 31 array S (x, y), that is, areas The depth information 103 is combined with the combined data 31 array S (x, y).
[0093]
In this way, according to the flowchart of FIG. 9, the combined data 31 array S (x, y) is created with priority given in order from the photographing data 29 having a shorter focal length. Therefore, the combined data 31 array S (x, y) in FIG. 12D has depth information at the same coordinates of the captured data 29 array in FIGS. 12A, 12B, and 12C. The photographing data 29 having a shorter focal length is selected and stored as the depth information of the combined data 31 array S (x, y).
[0094]
Accordingly, since the shooting data 29 with a shorter focal length has higher shooting accuracy, a plurality of shooting data 29 can be combined into one highly accurate combined data 31 while suppressing the influence of errors.
[0095]
(4. Effects, etc.)
As the method for combining the photographing data 29, an optimum method can be selected from the methods described above. For example, when the number of photographed data 29 is small, (a) a weighting method or the like is selected in the first combination method. Conversely, when the photographed data 29 is large, statistical processing is performed (b) minimum. A square method or (c) robust estimation method may be selected. Note that the method of combining the shooting data 29 is not limited to the method described above.
[0096]
Further, the combination data 31 is created by a plurality of joining methods, the 3DCG image of the measurement object 11 is displayed on the display device 7 as a result of each joining method, the created three-dimensional shapes are compared, and the joining method is determined. You may consider it.
[0097]
In addition, by combining the method of shifting the focal length of the laser light and the method of changing the depth of field to be wider or shallower, the measurement object 11 is photographed a plurality of times to create combined data to obtain a three-dimensional image. Also good.
[0098]
According to the present embodiment, the measurement object 11 having a depth is photographed a plurality of times while changing the focal length (the range of the depth of field) of the laser beam, and the in-focus areas of the photographing data are combined. Thus, one combined data is created, so that a highly accurate three-dimensional image can be produced efficiently.
[0099]
In addition, according to the present embodiment, it is possible to delete the step of manually performing the combined data creation processing of the measurement object having a depth, so that it is possible to increase the production efficiency of a highly accurate three-dimensional image and to reduce the production cost. is there.
[0100]
The technical scope of the present invention is not limited to the embodiment described above. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these are naturally within the technical scope of the present invention. Understood.
[0101]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide a photographed image composition system that can efficiently produce the three-dimensional shape CG data of a deep object.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a captured image composition system 1 according to an embodiment of the present invention. FIG. 2 is a diagram showing a configuration of a control unit 15. FIG. 3 is a diagram showing a storage unit 13. FIG. FIG. 5 is a diagram illustrating a configuration of the shape input device 5. FIG. 5 is a diagram illustrating a depth of field 57. FIG. 6 is a diagram illustrating a captured image 59 depending on the inside and outside of the depth of field 57. Flowchart [FIG. 8] Flowchart showing first data combination processing [FIG. 9] Flowchart showing second data combination processing [FIG. 10] Diagram showing measurement by 3D shape input device 5 [FIG. 11] Depth of field Fig. 12 shows images taken with different depths. Fig. 12 shows shot data taken with different depths of field and combined data.
DESCRIPTION OF SYMBOLS 1 ... Shooting error reduction system 3 ... Shape combination processing apparatus 5 ... Three-dimensional shape input device 7 ... Display device 9 ... Input device 11, 51, 53, 55, 61 ... Measurement Object 13 ... Storage unit 15 ... Control unit 17 ... Laser irradiation device 19 ... Imaging device 21 ... Imaging processing management unit 23 ... 3D shape input device management unit 25 ...・ Shooting data processing unit 27... Combined processing unit 28, 59 .. Shooting image 29 .. Shooting data 31... Bonding data 33. Galvano mirror 39 ... Color information 41 ... 3DCG data 57, 63, 65, 67 ... Depth of field 69, 75, 81 ... Areas 71, 73, 77 with matching depth of field 79 ... Outside depth of field (out of focus) Area 83, 85, 91, 93, 95, 101, 103, 105, 107 ... depth data 87, 89, 97, 99 ... NOVALUE data

Claims (8)

対象物の3次元形状を撮影する形状入力装置と、
前記形状入力装置が撮影する複数の撮影データを読み取る読取手段と、
前記複数の撮影データを結合し、結合データを作成する結合データ作成手段と、
前記結合データを記憶する記憶手段と、
を、具備し、
前記形状入力装置は、焦点距離をずらして前記対象物を複数回撮影し、前記対象物の撮影データを得ることを特徴とする撮影画像合成システム。
A shape input device for photographing a three-dimensional shape of an object;
Reading means for reading a plurality of photographing data photographed by the shape input device;
Combined data creating means for combining the plurality of shooting data and creating combined data;
Storage means for storing the combined data;
Comprising
The shape input device captures the object a plurality of times by shifting a focal length, and obtains image data of the object.
前記結合データ作成手段は、
前記複数の撮影データを、重み付け法、最小二乗法、ロバスト推定法等を用いて結合し、結合データを作成することを特徴とする請求項1記載の撮影画像合成システム。
The combined data creation means includes:
The photographed image composition system according to claim 1, wherein the plurality of photographed data are combined using a weighting method, a least square method, a robust estimation method, or the like to generate combined data.
前記結合データ作成手段は、
前記複数の撮影データを、焦点距離が近い撮影データほど優先して結合することを特徴とする請求項1記載の撮影画像合成システム。
The combined data creation means includes:
The photographed image composition system according to claim 1, wherein the plurality of photographed data is preferentially combined as the photographed data having a shorter focal distance.
形状入力装置が対象物の3次元形状を撮影して得る、複数の撮影データを読み取る読取工程と、
前記複数の撮影データを結合し、結合データを作成する結合データ作成工程と、
前記結合データを記憶する記憶工程と、
を、具備し、
前記形状入力装置は、焦点距離をずらして前記対象物を複数回撮影し、前記対象物の撮影データを得ることを特徴とする撮影画像合成方法。
A reading step of reading a plurality of shooting data obtained by a shape input device shooting a three-dimensional shape of an object;
A combined data creation step of combining the plurality of shooting data and creating combined data;
A storage step of storing the combined data;
Comprising
The shape input device captures the target object a plurality of times by shifting a focal length, and obtains captured data of the target object.
前記結合データ作成工程は、
前記複数の撮影データを、重み付け法、最小二乗法、ロバスト推定法等を用いて結合し、結合データを作成することを特徴とする請求項4記載の撮影画像合成方法。
The combined data creation step includes:
5. The photographed image composition method according to claim 4, wherein the plurality of photographed data are combined by using a weighting method, a least square method, a robust estimation method, or the like to generate combined data.
前記結合データ作成工程は、
前記複数の撮影データを、焦点距離が近い撮影データほど優先して結合することを特徴とする請求項4記載の撮影画像合成方法。
The combined data creation step includes:
5. The photographed image composition method according to claim 4, wherein the plurality of photographed data is preferentially combined as the photographed data having a shorter focal distance.
コンピュータを、請求項1から請求項3記載のいずれかの撮影画像合成システムとして機能させるためのプログラム。The program for functioning a computer as a picked-up image composition system in any one of Claims 1-3. コンピュータを、請求項1から請求項3記載のいずれかの撮影画像合成システムとして機能させるためのプログラムを記録した記録媒体。A recording medium storing a program for causing a computer to function as the photographed image composition system according to any one of claims 1 to 3.
JP2003200283A 2003-07-23 2003-07-23 System and method for compositing photographed image, program, and recording medium Pending JP2005043084A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003200283A JP2005043084A (en) 2003-07-23 2003-07-23 System and method for compositing photographed image, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003200283A JP2005043084A (en) 2003-07-23 2003-07-23 System and method for compositing photographed image, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2005043084A true JP2005043084A (en) 2005-02-17

Family

ID=34260742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003200283A Pending JP2005043084A (en) 2003-07-23 2003-07-23 System and method for compositing photographed image, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2005043084A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7812969B2 (en) 2006-06-23 2010-10-12 Konica Minolta Sensing, Inc. Three-dimensional shape measuring apparatus
CN113660407A (en) * 2020-04-28 2021-11-16 合肥美亚光电技术股份有限公司 Image forming apparatus, control method of image forming apparatus, and storage medium
JP7549025B2 (en) 2020-09-07 2024-09-10 ファナック株式会社 3D measuring device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7812969B2 (en) 2006-06-23 2010-10-12 Konica Minolta Sensing, Inc. Three-dimensional shape measuring apparatus
CN113660407A (en) * 2020-04-28 2021-11-16 合肥美亚光电技术股份有限公司 Image forming apparatus, control method of image forming apparatus, and storage medium
CN113660407B (en) * 2020-04-28 2023-11-17 合肥美亚光电技术股份有限公司 Imaging apparatus, control method of imaging apparatus, and storage medium
JP7549025B2 (en) 2020-09-07 2024-09-10 ファナック株式会社 3D measuring device

Similar Documents

Publication Publication Date Title
EP3392831B1 (en) Three-dimensional sensor system and three-dimensional data acquisition method
JP4290733B2 (en) Three-dimensional shape measuring method and apparatus
EP2568253B1 (en) Structured-light measuring method and system
JP5620200B2 (en) Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
JP2008241355A (en) Device for deriving distance of object
JP5955028B2 (en) Image processing apparatus, image processing method, and image processing program
JP2008242658A (en) Three-dimensional object imaging apparatus
JP2011069965A (en) Image capturing apparatus, image display method, and recording medium with image display program recorded thereon
KR102479827B1 (en) Image processing device and image processing method
US20180322329A1 (en) Image processing device, imaging device, microscope device, image processing method, and image processing program
JP2022033344A (en) Oct retina image data rendering method and oct retina image data rendering device
WO2020075252A1 (en) Information processing device, program, and information processing method
JP7409443B2 (en) Imaging device
US11060853B2 (en) Three-dimensional sensor system and three-dimensional data acquisition method
CN105306922A (en) Method and device for obtaining depth camera reference diagram
WO2019076192A1 (en) Image reconstruction method and device, and microscope imaging device
JP2019016230A (en) Learning device, image combining device, learning method, image combining method, and program
JP2005043083A (en) System and method for reducing photographing error, program, and recording medium
US8818124B1 (en) Methods, apparatus, and systems for super resolution of LIDAR data sets
CN107534730B (en) Image processing apparatus and image processing method
JP2005043084A (en) System and method for compositing photographed image, program, and recording medium
JP2019120590A (en) Parallax value calculation device, parallax value calculation method and program
JP6456084B2 (en) Image processing apparatus, image processing method, and program
JP2011133360A (en) Distance measuring device, distance measurement method, and program
JP3637416B2 (en) Three-dimensional measurement method, three-dimensional measurement system, image processing apparatus, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090609