JPWO2016035181A1 - 撮像装置、情報処理装置、及び撮像システム - Google Patents

撮像装置、情報処理装置、及び撮像システム Download PDF

Info

Publication number
JPWO2016035181A1
JPWO2016035181A1 JP2016546255A JP2016546255A JPWO2016035181A1 JP WO2016035181 A1 JPWO2016035181 A1 JP WO2016035181A1 JP 2016546255 A JP2016546255 A JP 2016546255A JP 2016546255 A JP2016546255 A JP 2016546255A JP WO2016035181 A1 JPWO2016035181 A1 JP WO2016035181A1
Authority
JP
Japan
Prior art keywords
information
unit
imaging
imaging device
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016546255A
Other languages
English (en)
Inventor
武昭 杉村
武昭 杉村
源洋 中川
源洋 中川
風見 一之
一之 風見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JPWO2016035181A1 publication Critical patent/JPWO2016035181A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

【課題】処理の負荷を低減できる撮像装置を提供する。【解決手段】撮像装置は、本体部と、対象物を撮像する撮像部、及び対象物の表面上の各点からの距離を検出する測距部を含む検出部と、本体部に設けられ、検出部の検出結果を使って、対象物の形状情報およびテクスチャ情報の少なくとも一方を算出する情報算出部と、情報算出部の算出結果を送信する通信部と、を備える。

Description

本発明は、撮像装置、情報処理装置、及び撮像システムに関する。
物体を複数の撮像装置により撮像し、得られた複数の画像をコンピュータに入力し、物体の三次元形状を取得する技術が提案されている(例えば、特許文献1参照)。
特開2010−134546号公報
例えば、撮像装置を用いて物体を撮像した複数の画像から該物体の三次元形状を生成する場合、撮像装置から全ての画像をコンピュータに転送して、それらの画像をコンピュータで処理する必要がある。この場合、撮像した全ての画像を撮像装置からコンピュータへ転送するため、撮像装置とコンピュータとの間の通信(例、通信処理や通信データ量など)が増大することがある。本発明は、上記の事情に鑑みなされたものであり、通信の負荷を低減できる撮像装置、情報処理装置、及び撮像システムを提供することを目的とする。
本発明の第1の態様に従えば、本体部と、対象物を撮像する撮像部、及び対象物の表面上の各点からの距離を検出する測距部を含む検出部と、本体部に設けられ、検出部の検出結果を使って、対象物の形状情報およびテクスチャ情報の少なくとも一方を算出する情報算出部と、情報算出部の算出結果を送信する通信部と、を備える撮像装置が提供される。
本発明の第2の態様に従えば、第1の態様の少なくとも1つの撮像装置の通信部から送信される算出結果を用いて、レンダリング処理を実行する、情報処理装置が提供される。
本発明の第3の態様に従えば、第1の態様の少なくとも1つの撮像装置と、通信部から送信される算出結果を使って、レンダリング処理を実行する情報処理装置と、を備える撮像システムが提供される。
本発明の第4の態様に従えば、第1の態様の複数の撮像装置と、複数の撮像装置のそれぞれの通信部から送信される算出結果を使って、レンダリング処理を実行する撮像処理装置と、を備える撮像システムが提供される。
本発明の第5の態様に従えば、第1の態様の少なくとも1つの撮像装置と、通信部から送信される算出結果を用いて、対象物の統合モデル情報を生成するモデル統合部と、を備える撮像システムが提供される。
本発明の第6の態様に従えば、対象物を撮像する第1撮像部及び対象物の表面上の各点からの距離を検出する第1測距部を含む第1検出部と、第1検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第1モデル情報を算出する第1情報算出部と、を備える第1撮像装置と、対象物を撮像する第2撮像部及び対象物の表面上の各点からの距離を検出する第2測距部を含む第2検出部と、第2検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第2モデル情報を算出する第2情報算出部と、を備える第2撮像装置と、第1モデル情報と第2モデル情報とを統合して対象物の統合モデル情報を生成するモデル統合部を有する情報処理装置と、を備える撮像システムが提供される。
本発明の第7の態様に従えば、対象物を撮像する第1撮像部及び対象物の表面上の各点からの距離を検出する第1測距部を含む第1検出部と、第1検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第1モデル情報を算出して、第1モデル情報を用いて第1特徴点データを生成する第1情報算出部と、を備える第1撮像装置と、対象物を撮像する第2撮像部及び対象物の表面上の各点からの距離を検出する第2測距部を含む第2検出部と、第2検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第2モデル情報を算出して、第2モデル情報を用いて第2特徴点データを生成する第2情報算出部と、を備える第2撮像装置と、第1撮像装置と第2撮像装置との間におけるデータ通信によって得られる第1特徴点データおよび第2特徴点データを用いて第1モデル情報と第2モデル情報とを統合して対象物の統合モデル情報を生成するモデル統合部と、を備える撮像システムが提供される。
本発明によれば、通信の負荷を低減できる撮像装置、情報処理装置、及び撮像システムを提供することができる。
第1実施形態に係る撮像システムを示す図である。 第1実施形態に係る撮像システムを示すブロック図である。 第1実施形態に係る検出部を示す図である。 第1実施形態に係る撮像システムの動作を示す図である。 第2実施形態に係る撮像システムを示すブロック図である。 第2実施形態に係る撮像システムの動作を示す図である。 第3実施形態に係る撮像システムを示す図である。 第3実施形態に係る撮像システムを示すブロック図である。 第3実施形態に係る撮像装置の動作を示す図である。 第4実施形態に係る撮像システムの動作を示す図である。 第5実施形態に係る撮像システムを示すブロック図である。 第5実施形態に係る撮像システムの動作を示す図である。 第6実施形態に係る撮像システムを示すブロック図である。 第7実施形態に係る撮像システムを示すブロック図である。 第7実施形態に係る撮像システムの動作を示す図である。 第8実施形態に係る撮像システムの動作を示す図である。 第9実施形態に係る撮像システムの動作を示す図である。
[第1実施形態]
第1実施形態について説明する。図1は、本実施形態に係る撮像システム1を示す図である。例えば、撮像システム1は、撮像装置2、情報処理装置3、入力装置4、及び表示装置5を備える。
撮像装置2は、例えば、照明装置からの光や室内灯からの光、あるいは自然光などで照らされている対象物OBを撮像し、対象物OBの撮像画像(例、可視光画像、赤外光画像)のデータを取得する。また、撮像装置2は、撮像装置2から対象物OBの表面上の各点までの距離を検出し、対象物OBのデプス情報を取得する。デプス情報は、例えば、対象物OBの表面上の点の位置と、この点から撮像装置2までの距離(デプス、深度)とを関連付けた情報を含む。デプス情報は、例えば、対象物OBにおけるデプスの分布(例、デプスマップ)を示す情報である。
撮像装置2は、撮像部15が撮像した撮像画像のデータおよび測距部(距離検出部)16が検出したデプス情報を使って、対象物OBに関する情報の演算処理を行う。撮像装置2は、演算処理によって、対象物OBの少なくとも一部をモデル化し、モデル情報(モデルデータ)を算出する。例えば、撮像装置2は、演算処理によって、対象物OBの少なくとも一部をコンピュータグラフィック処理(CG処理)し、モデル情報(例、CGモデルデータ)を算出する。モデル情報は、例えば、対象物OBの三次元形状を示す形状情報と、対象物OBの表面の模様を示すテクスチャ情報の少なくとも一方を含む。また、例えば、モデル情報は、3次元の点座標、その点座標の関連情報、該点座標及びその関連情報で規定された面のテクスチャ情報、画像全体の照明条件や光源情報などの画像の空間情報、及び形状情報としてのポリゴンデータの少なくとも一つを含む。
例えば、図1の対象物OBは角柱状の部材とサッカーボールを含み、形状情報は、角柱状の部材の表面(例、平面)の情報、及びサッカーボールの表面(例、球面)の情報を含む。テクスチャ情報は、例えば、サッカーボールの表面の文字や図形(例、黒の5角形、白の6角形)、パターン、凹凸を規定する情報、特定の画像、及び色彩(例、有彩色、無彩色)の少なくとも1つの情報を含む。
撮像装置2は、例えば、対象物OBのうち撮像装置2の視野に入る部分(視野領域)のモデル情報を算出する。このモデル情報は、例えば、対象物OBの全周を表すモデル(以下、全周モデルという)の一部を表すモデル(以下、部分モデルという)の情報である。撮像装置2は、演算処理により算出された情報(例、モデル情報)の少なくとも一部を、外部装置に供給可能である。例えば、撮像装置2は、モデル情報の少なくとも一部を情報処理装置3に供給する。
また、例えば、撮像装置2は、モデル情報の少なくとも一部を、バーコードや2次元コードのようなデジタル情報を入出力できるデジタル装置に出力可能である。このようなデジタル装置は、モデル情報の少なくとも一部を含むデジタル情報をディスプレイや紙などに表示する又は印字することができる。表示された又は印字されたデジタル情報を読み取れるリーダー部(例、光学式リーダー)を備えるリーダー装置は、該リーダー部を介して該デジタル情報を自装置の記憶領域などに入力することができる。また、リーダー装置は、後述のレンダリング処理部を更に備えていてもよい。なお、上記の撮像システム1は、上記のデジタル装置やリーダー部を備えるリーダー装置を備える構成であってもよい。また、撮像装置2は、上記のデジタル装置やリーダー装置を備える構成であってもよい。
情報処理装置3は、例えば、コンピュータシステムを含む。入力装置4は、例えば、キーボード、マウス、タッチパネル、加速度センサなどのセンサ、音声入力機、タッチ型ペンなどの少なくとも一つを含み、情報処理装置3と接続されている。入力装置4は、例えばユーザから情報の入力を受け付け、入力された情報を情報処理装置3に供給する。表示装置5は、例えば、液晶ディスプレイ又はタッチパネル型ディスプレイを含み、情報処理装置3と接続されている。表示装置5は、例えば、情報処理装置3から供給される画像データにより、画像を表示する。
情報処理装置3は、有線または無線によって、撮像装置2と通信可能に接続される。例えば、情報処理装置3は、通信ケーブルを介して撮像装置2と接続されていてもよいし、インターネット回線を介して撮像装置2と接続されていてもよい。また、情報処理装置3は、電波または赤外線により撮像装置2と通信可能であってもよい。
情報処理装置3は、撮像装置2との間の通信により、撮像装置2から情報を取得する。情報処理装置3は、撮像装置2から取得した情報(例、モデル情報)を使って、レンダリング処理を実行する。例えば、情報処理装置3は、ユーザにより入力装置4に入力された視点(撮像方向)の設定情報を元に、この視点から対象物OBを見た推定画像のデータを算出する。情報処理装置3は、例えば、推定画像のデータを表示装置5に供給し、表示装置5に推定画像を表示させる。
撮像装置2は、例えば、撮像画像のデータおよびデプス情報から、情報処理装置3のレンダリング処理に使われる情報を抽出する。撮像装置2が抽出する情報は、例えば、モデル情報の少なくとも一部である。撮像装置2は、抽出した情報を情報処理装置3に供給するので、例えば、撮像画像のデータおよびデプス情報を情報処理装置3に供給する場合と比較して、撮像装置2と情報処理装置3との間の通信の負荷、情報処理装置3の処理の負荷を減らすことができる。
なお、撮像装置2は、例えば、携帯可能な情報端末であってもよいし、定点カメラであってもよく、手動または自動で視野を変更可能なカメラであってもよい。撮像システム1は、例えば、撮像装置2を移動させる移動装置を備えていてもよい。この移動装置は、撮像装置2を移動させることにより、撮像装置2の視野を変更してもよい。この移動装置を制御する制御部は、撮像システム1に設けられていてもよく、例えば、撮像装置2に設けられていてもよいし、情報処理装置3に設けられていてもよい。また、この移動装置を制御する制御部は、撮像システム1の外部の装置に設けられていてもよい。
次に、撮像システム1の各部について説明する。図2は、本実施形態に係る撮像システム1を示すブロック図である。撮像装置2は、検出部11、情報算出部12、通信部13、及び本体部14を備える。本体部14は、例えば、カメラボディ、ケース、筐体などである。検出部11、情報算出部12、及び通信部13は、本体部14に設けられている。
検出部11は、撮像部15および測距部16を備える。図3(A)は、検出部11の一例を示す図である。撮像部15は、結像光学系17およびイメージセンサ18を備える。イメージセンサ18は、例えば、複数の画素が二次元的に配列されたCMOSイメージセンサ、あるいはCCDイメージセンサである。イメージセンサ18は、本体部14に収容されている。イメージセンサ18は、例えば、可視光の波長帯域(例、380nm以上750nm以下)、又は赤外光の波長帯域に感度を有する。イメージセンサ18の撮像結果は、例えば、各画素の色ごとの階調値の情報(例、RGBデータ)を含む。イメージセンサ18は、例えば、撮像結果(検出結果)をフルカラー画像のデータ形式で出力する。フルカラー画像は、例えば、各画素の赤(R)、緑(G)、青(B)のそれぞれが階調値(例、256階調)で表される画像である。
結像光学系17は、例えば、複数のレンズを含み、物体面(例、対象物OB)の像をイメージセンサ18に形成する。結像光学系17は、例えば鏡筒内に保持され、鏡筒とともに本体部14に取り付けられる。結像光学系17および鏡筒は、例えば交換レンズであり、本体部14から取り外し可能である。鏡筒は、本体部14の一部であってもよく、本体部14から取り外し不能であってもよい。
測距部16は、対象物OBの表面上の各点からの距離を検出する。測距部16は、例えば、ToF(Time of Flight)センサを含み、ToF法により距離を検出する。また、例えば、測距部16は、位相差センサを含み、位相差法により距離を検出する。測距部16は、照射部19、結像光学系20、イメージセンサ21、及びコントローラ22を備える。
照射部19は、対象物OBに赤外光を照射可能である。照射部19は、コントローラ22に制御される。コントローラ22は、照射部19から照射される赤外光の強度を時間変化させる(例、振幅変調する)。
イメージセンサ21は、例えば、複数の画素が二次元的に配列されたCMOSイメージセンサ、あるいはCCDイメージセンサである。イメージセンサ21は、本体部14に収容されている。結像光学系20は、例えば、複数のレンズを含み、物体面(例、対象物OB)の像をイメージセンサ21に形成する。結像光学系20は、交換レンズであってもよいし、本体部14に内蔵されたものでもよい。イメージセンサ21は、少なくとも照射部19が照射する光の波長帯に感度を有する。例えば、イメージセンサ21は、コントローラ22に制御され、対象物OBで反射散乱した赤外光を検出する。
コントローラ22は、測距部16のイメージセンサ21が検出した検出結果を使って、対象物OBの表面からイメージセンサ21までの距離を検出する。例えば、対象物OBの表面上の第1位置と第2位置とでデプスが異なる場合、第1位置で反射散乱した光は、第2位置で反射散乱した光と比較して、対象物OBからイメージセンサ21までの飛行距離(光路)が異なる。そのため、対象物OBの第1位置で反射散乱した光は、イメージセンサ21に入射する位相が、第2位置で反射散乱した光の位相と異なる。コントローラ22は、照射部19から照射される光の強度を時間変調するので、イメージセンサ21に入射する光の強度は、位相によって変化する。コントローラ22は、例えば、イメージセンサ21の出力の時間変化を元に、デプスを算出する。コントローラ22は、例えば、イメージセンサ21が撮像した画像の部分領域(例、1画素、複数の画素)ごとに、イメージセンサ21と対象物OBの表面との間の距離からデプスを算出し、算出したデプス(又は距離)と部分領域の位置とを関連付ける。このように、コントローラ22は、例えば、複数の部分領域のそれぞれのデプスを含むデプス情報を算出する。
なお、照射部19は、可視光を含む光を照射し、イメージセンサ21は、対象物OBで反射散乱した光を検出してもよい。例えば、測距部16は、照射部19による光照射状態と光非照射状態とでしてイメージセンサ21により対象物OBを検出し、2状態での検出結果との差分を使って、デプス情報を算出してもよい。
なお、測距部16は、プロジェクタカメラを含んでいてもよい。この場合、測距部16は、例えば、所定の強度分布を有する光(例、パターン光、構造化光、テクスチャ)を、照射部19から対象物OBに照射しながら、イメージセンサ21によって対象物OBを撮像する。コントローラ22は、イメージセンサ21による撮像画像に写っている対象物OB上の光の強度分布を使って、対象物OBと測距部16との間の距離を検出する。また、測距部16は、レーザスキャナを含んでいてもよい。この場合、測距部16は、照射部19から対象物OBにレーザ光を照射し、対象物OBをレーザ光でスキャンしながら対象物OBで反射したレーザ光を検出することにより、対象物OBと測距部16との間の距離を検出する。
図3(B)は、検出部11の他の例を示す図である。この検出部11の測距部16は、対象物OBを複数の視野から検出した検出結果を使って、対象物OBと検出部11との間の距離を検出する。撮像部15は、結像光学系17aおよびイメージセンサ18a、並びに結像光学系17bおよびイメージセンサ18bを備える。結像光学系17aおよびイメージセンサ18aは、対象物OBを第1視野で撮像する。結像光学系17bおよびイメージセンサ18bは、対象物OBを第2視野で撮像する。第2視野は、視点の位置と視線の向きの少なくとも一方が第1視野と異なる。視点の位置は、例えば、イメージセンサ18aの位置およびイメージセンサ18bの位置のように、物体の像が形成される位置である。視線の向きは、例えば、視点に向かう光が通る光学部材のうち最も物体側に配置される光学部材の光軸の方向と平行である。例えば、第1視野の視線の向きは、結像光学系17aの射出側の光軸と同軸である。また、第2視野の視線の向きは、結像光学系17bの射出側の光軸と同軸である。測距部16は、イメージセンサ18aによる撮像画像とイメージセンサ18bによる撮像画像とを視差画像として、対象物OBと検出部11との間の距離を検出する。
なお、撮像部15は、1つのイメージセンサによって、第1視野からの画像および第2視野からの画像を異なる時刻に撮像し、測距部16は、これら画像を使って対象物OBと検出部11との間の距離を検出してもよい。
なお、測距部16は、メートルなどの有次元値で表される距離を検出してもよいし、基準値で規格化された無次元値で表される相対的な距離を検出してもよい。また、測距部16は、例えば、ユニット化された形態であってもよく、本体部14に外付け可能であってもよい。また、測距部16が備える光学系の少なくとも一部は、撮像部15が備える光学系の少なくとも一部と共通化されていてもよい。例えば、図3(A)において、測距部16は、結像光学系17を通った光のうち赤外光をダイクロイックミラーなどで分岐し、分岐した赤外光をイメージセンサ21で検出する態様でもよい。また、プロジェクタカメラにおいて、照射部19は、結像光学系17を介して対象物OBにパターンを投影する態様でもよい。
図2の説明に戻り、情報算出部12は、例えば、デジタルシグナルプロセッサ(digital signal processor; DSP)を含む。情報算出部12は、検出部11の検出結果を使って、対象物OBの形状情報およびテクスチャ情報の少なくとも一方を算出する。
情報算出部12は、形状情報として、対象物OBの表面上の複数の点の座標(以下、点群データという)と、複数の点間の連結情報を含むサーフェス情報とを算出する。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。連結情報は、例えば、対象物OBの稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報、及び対象物OBの面の輪郭に相当する複数の線を互いに関連付ける情報を含む。
まず、情報算出部12は、測距部16の検出結果(例、デプス情報)を使って、点群データを算出する(点群データ処理)。例えば、情報算出部12は、デプス情報が示す距離画像から平面画像への透視変換などにより、点群データを算出する。なお、情報算出部12は、撮像部15と測距部16とで視野が異なる場合、例えば、測距部16の検出結果を透視変換(射影変換)などによって、撮像部15の視野から対象物OBを検出した結果に変換してもよい。情報算出部12は、例えば、撮像部15の視野と測距部16の視野との位置関係(例、視点の位置、視線の向き)に依存するパラメータを使って、透視変換を実行してもよい。
そして、情報算出部12は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換する(サーフェス処理)。情報算出部12は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。
次に、情報算出部12は、例えばインバースレンダリングの手法により、テクスチャ情報を算出する。テクスチャ情報は、例えば、対象物OBの表面の模様を示すパターン情報、対象物OBを照らす光の光源情報、及び対象物OBの表面の光学特性(例、反射率、散乱率)を示す光学特性情報の少なくとも1項目の情報を含む。光源情報は、例えば、光源の位置、光源から対象物へ光が照射される方向、光源から照射される光の波長、光源の種類のうち少なくとも1項目の情報を含む。
情報算出部12は、例えば、ランバート反射を仮定したモデル、アルベド(Albedo)推定を含むモデルなどを利用して、光源情報を算出する。例えば、情報算出部12は、撮像部15が撮像した画像の各画素の画素値のうち、対象物OBで拡散した光に由来する成分と対象物OBで正反射した成分とを推定する。また、情報算出部12は、例えば、対象物OBで正反射した成分の推定結果、及び形状情報を使って、光源から対象物OBへ光が入射してくる方向を算出する。情報算出部12は、例えば、算出した光源情報および形状情報を使って対象物OBの反射特性を推定し、反射特性の推定結果を含む光学特性情報を算出する。また、情報算出部12は、例えば、算出した光源情報および光学特性情報を使って、可視光画像のデータから照明光の影響を除去して、パターン情報を算出する。
ここで、本実施形態に係る撮像装置2は、表示部25、入力部26、記憶部27、及び制御部28を更に備える。表示部25(図1参照)は、例えば、本体部14に設けられた液晶ディスプレイ又はタッチパネル型ディスプレイである。表示部25は、例えば、検出部11の検出結果(例、撮像部15による可視光画像)、情報算出部12の算出結果(例、デプスマップ)、及び各種設定情報の少なくとも一部を表示する。
入力部26は、例えば、本体部14に設けられた操作ボタン、表示部25に設けられたタッチパネル、ユーザなどの音声を認識する音声入力機などである。入力部26は、例えば、ユーザによる操作を検出し、ユーザからの情報の入力を受け付ける。入力部26は、入力された情報を制御部28に送信する。
記憶部27は、例えばUSBメモリ、メモリカードなどの不揮発性メモリであり、各種情報を記憶する。記憶部27は、撮像装置2に内蔵される記憶デバイスを含んでいてもよいし、撮像装置2からリリース可能な記憶デバイスを接続可能なポートを含んでいてもよい。また、本実施形態における撮像装置2の情報算出部12は、形状情報およびテクスチャ情報の少なくとも一方を含む情報にヘッダ情報(例、番号やコードなどの識別情報)を付けたモデル情報を生成する。そして、通信部13はそのモデル情報を送信する。なお、該ヘッダ情報は、識別情報、撮像装置2の位置(位置情報)、撮像部15による撮像タイミング、撮像部15による撮像時間、対象物OBの光学特性情報、および撮像環境情報(例、光源情報、対象物OBなどに対する照明条件)のうち少なくとも一つを含む。このように、撮像装置2の情報算出部12は、ヘッダ情報を有するモデル情報を所定のデータフォーマットに基づいて生成し、そのモデル情報を通信部13によって送信させることが可能である。
制御部28は、例えば、ユーザまたは外部装置(例、情報処理装置3)からの指令(制御信号)により、撮像装置2の各部を制御する。例えば、制御部28は、検出部11に上記の検出処理を実行させる。この検出処理は、例えば、撮像部15による撮像処理、及び測距部16による距離検出処理を含む。制御部28は、例えば、検出部11の検出結果の少なくとも一部を記憶部27に記憶させる。制御部28は、例えば、情報算出部12にモデル情報を算出させる。制御部28は、例えば、情報算出部12が算出したモデル情報の少なくとも一部を記憶部27に記憶させる。
記憶部27は、例えば、モデル情報を項目ごとに記憶する。例えば、記憶部27は、形状情報、テクスチャ情報、光源情報、対象物OBの光学特性情報、及びパターン情報の各項目の情報を個別のデータテーブルにそれぞれ記憶する。制御部28は、例えば、記憶部27に記憶されている情報の少なくとも一部を示す画像を、表示部25に表示させる。制御部28は、通信部13を制御し、通信部13を介して情報の送信、情報の受信を実行させる。
通信部13は、例えば、USBポートなどのI/Oポート、電波または赤外線の無線通信を行う通信器のうち少なくとも一つを含む。通信部13は、制御部28に制御され、記憶部27に記憶されている情報を読み出し、読み出した情報を外部装置に送信する。例えば、通信部13は、情報算出部12の算出結果(例、モデル情報)の少なくとも一部を、情報処理装置3に送信する。また、通信部13は、例えば、外部装置からの指令を含む情報を受信する。通信部13は、受信した情報を記憶部27に記憶させること、受信した情報を制御部28に供給することができる。なお、撮像装置2が上記したデジタル装置を備える場合には、通信部13はモデル情報の少なくとも一部を該デジタル装置に送信してもよい。そして、該デジタル装置は、受信したモデル情報をもとにデジタル情報を生成し、該デジタル情報を紙などの媒体に出力するようにしてもよい。
図2のように、情報処理装置3は、通信部30、記憶部31、レンダリング処理部32、及び制御部33を備える。通信部30は、例えば、USBポート、ネットワークカード、電波または赤外線の無線通信を行う通信器のうち少なくとも一つを含む。通信部30は、撮像装置2の通信部13と通信可能である。
記憶部31は、例えば、USBメモリなどの取り外し可能な記憶媒体、外付け型あるいは内蔵型のハードディスクなどの大容量記憶装置を含む。記憶部31は、例えば、通信部30を介して受信した情報の少なくとも一部のデータ、撮像装置2を制御する撮像制御プログラム、情報処理装置3の各処理を実行させる処理プログラム、などを記憶する。
レンダリング処理部32は、例えば、グラフィックス プロセッシング ユニット(Graphics Processing Unit; GPU)を含む。なお、レンダリング処理部32は、CPUおよびメモリが画像処理プログラムに従って各処理を実行する態様でもよい。レンダリング処理部32は、例えば、描画処理、テクスチャマッピング処理、シェーディング処理の少なくとも一つの処理を行う。
レンダリング処理部32は、描画処理において、例えば、モデル情報の形状情報に定められた形状を任意の視点から見た推定画像(例、再構築画像)を算出できる。以下の説明において、形状情報が示す形状をモデル形状という。レンダリング処理部32は、例えば、描画処理によって、モデル情報(例、形状情報)からモデル形状(例、推定画像)を再構成できる。レンダリング処理部32は、例えば、算出した推定画像のデータを記憶部31に記憶させる。撮像装置2は、モデル情報の少なくとも一部を情報処理装置3に送信可能であるので、例えば、情報処理装置3は、レンダリング処理の負荷を減らすことができる。また、例えば、撮像装置2は、撮像部15によって撮像された全ての撮像画像を情報処理装置3に送信する必要がなく、情報算出部12が算出したモデル情報の少なくとも一部(例、形状情報およびテクスチャ情報)を情報処理装置3に送信している。このため、本実施形態の撮像装置は、レンダリング処理部32の描画処理に必要な情報の通信負荷を低減することができる。
また、レンダリング処理部32は、テクスチャマッピング処理において、例えば、推定画像上の物体の表面に、モデル情報のテクスチャ情報が示す画像を貼り付けた推定画像を算出できる。レンダリング処理部32は、推定画像上の物体の表面に、対象物OBと別のテクスチャを貼り付けた推定画像を算出することもできる。
レンダリング処理部32は、シェーディング処理において、例えば、モデル情報の光源情報が示す光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。また、レンダリング処理部32は、シェーディング処理において、例えば、任意の光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。
制御部33は、例えば、情報処理装置3の各部、撮像装置2、入力装置4、及び表示装置5を制御する。制御部33は、例えば、通信部30を制御し、撮像装置2に指令(制御信号)や設定情報を送信させる。制御部33は、例えば、通信部30が撮像装置2から受信した情報を、記憶部31に記憶させる。制御部33は、例えば、レンダリング処理部32を制御し、レンダリング処理を実行させる。
制御部33は、例えば、通信部30を介して撮像装置2に指令(信号)を送ることで、撮像装置2を制御する。例えば、制御部33は、通信部30を制御し、所定の情報の送信を要求する指令(要求信号)を撮像装置2に送信する。制御部33は、撮像装置2に各処理を実行させる指令を、撮像装置2に送信してもよい。例えば、制御部33は、撮像装置2の検出部11に検出処理を実行させる指令を、撮像装置2に送信してもよい。例えば、制御部33は、撮像装置2の情報算出部12にモデル情報の算出処理を実行させる指令を、撮像装置2に送信してもよい。また、情報処理装置3の制御部33は、撮像装置2の撮像部15に対象物OBの撮像を実行させる指令、及び対象物OBの撮像条件を設定させる指令を、撮像装置2に送信してもよい。
通信部13は、例えば、情報算出部12が算出した情報を、項目ごとに選択的に送信する。例えば、記憶部27に記憶されている設定情報は、モデル情報の各項目の情報を送信するか否かを定めた送信項目情報、及び各項目の情報を送信する順番を定めた送信順番情報を含む。この設定情報は、例えば、入力部26の操作、情報処理装置3からの指令などにより更新可能である。制御部28は、例えば、通信部13を制御し、送信項目情報に定められた項目の情報を、送信順番情報に定められた順に送信させる。なお、制御部28は、例えば、通信部13を制御して、送信項目情報に定められた項目の情報(例、形状情報およびテクスチャ情報)を所定のデータフォーマットに基づいて一度に送信してもよい。
送信項目情報は、例えば、情報処理装置3のレンダリング処理に使われるか否かに応じて設定されていてもよい。例えば、レンダリング処理において、対象物OBの形状に、対象物OBと異なるテクスチャを合成する場合がある。この場合、情報処理装置3は、例えば、対象物OBの形状情報を使うとともに、対象物OBのテクスチャ情報を使わないで、レンダリング処理を実行できる。送信項目情報は、例えば、形状情報を送信するが、テクスチャ情報を送信しないことを定めた情報に設定される。この場合、情報算出部12は、テクスチャ情報を算出しなくてもよい。
また、例えば、レンダリング処理において、対象物OBに対する照明を変更した画像を算出する場合がある。情報処理装置3は、例えば、対象物OBの形状情報、パターン情報、及び光学特性情報を使うとともに、光源情報を使わないで、レンダリング処理を実行できる。この場合、送信項目情報は、例えば、形状情報、パターン情報、及び光学特性情報を送信し、光源情報を送信しないことを定めた情報に設定される。また、例えば、送信項目情報は、形状情報、テクスチャ情報、パターン情報、光源情報および光学特性情報のうち少なくとも1つの情報を送信することを定めた情報に設定される。撮像装置2は、例えばモデル情報のうち一部を送信する場合、通信の負荷を減らすことができる。
送信順番情報は、例えば、情報処理装置3のレンダリング処理における優先順位に応じて設定されていてもよい。例えば、送信順番情報は、レンダリング処理において先に使われる項目の情報を先に送るように設定されていてもよい。例えば、レンダリング処理において、視点を変えながらテクスチャがない対象物OBを見た画像を算出し、視点を定めた後、この視点から、テクスチャがある対象物OBを見た画像を算出する場合がある。情報処理装置3は、例えば、形状情報を使うとともにテクスチャ情報を使わないで、テクスチャがない対象物OBを、視点を変えて見た画像を算出できる。送信項目情報は、例えば、形状情報を先に送信し、テクスチャ情報を形状情報よりも後で送信することを定めた情報に設定される。撮像装置2は、例えば、モデル情報の各項目の情報を情報処理装置3のレンダリング処理における優先順位に応じた順に送信する場合、情報処理装置3のレンダリング処理の一部と並行してそれらの情報を送信することができる。また、例えば、撮像装置2の制御部28は、情報算出部12によるモデル情報の算出の少なくとも一部と通信部13による情報の送信処理とを並行して実行させることができる。
情報処理装置3の制御部33は、例えば、入力装置4に入力された情報を、記憶部31に記憶させる。入力装置4に入力される情報は、例えば、レンダリング処理の設定情報を含む。この設定情報は、例えば、描画処理の対象のデータ(例、モデル情報の形状情報)、描画処理における視点の情報、テクスチャマッピング処理においてテクスチャを貼り付ける物体のデータ、テクスチャマッピング処理において貼り付けるテクスチャの情報(例、モデル情報のテクスチャ情報)、シェーディング処理における光源の情報(例、モデル情報の光源情報)の少なくとも一つを含む。レンダリング処理部32は、例えば、設定情報に従って、レンダリング処理を実行する。
制御部33は、例えば、記憶部31に記憶される各種情報を示す画像を、表示装置5に表示させる。例えば、制御部33は、レンダリング処理の設定情報を表示装置5に表示させ、入力装置4により設定情報の変更を受け付ける。また、制御部33は、記憶部31に記憶させている推定画像のデータが示す画像を、表示装置5に表示させる。
なお、情報処理装置3は、レンダリング処理によって得られた推定画像を表示装置5に表示させなくてもよく、この場合に、撮像システム1は、表示装置5を備えていなくてもよい。例えば、情報処理装置3は、レンダリング処理により算出される推定画像のデータの少なくとも一部を他の装置(再生デバイス)に通信部30を介して送信し、他の装置がこの画像を表示してもよい。例えば、情報処理装置3は、推定画像のデータを、通信部30を介して撮像装置2の通信部13へ送信してもよく、撮像装置2は、通信部13を介して受信した推定画像のデータを元に推定画像を表示部25に表示させてもよい。例えば、再生デバイスは、レンダリング処理により算出された情報(推定画像)を取得して、その情報を表示部に表示する。
なお、情報処理装置3は、各種の設定情報を他の装置から通信部30を介して受信してもよく、この場合に、撮像システム1は、入力装置4を備えていなくてもよい。例えば、撮像装置2は、レンダリング処理の設定情報(例、推定画像の元になる視点の情報)を、通信部13を介して情報処理装置3の通信部30に送信してもよい。また、情報処理装置3は、撮像装置2から受信したレンダリング処理の設定情報に従ってレンダリング処理を実行してもよい。
なお、撮像装置2は、レンダリング処理により算出される推定画像のデータを要求する指令を、通信部13を介して情報処理装置3の通信部30へ送信してもよい。情報処理装置3は、撮像装置2からの指令に対する応答として推定画像のデータを、通信部30を介して撮像装置2の通信部13へ送信してもよい。撮像装置2は、上記の要求指令をレンダリング処理の設定情報の一部として送信してもよいし、レンダリング処理の設定情報と別の指令(例、制御信号)として送信してもよい。
なお、撮像装置2は、情報処理装置3に制御されて上記の各種処理を実行する場合、制御部28、記憶部27、表示部25、及び入力部26の少なくとも一部を備えていなくてもよい。また、撮像装置2は、例えば、ユーザの操作によって上記の各種処理を実行し、情報処理装置3に制御されなくてもよい。例えば、撮像装置2は、外部装置からの指令(制御信号)を受けることなく上記の各種処理を実行してもよく、ユーザの操作、あるいは予め定められた処理スケジュールに従って上記の各種処理を実行してもよい。撮像装置2は、情報算出部12の算出結果(例、モデル情報など)を、情報処理装置3の他の装置に通信部13を介して送信してもよい。
次に、撮像システム1の動作に基づき、画像処理方法について説明する。図4は、撮像システム1の動作を示すフローチャートである。図4のステップS1において、撮像装置2は、撮像部15により対象物OBを撮像し、撮像画像(例えば可視光画像)のデータを取得する(撮像処理)。また、ステップS2において、撮像装置2は、対象物OBの表面の三次元形状を示す点群データを取得する(点群データ処理)。ステップS2において、撮像装置2は、対象物OBと撮像装置2との間の距離を測距部16によって検出し、デプス情報を取得する(ステップS3)。また、撮像装置2の情報算出部12は、デプス情報を、例えば透視変換などによって点群データを算出する(ステップS4)。また、ステップS4において、例えば、情報算出部12は、必要に応じて、可視光画像のデータとデプス情報との視差を調整する(視点の変換処理)。なお、情報算出部12は、ステップS2の処理を、ステップS1の処理の少なくとも一部と並行して行ってもよいし、ステップS1の処理の開始前または終了後に行ってもよい。
ステップS5において、情報算出部12は、モデル情報を算出(生成)する(モデル情報生成処理)。情報算出部12は、例えば、形状情報としてサーフェス情報を算出する(ステップS6)(サーフェス処理)。また、情報算出部12は、例えば、算出したサーフェス情報を使って、インバースレンダリングの手法によりテクスチャ情報を算出する(ステップS7)。ステップS7において、情報算出部12は、光源情報を算出する(ステップS8)。また、情報算出部12は、例えば、算出した光源情報を使って、パターン情報を算出する(ステップS9)。ステップS5において、情報算出部12は、算出した情報を項目ごとに記憶部27に記憶させる。
ステップS10において、撮像装置2は、記憶部27に記憶されているモデル情報の少なくとも一部を、通信部13を介して情報処理装置3に送信する。情報処理装置3は、例えば、撮像装置2から受信したモデル情報を使ってレンダリング処理を実行し、その結果(例、推定画像)を表示装置5に表示させる。
[第2実施形態]
次に、第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図5は、本実施形態に係る撮像システム1を示す図である。本実施形態に係る撮像装置2は、モデル統合部35および位置検出部36を更に備える。
撮像装置2のモデル統合部35は、対象物OBを第1方向から検出した結果(第1の検出結果)を元に算出される第1モデル情報と、対象物OBを第2方向から検出した結果(第2の検出結果)を元に算出される第2モデル情報とを統合して、統合モデル情報を生成する。本実施形態において、情報算出部12は、上記したような技術を用いて第1モデル情報と第2モデル情報とをそれぞれ算出する。
モデル統合部35は、例えば、第1モデル情報が示す形状のうちの第1特徴点と、第2モデル情報が示す形状のうちの第2特徴点とを対応させて、第1モデル情報と第2モデル情報とを統合する。第1特徴点は、第1モデル情報が示す形状のうち他の部分と識別可能な部分である。例えば、サーフェス情報において面に定義されている部分は、その外周の形状などにより、他の面と識別可能である。第2特徴点は、第2モデル情報が示す形状のうち他の部分と識別可能な部分である。
例えば、モデル統合部35は、第1モデル情報に含まれる形状情報とテクスチャ情報とのうち少なくとも一方を使って第1特徴点を検出し、第1特徴点の位置とその特徴点の特徴量(第1特徴量)とを示す第1特徴点データを算出する。モデル統合部35は、例えば、第1特徴点データを第1モデル情報の一項目の情報として、記憶部27に記憶させる。また、モデル統合部35は、例えば、第2モデル情報に含まれる形状情報とテクスチャ情報とのうち少なくとも一方を使って第2特徴点を検出し、第2特徴点の位置とその特徴点の特徴量(第2特徴量)とを示す第2特徴点データを算出する。モデル統合部35は、例えば、第2特徴点データを第2モデル情報の一項目の情報として、記憶部27に記憶させる。モデル統合部35は、例えば、SIFT(Scale-Invariant Feature Transform)法又はSURF(Speeded Up Robust Features)法により特徴点および特徴量を算出する。なお、例えば、上記の特徴点データ(例、第1特徴点データ、第2特徴点データ)は、少なくとも特徴点の特徴量を含むデータであって、該特徴点と該特徴量とのうち特徴量のみを含むデータであっても良い。
モデル統合部35は、第1モデル情報の第1特徴量を有する第1特徴点データと第2モデル情報の第2特徴量を有する第2特徴点データとをマッチングさせて統合した第3特徴点データを示す統合モデル情報を算出する。第3特徴点データは、例えば、第1特徴点データ(例、第1特徴量)と第2特徴点データ(例、第2特徴量)とをマッチングさせたデータである。第3特徴点データは、例えば、対象物OBのうち、第1特徴点データと第2特徴点データとが重なる部分を含み、第1部分形状と第2部分形状のいずれよりも広い範囲をモデルリングした統合データである。
例えば、撮像装置2は、対象物OBを任意の第1方向の片側(一方側)から検出して第1モデル情報を算出し、その第1方向の反対側から対象物OBを検出して第2モデル情報を算出した場合、モデル統合部35は、対象物OBのほぼ全周をカバーした統合モデル情報を算出できる。なお、統合モデル情報が示す形状は、対象物OBの一部を示す部分モデルであってもよい。
ここで、統合モデル情報は、例えば、形状情報とテクスチャ情報との少なくとも一方を含む。統合モデル情報の形状情報は、例えば、第1モデル情報の形状情報と、第2モデル情報の形状情報とを統合した情報である。また、統合モデル情報のテクスチャ情報は、例えば、第1モデル情報のテクスチャ情報と、第2モデル情報のデクスチャ情報とを統合した情報である。
また、位置検出部36は、例えば制御部28からの指令(検出要求信号)によって、撮像装置2(例、検出部11)の位置情報を検出する。位置検出部36は、例えば、方位センサ、GPSセンサ、及び加速度センサの少なくとも一つを含む。位置検出部36は、例えば、本体部14の内部に設けられるが、本体部14に外付けされてもよい。位置検出部36は、本体部14から取り外し可能なユニットであってもよい。
検出部11の位置情報は、例えば、検出部11の検出方向と全地球測位情報との少なくとも一方を含む。検出部11の検出方向は、例えば、図3(A)に示した撮像部15の結像光学系17の光軸の方向である。検出部11の検出方向は、例えば、撮像装置2の姿勢に対して予め定められており、位置検出部36は、方位センサにより撮像装置2の姿勢を検出することで、検出部11の検出方向を検出する。また、検出部11は、例えば、GPSセンサにより全地球測位情報を検出する。また、検出部11の位置情報は、検出部11の位置の変化量を含む。位置検出部36は、例えば、加速度センサの検出結果を時間積分して、検出部11の速度を検出できる。また、位置検出部36は、例えば、検出部11の速度を時間積分して、検出部11の位置の変化量を検出する。検出部11は、例えば、GPSセンサにより第1精度の位置情報を検出し、加速度センサの検出結果により、第1精度よりも高精度の第2精度の位置情報を取得してもよい。
制御部28は、例えば、検出部11に対象物OBを検出させる際に、位置検出部36に検出部11の位置情報を検出させる。制御部28は、例えば、検出部11の検出結果を、位置検出部36の検出結果(検出部11の位置情報)と関連付けて記憶部27に記憶させる。情報算出部12は、検出部11による対象物OBの検出結果を元にモデル情報を算出し、このモデル情報の各項目の情報を検出部11の位置情報と関連付けて、記憶部27に記憶させる。モデル情報は、例えば、検出部11の位置情報を含んでいてもよい。
検出部11の位置情報は、例えば、第1モデル情報と第2モデル情報との統合に使われる。例えば、モデル統合部35は、第1モデル情報の元データを検出部11が検出した際の検出部11の第1位置情報と、第2モデル情報の元データを検出部11が検出した際の検出部11の第2位置情報とを使って、第1モデル情報と第2モデル情報とをマッチングさせて統合してもよい。例えば、モデル統合部35は、第1位置情報および第2位置情報を使って、第1モデル情報が示す第1部分形状と第2モデル情報が示す第2部分形状との位置関係を算出してもよい。上記の位置情報をモデル情報の統合に用いる場合、統合を実行する撮像装置2又は情報処理装置3は、統合に必要な演算量を減らすことができるし、統合におけるミスマッチングを低減することも可能である。
なお、モデル統合部35は、検出部11の位置情報、及び特徴量を含む特徴点データを使って、第1モデル情報と第2モデル情報とを統合してもよい。また、モデル統合部35は、検出部11の位置情報を使うとともに特徴点データを使わないで、第1モデル情報と第2モデル情報とを統合してもよい。例えば、モデル統合部35は、特徴点データ(例、特徴量)を使うとともに検出部11の位置情報を使わないで、第1モデル情報と第2モデル情報とを統合してもよい。
ところで、第1モデル情報の形状情報が示す形状の端部に隣接する領域(以下、視野外領域という)は、例えば、第1方向から検出できない領域を含む。視野外領域は、例えば、第1モデル情報が示す形状において閉じていない部分である。情報算出部12またはモデル統合部35は、視野外領域の形状情報を取得可能な検出部11の検出方向を算出してもよい。撮像装置2は、この検出方向を、第1方向からの対象物OBの検出処理が終了した後、例えば、第2方向の候補として表示部25に表示させてもよい。
次に、撮像システム1の動作に基づき、画像処理方法について説明する。図6は、撮像システム1の動作を示すフローチャートである。撮像装置2は、検出部11の検出方向が第1方向に設定されている状態で少なくとも撮像画像のデータを取得するステップS11の処理を行う。ステップS11において、撮像装置2は、検出部11によって対象物OBを第1方向から検出し、例えば可視光画像のデータおよび点群データを取得する。ステップS12において、情報算出部12は、ステップS11における検出部11の検出結果を使って、第1モデル情報を算出する。ステップS13において、情報算出部12は、第1モデル情報を記憶部27に記憶させる。
撮像装置2は、ステップS11において検出部11による検出処理が終了した後、例えば、ユーザの手動または図示しない移動装置によって移動され、検出部11の検出方向が第1方向と異なる第2方向に設定される。ステップS14において、撮像装置2は、検出部11によって対象物OBを第2方向から検出し、例えば可視光画像のデータおよび点群データを取得する。ステップS15において、情報算出部12は、ステップS14における検出部11の検出結果を使って、第2モデル情報を算出する。ステップS16において、情報算出部12は、第2モデル情報を記憶部27に記憶させる。
ステップS17において、モデル統合部35は、第1モデル情報と第2モデル情報とを統合して統合モデル情報を算出する。ステップS17において、モデル統合部35は、第1モデル情報の形状情報とテクスチャ情報との少なくとも一方を記憶部27から読み出し、形状情報とテクスチャ情報との少なくとも一方を使って第1特徴点を検出する(ステップS18)。そして、モデル統合部35は、少なくとも第1特徴点の特徴量を含む第1特徴点データを算出し(ステップS19)、第1特徴点データを記憶部27に記憶させる(ステップS20)。モデル統合部35は、第2モデル情報の形状情報とテクスチャ情報との少なくとも一方を記憶部27から読み出し、形状情報とテクスチャ情報との少なくとも一方を使って第2特徴点を検出する(ステップS21)。そして、モデル統合部35は、少なくとも第2特徴点の特徴量を含む第2特徴点データを算出し(ステップS22)、第2特徴点データを記憶部27に記憶させる(ステップS23)。モデル統合部35は、第1特徴点データおよび第2特徴点データを記憶部27から読み出し、これら特徴点データをマッチングする(ステップS24)。モデル統合部35は、ステップS24のマッチング処理によって統合モデル情報を算出し、例えば、統合モデル情報を項目ごとに記憶部27に記憶させる(ステップS25)。そして、ステップS26において、撮像装置2は、記憶部27に記憶されている統合モデル情報の少なくとも一部を、通信部13により情報処理装置3に送信する。情報処理装置3は、例えば、撮像装置2から受信した統合モデル情報を使ってレンダリング処理を実行し、その結果(例、推定画像など)を表示装置5に表示させる。
[第3実施形態]
次に、第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図7は、本実施形態に係る撮像システム1を示す図である。この撮像システム1は、複数の撮像装置2を備える。以下の説明において、複数の撮像装置2のうち、1つの撮像装置2を第1撮像装置2a、他の1つの撮像装置2を第2撮像装置2bという。したがって、この撮像システム1は、少なくとも2つの撮像装置、又は複数の撮像装置を備える構成である。
第1撮像装置2aは、第1方向から対象物OBを検出し、その検出結果を元に第1モデル情報を算出する。第1撮像装置2aは、第1モデル情報を情報処理装置3に供給する。第2撮像装置2bは、第2方向から対象物を検出し、その検出結果を元に第2モデル情報を算出する。第2撮像装置2bは、第2モデル情報を情報処理装置3に供給する。情報処理装置3は、第1モデル情報と第2モデル情報とを統合し、複数の方向(例、第1方向と該第1方向とは異なる第2方向)から検出した検出結果に基づく統合モデル情報を算出する。
次に、撮像システム1の各部について説明する。図8は、撮像システム1を示すブロック図である。第1撮像装置2aは、検出部11(以下、検出部11aと記す)が対象物OBを検出するタイミングの情報(以下、タイミング情報という)を検出する計時部41(以下、計時部41aと記す)を備える。タイミング情報は、例えば、検出部11aが検出処理を行った期間(例、日時)を示す情報を含む。タイミング情報は、検出部11aが検出処理を行った期間の開始時刻と終了時刻の少なくとも一方を含んでいてもよい。
タイミング情報は、例えば、対象物OBが撮像装置によって検出されたタイミングが異なる複数の検出結果を用いて、モデル統合を行う際に使われる。例えば、複数の検出結果のうち対象物OBを検出したタイミングが相対的に近い少なくとも2つの検出結果を元に、複数のモデル情報を算出し、算出した複数のモデル情報を統合してもよい。
検出部11aは、例えば、その検出結果を、タイミング情報と関連付けて記憶部27(以下、記憶部27aと記す)に記憶させる。情報算出部12(以下、情報算出部12aと記す)は、例えば、検出部11aの検出結果を元に第1モデル情報を算出し、その算出結果をタイミング情報と関連付けて記憶部27aに記憶させる。
また、第2撮像装置2bは、例えば、第1撮像装置2aと同様の構成である。第2撮像装置2bの検出部11(以下、検出部11bと記す)は、例えば、第2方向から対象物OBを検出し、その検出結果を計時部41(以下、計時部41bと記す)が検出したタイミング情報と関連付けて記憶部27(以下、記憶部27bと記す)に記憶させる。第2撮像装置2bの情報算出部12(以下、情報算出部12bと記す)は、例えば、検出部11bの検出結果を元に第2モデル情報を算出し、その算出結果をタイミング情報と関連付けて記憶部27bに記憶させる。
なお、タイミング情報は、検出部11により対象物OBを検出することが予定されている期間の情報を含んでいてもよい。第1撮像装置2aと第2撮像装置2bとは、タイミング情報を送受信し、制御部28や通信部13を用いて互いに同期をとって対象物OBを検出してもよい。
本実施形態において、第1撮像装置2aの情報算出部12aは、第1モデル情報と第2モデル情報との統合に使われる第1付加情報を算出する。第1付加情報は、例えば、特徴点データ(例、特徴量)のマッチングにより得られる情報、検出部11aの位置情報、撮像装置2のタイミング情報、検出部11bの位置情報、および第2撮像装置2bのタイミング情報のうち少なくとも一つを含む。例えば、第1撮像装置2aは、第2撮像装置2bから第2モデル情報を受信し、第1撮像装置2aの情報算出部12aは、算出した第1特徴点データと、第2撮像装置2bから受信した第2特徴点データとを使って、第1付加情報を算出する。
本実施形態において、情報処理装置3は、モデル統合部45を更に備える。モデル統合部45は、第1撮像装置2aからの第1モデル情報と第2撮像装置2bからの第2モデル情報とを統合して上記の統合モデル情報を生成する。モデル統合部45がモデル情報の統合に用いるアルゴリズムは、例えば、第2実施形態に説明した撮像装置2のモデル統合部35と同様でよい。情報処理装置3の通信部30は、例えば、モデル統合を行うよりも前に、第1撮像装置2aの通信部13aから、第1付加情報を受信する。情報処理装置2のモデル統合部45は、例えば、第1モデル情報、第2モデル情報、及び第1付加情報を使って、モデル統合を行う。
図9は、本実施形態に係る撮像システム1の動作を示す図である。第1撮像装置2aの情報算出部12aは、ステップS31において第1モデル情報を算出し、ステップS32において少なくとも第1特徴量を含む第1特徴点データを算出する。第2撮像装置2bの情報算出部12bは、ステップS33において第2モデル情報を算出し、ステップS34において少なくとも第2特徴量を含む第2特徴点データを算出する。第1撮像装置2aの通信部13aは、ステップS35において、第2特徴点データの送信を要求する指令(要求指令)を、第2撮像装置2bの通信部13bに送信する。第2撮像装置2bの通信部13bは、ステップS36において、第1撮像装置2aの通信部13aから、要求指令を受信する。通信部13bは、ステップS37において、第2特徴点データを通信部13aに送信する。通信部13aは、ステップS38において、第2特徴点データを通信部13bから受信する。このように、撮像装置間(例、第1撮像装置と第2撮像装置との間)における少なくとも特徴点データ(例、第1特徴点データ及び/又は第2特徴点データ)の通信(データ通信)を行う場合、各撮像装置がモデル情報の統合に必要な情報を計算することによって、情報処理装置3は統合の負荷を減らすことが可能となる。なお、上記の特徴点データ(第1特徴点データ、第2特徴点データなど)の作成は、情報処理装置3が行うことも可能である。この場合、例えば、情報処理装置3は、各撮像装置又は一方の撮像装置(例、第1撮像装置2a)から受信する各モデル情報を用いて第1特徴点データおよび第2特徴点データを生成する。また、上記の特徴点データ(例、第1特徴点データ、第2特徴点データ)の生成は、第1撮像装置2a(又は第2撮像装置2b)が行うことも可能である。この場合、例えば、第1撮像装置2aは、第2撮像装置2bから受信する第2モデル情報に基づいて第2特徴点データを生成する。
第1撮像装置2aの情報算出部12aは、ステップS39において、第1特徴点データと第2特徴点データとをマッチングし(特徴部分のマッチング処理)、ステップS40において、マッチングの結果を示す第1付加情報を算出する。第1付加情報は、例えば、第1モデル情報が示す形状と、第2モデル情報が示す形状との位置関係を示す情報を含む。第1付加情報は、例えば、第1特徴データと第2特徴データとで共通する特徴点の座標、及び/又は第1特徴データと第2特徴データとで共通する特徴量を含む。情報算出部12aは、算出した第1付加情報を、例えば記憶部27aに記憶させる。第1付加情報は、例えば、第1モデル情報の1項目の情報であってもよい。
第1撮像装置2aの通信部13aは、ステップS41において、第1付加情報を情報処理装置3の通信部30に送信する。情報処理装置3の通信部30は、ステップS42において、通信部13aから第1付加情報を受信する。
情報処理装置3は、ステップS43において、統合モデル情報のうち、第1撮像装置2aからの第1モデル情報に担当させる第1担当領域と、第2撮像装置2bからの第2モデル情報に担当させる第2担当領域とを決定して設定する。例えば、モデル統合部45は、第1担当領域と第2担当領域とが重複しないように、各担当領域を選択する。
情報処理装置3の制御部33は、ステップS44において、通信部30を制御し、第1担当領域における第1モデル情報の送信を要求する指令(第1要求信号)を、第1撮像装置2aの通信部13aに送信する。以下、第1担当領域における第1モデル情報を、第1指定情報という。第1指定情報は、例えば、第1モデル情報が示す形状の一部の形状に関する情報である。第1撮像装置2aの通信部13aは、ステップS45において、ステップS44の指令を受信する。第1撮像装置2aの情報算出部12aは、ステップS46において、第1モデル情報のうち第1指定情報を抽出する。第1撮像装置2aの通信部13aは、ステップS47において、第1指定情報を情報処理装置3の通信部30に送信する。ステップS48において、通信部30は、通信部13aから第1指定情報を受信する。
情報処理装置3の制御部33は、ステップS44の処理の後のステップS49において、通信部30を制御し、第2担当領域における第2モデル情報の送信を要求する指令(第2要求信号)を、第2撮像装置2bの通信部13bに送信する。以下、第2担当領域における第2モデル情報を、第2指定情報という。第2指定情報は、例えば、第2モデル情報が示す形状の一部の形状に関する情報である。第2撮像装置2bの通信部13bは、ステップS50において、ステップS49の指令を受信する。第2撮像装置2bの情報算出部12bは、ステップS51において、第2モデル情報のうち第2指定情報を抽出する。第2撮像装置2bの通信部13bは、ステップS52において、第2指定情報を情報処理装置3の通信部30に送信する。情報処理装置3の通信部30は、ステップS53において、通信部13bから第2指定情報を受信する。情報処理装置3のモデル統合部45は、ステップS54において、第1モデル情報の一部である第1指定情報と、第2モデル情報の一部である第2指定情報とを統合し、統合モデル情報を算出する。例えば、モデル統合部45は、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。また、例えば、撮像装置2aと撮像装置2bとは、上記の付加情報を作成するために、複数の撮像装置間において情報(例、第1モデル情報、第2モデル情報、第1特徴点データ、第2特徴点データ)のデータ通信を行う。
[第4実施形態]
次に、第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。本実施形態に係る撮像システム1は、図7および図8と同様の構成である。本実施形態において、第1撮像装置2aおよび第2撮像装置2bは、それぞれ、モデル統合に使われる付加情報を算出する。本実施形態において、情報処理装置3は、統合モデル情報をチェックし、適宜、補間処理を行う。
図10は、本実施形態に係る撮像システム1の動作を示す図である。図10において、図9と同様の処理については、同じ符号を付してその説明を簡略化あるいは省略する。第1撮像装置2aの情報算出部12aは、ステップS31において第1モデル情報を算出し、ステップS32において少なくとも第1特徴量を含む第1特徴点データを算出する。第2撮像装置2bの情報算出部12bは、ステップS33において第2モデル情報を算出し、ステップS34において少なくとも第2特徴量を含む第2特徴点データを算出する。撮像装置2の通信部13aは、ステップS60において、第1特徴点データを第2撮像装置2bの通信部13bに送信する。通信部13bは、ステップS61において、第1特徴点データを通信部13aから受信する。通信部13bは、ステップS62において、第2特徴点データを通信部13aに送信する。通信部13aは、ステップS63において、第2特徴点データを通信部13bから受信する。
第1撮像装置2aの情報算出部12aは、ステップS64において、第1特徴点データと第2特徴点データとをマッチングし、マッチングの結果を示す第1付加情報を算出する。第1撮像装置2aの通信部13aは、ステップS65において、第1付加情報を情報処理装置3の通信部30に送信する。通信部30は、ステップS66において、通信部13aから第1付加情報を受信する。
第2撮像装置2bの情報算出部12bは、第1撮像装置2aと同様に、第1特徴点データと第2特徴点データとをマッチングし、ステップS67において、マッチングの結果を示す第2付加情報を算出する。情報算出部12bは、算出した第2付加情報を記憶部27bに記憶させる。第2付加情報は、第1付加情報と同様であり、例えば、第2モデル情報の1項目の情報であってもよい。第2撮像装置2bの通信部13bは、ステップS68において、第2付加情報を情報処理装置3の通信部30に送信する。通信部30は、ステップS69において、通信部13bから第2付加情報を受信する。
撮像システム1は、例えば、図9を参照して説明したステップS43〜ステップS54の処理により、第1モデル情報と第2モデル情報とを統合する。情報処理装置3のモデル統合部45は、例えば、算出した統合モデル情報を記憶部31に記憶させる。モデル統合部45は、ステップS70において、算出した統合モデル情報の整合性をチェック(判定)する。モデル統合部45は、統合モデル情報の整合性がとれていないと判定した場合に、例えば、以下の処理を行う。
ステップS71において、情報処理装置3の制御部33は、通信部30を制御し、第1補間情報の送信を要求する指令(要求信号)を、第1撮像装置2aの通信部13aに送信する。第1補間情報は、例えば、統合モデル情報の補間に使われる情報であり、第1モデル情報が示す形状と第2モデル情報が示す形状とで重複する領域の情報を含む。ステップS72において、第1撮像装置2aの通信部13aは、ステップS68の指令を受信する。ステップS73において、第1撮像装置2aの情報算出部12aは、第1モデル情報から第1補間情報を抽出する。ステップS74において、第1撮像装置2aの通信部13aは、第1補間情報を情報処理装置3の通信部30に送信する。ステップS75において、通信部30は、第1補間情報を通信部13aから受信する。
ステップS71の後のステップS76において、情報処理装置3の制御部33は、通信部30を制御し、第2補間情報の送信を要求する指令(要求信号)を、第2撮像装置2bの通信部13bに送信する。第2補間情報は、例えば、統合モデル情報の補間に使われる情報であり、第1モデル情報が示す形状と第2モデル情報が示す形状とで重複する領域の情報を含む。ステップS77において、第2撮像装置2bの通信部13bは、ステップS76の指令を受信する。ステップS78において、第2撮像装置2bの情報算出部12bは、第2モデル情報から第2補間情報を抽出する。ステップS79において、第2撮像装置2bの通信部13bは、第2補間情報を情報処理装置3の通信部30に送信する。ステップS80において、通信部30は、第2補間情報を通信部13bから受信する。
ステップS81において、情報処理装置3のモデル統合部45は、第1補間情報および第2補間情報を使って、統合モデル情報の補間処理を行う。ステップS82において、モデル統合部45は、記憶部31に記憶されている統合モデル情報を、補間処理後の統合モデル情報に更新する。
また、例えば、モデル統合部45は、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。
[第5実施形態]
次に、第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図11は、本実施形態に係る撮像システム1を示すブロック図である。
本実施形態に係る撮像システム1は、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3を備える。第1撮像装置2aは、例えば、第2実施形態と同様のモデル統合部35(以下、モデル統合部35aと記す)を備える。モデル統合部35aは、情報算出部12aが算出した第1モデル情報と、通信部13aが第2撮像装置2bから受信した第2モデル情報とを統合する。通信部13aは、モデル統合部35aが算出した統合モデル情報を、情報処理装置3の通信部30に送信する。
図12は、本実施形態に係る撮像システム1の動作を示す図である。図12において、図9等と同様の処理については、同じ符号を付してその説明を簡略化あるいは省略する。撮像システム1は、ステップS31〜ステップS40の処理によって、モデル統合に使われる第1付加情報を算出する。
第1撮像装置2aは、ステップS85において、統合モデル情報のうち、第1モデル情報に担当させる第1担当領域と、第2撮像装置2bからの第2モデル情報に担当させる第2担当領域とを決定して設定する。例えば、モデル統合部35aは、第1担当領域と第2担当領域とが重複しないように、各担当領域を選択する。
第1撮像装置2aの制御部28は、ステップS86において、通信部13aを制御し、第2担当領域における第2モデル情報の送信を要求する指令を、第2撮像装置2bの通信部13bに送信する。第2撮像装置2bの通信部13bは、ステップS87において、ステップS86の指令を受信する。第2撮像装置2bの情報算出部12bは、ステップS88において、第2モデル情報のうち第1撮像装置2aから指定された第2担当領域の情報を抽出する。第2撮像装置2bの通信部13bは、ステップS89において、ステップS86で情報算出部12bが抽出した情報(抽出情報)を、第1撮像装置2aの通信部13aに送信する。
第1撮像装置2aの情報算出部12aは、ステップS90において、第1担当領域の第1モデル情報を抽出する。また、第1撮像装置2aの通信部13aは、ステップS91において、通信部13bから抽出情報(例、第2担当領域の第2モデル情報)を受信する。第1撮像装置2aのモデル統合部35aは、ステップS92において、第1担当領域の第1モデル情報と、第2担当領域の第2モデル情報とを統合し、統合モデル情報を算出する。第1撮像装置2aの通信部13aは、ステップS93において、統合モデル情報を情報処理装置3の通信部30に送信する。通信部30は、ステップS94において、統合モデル情報を通信部13aから受信する。情報処理装置3のレンダリング処理部32は、ステップS95において、統合モデル情報を使ってレンダリング処理を行う。
また、例えば、第1撮像装置2aのモデル統合部35aは、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。
[第6実施形態]
次に、第6実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図13は、本実施形態に係る撮像システム1を示すブロック図である。
本実施形態において、第1撮像装置2aおよび第2撮像装置2bは、モデル統合に使われる情報を相互に通信し、それぞれ、統合モデル情報を算出する。第1撮像装置2aは、例えば、図12を参照して説明した処理により、統合モデル情報を算出する。また、第2撮像装置2bは、例えば第1撮像装置2aと同様の処理を行うことにより、統合モデル情報を算出する。
情報処理装置3は、第1撮像装置2aと第2撮像装置2bの少なくとも一方から統合モデル情報を受信し、受信した統合モデル情報を使ってレンダリング処理を実行する。例えば、情報処理装置3の通信部30は、第1撮像装置2aの通信部13aに、統合モデル情報の送信を要求する指令を送信する。第1撮像装置2aの制御部28は、通信部13aを制御し、統合モデル情報のうち指令に指定された項目の情報を、情報処理装置3の通信部30へ送信させる。情報処理装置3は、同様に、第2撮像装置2bに統合モデル情報を送信させることができる。
なお、情報処理装置3は、例えば、撮像システム1の各部の負荷情報(例、処理力に対する負荷の割合)を監視し、撮像システム1において相対的に負荷が小さい処理部に、モデル統合に関する処理を割り当ててもよい。例えば、第1撮像装置2aの制御部28は、第1撮像装置2aの負荷情報を生成する。第1撮像装置2aの負荷情報は、例えば、情報算出部12aの負荷情報およびモデル統合部35aの負荷情報を含む。第1撮像装置2aの通信部13aは、第1撮像装置2aの負荷情報を情報処理装置3の通信部30に送信する。同様に、第2撮像装置2bは、第2撮像装置2bの負荷情報を、情報処理装置3の通信部30に送信する。情報処理装置3の制御部33は、受信した負荷情報を元に各部の負荷を比較し、相対的に負荷が少ない処理部に、処理(モデル統合に関する処理)を一方の撮像装置のみに実行させる又は複数の撮像装置に部分的に処理(モデル統合に関する処理)を分担させて実行させる。
例えば、制御部33は、第1撮像装置2aのモデル統合部35aの負荷が、第2撮像装置2bのモデル統合部35bの負荷よりも大きいと判定した場合、第1撮像装置2aによるモデル統合の少なくとも一部を制限し、制限した処理を第2撮像装置2bに実行させてもよい。例えば、制御部33は、第1撮像装置2aによる第1付加情報の算出を禁止し、第2撮像装置2bから第1撮像装置2aへ第2付加情報を送信させてもよく、第1撮像装置2aは第2付加情報を使ってモデル統合を行ってもよい。また、例えば、制御部33は、第1撮像装置2aによる担当領域の決定処理を禁止し、第2撮像装置2bから第1撮像装置2aへ担当領域を規定する担当領域情報を送信させてもよく、第1撮像装置2aは担当領域情報を使ってモデル統合を行ってもよい。また、例えば、制御部33は、第1撮像装置2aによるモデル統合を禁止し、第2撮像装置2bから統合モデル情報を受信してもよい。
なお、制御部33は、情報処理装置3の負荷が、第1撮像装置2aおよび第2撮像装置2bのいずれよりも小さいと判定した場合、第1撮像装置2aと第2撮像装置2bの少なくとも一方のモデル統合処理の少なくとも一部を制限し、制限した処理をモデル統合部45に実行させてもよい。例えば、制御部33は、例えば、第1撮像装置2aおよび第2撮像装置2bのそれぞれによる担当領域の決定処理を禁止し、担当領域の決定処理をモデル統合部45に実行させ、担当領域情報を第1撮像装置2aおよび第2撮像装置2bのそれぞれへ送信させてもよい。また、制御部33は、第1撮像装置2aおよび第2撮像装置2bのそれぞれによるモデル統合の処理を禁止し、情報処理装置3のモデル統合部45にモデル統合の処理を実行させてもよい。
なお、上記の制御部33のように、撮像システム1の負荷の制御と監視の少なくとも一方を実行する負荷制御部(負荷監視部)は、第1撮像装置2a(例、制御部28)に設けられていてもよいし、第2撮像装置2b(例、制御部28)に設けられていてもよい。また、負荷制御部(負荷監視部)は、撮像システム1の外部に設けられていてもよく、撮像システム1に設けられていなくてもよい。
また、例えば、第1撮像装置2aのモデル統合部35a(又は/及び第2撮像装置2bのモデル統合部35b)は、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。
[第7実施形態]
次に、第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図14は、本実施形態に係る撮像システム1を示すブロック図である。
本実施形態に係る撮像システム1は、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3を備える。第1撮像装置2aおよび第2撮像装置2bは、それぞれ、統合モデル情報を算出可能である。本実施形態において、情報処理装置3は、モデル統合部を備えていない。情報処理装置3は、第1撮像装置2aと第2撮像装置2bとの少なくとも一方から統合モデル情報を受信し、受信した統合モデル情報を使ってレンダリング処理を実行する。
図15は、本実施形態に係る撮像システム1の動作を示す図である。以下の説明において、図10などと同等の処理については、同じ符号を付してその説明を省略あるいは簡略化する。第1撮像装置2aは、第1モデル情報を算出し(ステップS31)、第1特徴点データを算出する(ステップS32)。第2撮像装置2bは、第2モデル情報を算出し(ステップS33)、第1特徴点データを算出する(ステップS34)。第1撮像装置2aの通信部13aは、第1特徴点データを第2撮像装置2bの通信部13bに送信し(ステップS60)、通信部13bは、第1特徴点データを受信する(ステップS61)。通信部13bは、第2特徴点データを第1撮像装置2aの通信部13aに送信し(ステップS62)、通信部13aは、第2特徴点データを受信する(ステップS63)。
第1撮像装置2aの情報算出部12aは、第1特徴点データおよび第2特徴点データを使って、第1付加情報を算出する(ステップS64)。第2撮像装置2bの情報算出部12bは、第1特徴点データおよび第2特徴点データを使って、第2付加情報を算出する(ステップS67)。第1撮像装置2aの通信部13aは、第1付加情報を第2撮像装置2bの通信部13bに送信し(ステップS101)、通信部13bは、第1付加情報を受信する(ステップS102)。通信部13bは、第2付加情報を第1撮像装置2aの通信部13aに送信し(ステップS103)、通信部13aは、第2付加情報を受信する(ステップS104)。
第1撮像装置2aのモデル統合部35aは、第1付加情報および第2付加情報を使って、担当領域を決定する(ステップS105)。第1撮像装置2aの情報算出部12aは、第1担当領域の第1モデル情報を抽出する(ステップS106)。第2撮像装置2bのモデル統合部35bは、第1付加情報および第2付加情報を使って、担当領域を決定する(ステップS107)。第2撮像装置2bの情報算出部12bは、第2担当領域の第2モデル情報を抽出する(ステップS108)。
第1撮像装置2aの通信部13aは、第1担当領域の第1モデル情報を第2撮像装置2bの通信部13bに送信し(ステップS109)、通信部13bは、第1担当領域の第1モデル情報を受信する(ステップS110)。通信部13bは、第2担当領域の第2モデル情報を第1撮像装置2aの通信部13aに送信し(ステップS111)、通信部13aは、第2担当領域の第2モデル情報を受信する(ステップS112)。
第1撮像装置2aのモデル統合部35aは、第1担当領域の第1モデル情報および第2担当領域の第2モデル情報を使って、モデル統合を行う(ステップS113)。そして、モデル統合部35aは、統合された統合モデル情報(第1統合モデル情報)をチェックする(ステップS114)。第2撮像装置2bのモデル統合部35bは、第1担当領域の第1モデル情報および第2担当領域の第2モデル情報を使って、モデル統合を行う(ステップS115)。そして、モデル統合部3baは、統合された統合モデル情報(第2統合モデル情報)をチェックする(ステップS116)。
第1撮像装置2aのモデル統合部35aおよび第2撮像装置2bのモデル統合部35bは、それぞれ、統合モデル情報の整合性がとれていないと判定した場合に、例えば、以下の処理を行う。第1撮像装置2aの情報算出部12aは、第1補間情報を抽出する(ステップS117)。第2撮像装置2bの情報算出部12bは、第2補間情報を抽出する(ステップS118)。
第1撮像装置2aの通信部13aは、第1補間情報を第2撮像装置2bの通信部13bに送信し(ステップS119)、通信部13bは、第1補間情報を受信する(ステップS120)。通信部13bは、第2補間情報を第1撮像装置2aの通信部13aに送信し(ステップS121)、通信部13aは、第2補間情報を受信する(ステップS122)。
第1撮像装置2aのモデル統合部35aは、第1補間情報および第2補間情報を使って、補間処理を行う(ステップS123)。モデル統合部35aは、記憶部27aに記憶されている統合モデル情報を、補間処理後の統合モデル情報に更新する(ステップS124)。第2撮像装置2bのモデル統合部35bは、第1補間情報および第2補間情報を使って、補間処理を行う(ステップS125)。モデル統合部35bは、記憶部27bに記憶されている統合モデル情報を、補間処理後の統合モデル情報に更新する(ステップS126)。
情報処理装置3は、第1撮像装置2aから情報を受信する。例えば、情報処理装置3の通信部30は、レンダリング処理に使われる情報の送信を要求する指令を第1撮像装置2aの通信部13aに送信し(ステップS130)、通信部13aは、ステップS130の指令を受信する(ステップS131)。第1撮像装置2aの情報算出部12aは、例えばモデル情報(第1モデル情報または統合モデル情報)から、ステップS130の指令に指定された情報を抽出する(ステップS134)。第1撮像装置2aの通信部13aは、ステップS134で抽出された情報を情報処理装置3の通信部30に送信し(ステップS135)、通信部30は、ステップS134で送信された情報を受信する(ステップS136)。
情報処理装置3は、必要に応じて、第2撮像装置2bから情報を受信する。例えば、第2撮像装置2bが保持する情報をレンダリング処理に使う場合に、情報処理装置3の通信部30は、レンダリング処理に使われる情報の送信を要求する指令を第2撮像装置2bの通信部13bに送信し(ステップS132)、通信部13bは、ステップS132の指令を受信する(ステップS133)。第2撮像装置2bの情報算出部12bは、例えばモデル情報(第2モデル情報または統合モデル情報)から、ステップS132の指令に指定された情報を抽出する(ステップS137)。第2撮像装置2bの通信部13bは、ステップS137で抽出された情報を情報処理装置3の通信部30に送信し(ステップS138)、通信部30は、ステップS138で送信された情報を受信する(ステップS139)。
情報処理装置3のレンダリング処理部32は、例えば、第1撮像装置2aから受信した情報、及び第2撮像装置2bから受信した情報を使って、レンダリング処理を行う。なお、情報処理装置3は、第2撮像装置2bが保持する情報をレンダリング処理に使わない場合、第2撮像装置2bから情報を受信しなくてもよい。例えば、情報処理装置3の通信部30は、情報の送信を要求する指令を、第2撮像装置2bの通信部13bに送信しなくてもよい。
また、例えば、第1撮像装置2aのモデル統合部35aは、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報(第1統合モデル情報)を生成する。例えば、第2撮像装置2bのモデル統合部35bは、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報(第2統合モデル情報)を生成する。このように、例えば、互いの撮像装置が同一の対象物OBを撮像して各撮像装置における統合モデル情報をそれぞれ生成する場合、複数の撮像装置(例、第1撮像装置2a、第2撮像装置2b)は、各撮像装置において対象物OB全体のモデル統合を分散処理して、統合モデル情報(例、第1統合モデル情報、第2統合モデル情報)をそれぞれ生成するように構成しても良い。この場合、例えば、撮像装置において分散処理されて生成された統合モデル情報は、対象物OBの部分的な統合モデル情報である。このような場合、例えば、分散処理によって生成された第1統合モデル情報は対象物OB全体領域の50%部分に相当する部分的な統合モデルであってもよく、第1統合モデル情報と第2統合モデル情報とが対象物OB全体の統合モデル情報を互いに分担している構成であってもよい。そして、情報処理装置3やレンダリング処理可能な装置などの再生デバイスからの要求に応じて、撮像装置はレンダリングに必要な情報(例、第1統合モデル情報、第2統合モデル情報)を情報処理装置3や再生デバイス等に送信する。
[第8実施形態]
次に、第8実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図16は、本実施形態に係る撮像システム1を示すブロック図である。
本実施形態において、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3は、いずれも上記したモデル統合部を備えていない。情報処理装置3は、例えば、第1撮像装置2aから受信した情報(例、統合モデル情報)を使って第1のレンダリング処理を実行した後、第2撮像装置2bから受信した情報(例、統合モデル情報)を使って第2のレンダリング処理を実行する。レンダリング処理部32は、例えば、第1のレンダリング処理において、第1の視点から対象物OBを見た第1の推定画像を生成する。レンダリング処理部32は、例えば、第2のレンダリング処理において、第2の視点から対象物OBを見た第2の推定画像を生成する。情報処理装置3は、例えば、第2の推定画像を生成する上で、第1撮像装置2aが保持する情報だけではモデルの欠落を生じる場合に、第2撮像装置2bに情報の送信を要求する。情報処理装置3の通信部30は、例えば、第2のレンダリング処理で使われる情報を、第1のレンダリング処理が行われる期間に順次受信してもよい。
このような構成の場合、例えば、情報処理装置3のレンダリング処理に必要な情報を情報処置装置3が得るために、本実施形態における撮像システム1は、モデル情報或いは付加情報などの情報を受信でき、かつ算出した統合モデル情報などの情報を外部装置に送信できる通信部と、モデル統合処理を行うモデル統合部とを含む情報処理装置(モデル統合処理装置)と、を更に備える。
なお、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3の少なくとも1つは、モデル統合部を備えていてもよい。例えば、第2撮像装置2bは、モデル統合部を備え、第1撮像装置2aおよび情報処理装置3は、モデル統合部を備えていなくてもよい。この場合、例えば、情報処理装置3は、第1撮像装置2aから受信した情報を使って、上記の第1のレンダリング処理を実行してもよい。また、第2撮像装置2bは、第1のレンダリング処理が行われる期間に、モデル統合処理の少なくとも一部を行ってもよい。また、情報処理装置3は、第1のレンダリング処理後に、第2撮像装置2bから受信した統合モデル情報を使って第2のレンダリング処理を行ってもよい。
[第9実施形態]
次に、第9実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図17は、本実施形態に係る撮像システム1を示すブロック図である。
本実施形態において、撮像装置2の通信部13は、外部装置(例、第2撮像装置としての撮像装置50)から対象物OBの画像データを受信可能である。撮像装置50は、撮像システム1の一部であってもよいし、撮像システム1の外部の装置であってもよい。撮像装置50は、例えば、撮像装置2のような測距部を備えていない。この場合、撮像装置50は、撮像部51によって撮像された画像のうち視差を有する画像(視差画像)を撮像装置2へ送信する。そして、撮像装置2は、受信した視差画像を用いて撮像装置50のデプス情報を算出する。撮像装置50は、例えば、上記したモデル情報を算出しない。撮像装置50は、例えば、汎用カメラ、スマートフォンなどの高機能携電話、タブレットなどである。
撮像装置50は、例えば、撮像部51、入力部52、記憶部53、表示部54、通信部55、及び制御部56を備える。撮像部51は、例えば、CCDイメージセンサ、CMOSイメージセンサを含み、対象物OBを撮像可能である。記憶部53は、例えば不揮発性メモリを含み、撮像部51が撮像した画像のデータ、各種設定情報を記憶する。入力部52は、例えば、ユーザからの指令などを受ける。表示部54は、例えば、記憶部53に記憶されている画像データ、あるいは各種設定情報が示す画像を表示する。通信部55は、有線または無線により、撮像装置2の通信部13と通信可能である。通信部55は、例えば、撮像部51が撮像した対象物OBの画像のデータを、撮像装置2の通信部13へ送信する。制御部56は、撮像装置50の各部を制御する。
撮像装置2の情報算出部12は、上述の実施形態で説明したように、検出部11の検出結果を使って第1モデル情報を算出する。また、撮像装置2の情報算出部12は、例えば、撮像部15が撮像した画像、及び/又は撮像装置50から受信した画像(対象物OBの画像データ)を元に、第2モデル情報を算出する。なお、情報算出部12は、第2モデル情報を算出しなくてもよく、例えば、撮像装置50から受信した画像を、補間処理などに使ってもよい。例えば、撮像装置2は、測距部16により第1のデプス情報を検出し、撮像部15が撮像した画像、及び撮像装置50から受信した画像を元に第2のデプス情報を算出し、第2デプス情報を使って第1のデプス情報を補間してもよい。
撮像装置50の通信部55は、有線または無線により、情報処理装置3の通信部30と通信可能である。通信部55は、例えば、レンダリング処理の設定情報(例、推定画像の視点情報)を、情報処理装置3の通信部30に送信する。情報処理装置3のレンダリング処理部32は、例えば、撮像装置2の通信部13から受信したモデル情報、及び撮像装置30の通信部55から受信したレンダリング処理の設定情報を使って、レンダリング処理を行う。情報処理装置30の通信部30は、例えば、レンダリング処理により生成される推定画像のデータを、撮像装置50の通信部55に送信する。撮像装置50の表示部54は、例えば、情報処理装置30からの推定画像のデータを元に、推定画像を表示する。
なお、撮像装置50の通信部55は、情報処理装置3の通信部30と通信しなくてもよい。例えば、通信部55は、レンダリング処理の設定情報を、撮像装置2の通信部13に送信してもよい。通信部13は、撮像装置50の通信部55から受信した設定情報を、情報処理装置3の通信部30に送信してもよい。また、通信部13は、情報処理装置3の通信部30からレンダリング処理の結果を示す推定画像のデータを受信してもよい。通信部13は、情報処理装置3の通信部30から受信した推定画像のデータを、撮像装置50の通信部55に送信してもよい。撮像装置50の表示部54は、撮像装置2からの推定画像のデータを元に、推定画像を表示させてもよい。
上述した各実施形態の撮像システム1または撮像装置2は、例えば、CGなどを含む映像コンテンツの制作システムあるいは制作支援システムの少なくとも一部であってもよいし、血管や生体組織の可視化撮像システム、生物顕微鏡システム、欠陥検出システム又は物体計測システムの少なくとも一部であってもよい。また、撮像システム1または撮像装置2は、例えば、視野領域への物体、動物などの侵入、あるいは視野領域における物体、動物などの動きを検出する検出システムの少なくとも一部であってもよい。この検出システムは、例えば、セキュリティシステム、介護システム、監視システム、信号機システム、交通量などの統計データを取得する情報取得システムなどであってもよい。また、撮像システム1または撮像装置2は、シミュレータの少なくとも一部であってもよい。このシミュレータは、例えば、撮像装置2がモデルリングした空間(例、部屋)に物体(例、家具)、動物(例、人、ペット)を配置した場合の推定画像を生成してもよい。また、このシミュレータは、撮像装置2がモデルリングした物体、動物を、所定の空間(例、部屋)に配置した場合の推定画像を生成してもよい。
また、上記した各実施形態によれば、本実施形態における撮像システムは、対象物を撮像する第1撮像部及び対象物の表面上の各点からの距離を検出する第1測距部を含む第1検出部と、第1検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第1モデル情報を算出して、第1モデル情報を用いて第1特徴点データを生成する第1情報算出部と、を備える第1撮像装置(2、2a)と、対象物を撮像する第2撮像部及び対象物の表面上の各点からの距離を検出する第2測距部を含む第2検出部と、第2検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第2モデル情報を算出して、第2モデル情報を用いて第2特徴点データを生成する第2情報算出部と、を備える第2撮像装置(2、2b)と、第1撮像装置と第2撮像装置との間におけるデータ通信によって得られる第1特徴点データおよび第2特徴点データを用いて第1モデル情報と第2モデル情報とを統合して対象物の統合モデル情報を生成するモデル統合部(35、45)と、を備える構成であっても良い。このような構成の場合、モデル統合部は、少なくとも第1撮像装置、第2撮像装置、又は情報処理装置のいずれかに設けられてもよいし、別の外部端末(モデル統合処理装置)に設けられても良い。
なお、本発明の技術範囲は、上記の実施形態あるいは変形例に限定されるものではない。例えば、上記の実施形態あるいは変形例で説明した要件の1つ以上は、省略されることがある。また、上記の実施形態あるいは変形例で説明した要件は、適宜組み合わせることができる。
なお、撮像システム1が備える撮像装置の数は、3つ以上であってもよい。例えば、撮像システム1は、4台の撮像装置を備え、そのうち2台はモデル統合部を備え、残り2台はモデル統合部を備えていなくてもよい。例えば、モデル統合部を備える撮像装置は、モデル統合部を備えていない撮像装置からモデル情報を受信し、モデル統合を行ってもよい。この場合、第1統合モデル情報と、第2統合モデル情報とが算出され、情報処理装置3は、第1統合モデル情報と第2統合モデル情報とを統合してもよい。なお、本実施形態における撮像装置は、ウェアラブル端末であってもよく、腕や頭などに装着可能な装着部と、音声入力、入力ボタンやタッチ操作が可能な入力部とを本体部にそれぞれ備えていても良い。
1・・・撮像システム、2・・・撮像装置、3・・・情報処理装置、11・・・検出部、12・・・情報算出部、13・・・通信部、15・・・撮像部、16・・・測距部、18・・・イメージセンサ、19・・・照射部、21・・・イメージセンサ、
35・・・モデル統合部、OB・・・対象物

図15は、本実施形態に係る撮像システム1の動作を示す図である。以下の説明において、図10などと同等の処理については、同じ符号を付してその説明を省略あるいは簡略化する。第1撮像装置2aは、第1モデル情報を算出し(ステップS31)、第1特徴点データを算出する(ステップS32)。第2撮像装置2bは、第2モデル情報を算出し(ステップS33)、第2特徴点データを算出する(ステップS34)。第1撮像装置2aの通信部13aは、第1特徴点データを第2撮像装置2bの通信部13bに送信し(ステップS60)、通信部13bは、第1特徴点データを受信する(ステップS61)。通信部13bは、第2特徴点データを第1撮像装置2aの通信部13aに送信し(ステップS62)、通信部13aは、第2特徴点データを受信する(ステップS63)。
第1撮像装置2aのモデル統合部35aは、第1担当領域の第1モデル情報および第2担当領域の第2モデル情報を使って、モデル統合を行う(ステップS113)。そして、モデル統合部35aは、統合された統合モデル情報(第1統合モデル情報)をチェックする(ステップS114)。第2撮像装置2bのモデル統合部35bは、第1担当領域の第1モデル情報および第2担当領域の第2モデル情報を使って、モデル統合を行う(ステップS115)。そして、モデル統合部35bは、統合された統合モデル情報(第2統合モデル情報)をチェックする(ステップS116)。

Claims (29)

  1. 本体部と、
    対象物を撮像する撮像部、及び前記対象物の表面上の各点からの距離を検出する測距部を含む検出部と、
    前記本体部に設けられ、前記検出部の検出結果を使って、前記対象物の形状情報およびテクスチャ情報の少なくとも一方を算出する情報算出部と、
    前記情報算出部の算出結果を送信する通信部と、を備える撮像装置。
  2. 前記検出部の検出結果は、前記撮像部が撮像した撮像画像が含まれる、請求項1に記載の撮像装置。
  3. 前記情報算出部は、前記形状情報として、前記対象物の表面上の複数の点の座標と前記複数の点間の連結情報とを含むサーフェス情報を算出する、請求項1または請求項2に記載の撮像装置。
  4. 前記情報算出部は、前記形状情報および前記テクスチャ情報の少なくとも一方を含む情報にヘッダ情報を付けたモデル情報を生成し、
    前記通信部は、前記モデル情報を送信する、
    請求項1から請求項3のいずれか一項に記載の撮像装置。
  5. 前記情報算出部は、前記テクスチャ情報として、前記対象物を照らす光の光源情報を算出する、請求項1から請求項4のいずれか一項に記載の撮像装置。
  6. 前記通信部は、前記情報算出部が算出した前記算出結果を項目ごとに選択的に送信する、請求項1から請求項5のいずれか一項に記載の撮像装置。
  7. 前記通信部は、前記情報算出部が算出した前記算出結果の少なくとも一部の送信を要求する指令を、外部装置から受信し、
    前記通信部は、前記指令に指定された情報を送信する、請求項1から請求項6のいずれか一項に記載の撮像装置。
  8. 前記情報算出部は、算出した形状情報が示す第1部分に隣接する第2部分の形状情報を取得可能な前記検出部の検出方向を算出する、請求項1から7のいずれに一項に記載の撮像装置。
  9. 前記検出部の位置情報を検出する位置検出部を備え、
    前記検出部の位置情報は、前記検出部の検出方向と全地球測位情報との少なくとも一方を含む、請求項1から請求項8のいずれか一項に記載の撮像装置。
  10. 前記通信部は、前記検出部の位置情報と関連付けられた前記算出結果を送信する、請求項9に記載の撮像装置。
  11. 前記通信部は、前記検出部が前記対象物を検出するタイミングの情報を送信する、請求項1から請求項10のいずれか一項に記載の撮像装置。
  12. 前記通信部は、前記検出部が前記対象物を検出した時刻と関連付けられた前記算出結果を送信する、請求項1から請求項11のいずれか一項に記載の撮像装置。
  13. 前記対象物を第1方向から検出して得られる形状情報を含む第1モデル情報と、前記対象物を前記第1方向と異なる第2方向から検出して得られる形状情報を含む第2モデル情報とを統合するモデル統合部を備える、請求項1から請求項12のいずれか一項に記載の撮像装置。
  14. 前記モデル統合部は、前記第1モデル情報の形状情報が示す形状のうち他の部分と識別可能な第1特徴部分と、前記第2モデル情報の形状情報が示す形状のうち他の部分と識別可能な第2特徴部分とを対応させて、前記第1モデル情報と前記第2モデル情報とを統合する、請求項13に記載の撮像装置。
  15. 前記情報算出部は、前記撮像部の撮像結果および前記測距部の検出結果を使って、前記第2モデル情報を算出する、請求項13または請求項14に記載の撮像装置。
  16. 前記通信部は、前記第2モデル情報を外部装置から受信する、請求項13または請求項14に記載の撮像装置。
  17. 前記第2モデル情報は、前記第2方向から前記対象物を検出する検出部の位置情報を含む、請求項13から請求項16のいずれか一項に記載の撮像装置。
  18. 前記対象物に光を照射する照射部を備え、
    前記測距部は、前記照射部の照射により前記対象物から放射される光を検出した結果を使って、前記距離を検出する、請求項1から請求項17のいずれか一項に記載の撮像装置。
  19. 前記撮像部は、複数のイメージセンサを備え、
    前記測距部は、前記複数のイメージセンサの撮像結果を使って、前記距離を検出する、請求項1から請求項18のいずれか一項に記載の撮像装置。
  20. 前記測距部は、前記撮像部が複数の方向のそれぞれから前記対象物を撮像した撮像結果を使って、前記距離を検出する、請求項1から請求項19のいずれか一項に記載の撮像装置。
  21. 請求項1から請求項20のいずれか一項に記載の少なくとも1つの撮像装置の前記通信部から送信される前記算出結果を用いて、レンダリング処理を実行する、情報処理装置。
  22. 請求項1から請求項20のいずれか一項に記載の少なくとも1つの撮像装置と、
    前記通信部から送信される前記算出結果を使って、レンダリング処理を実行する情報処理装置と、を備える撮像システム。
  23. 前記少なくとも一つの撮像装置は、前記対象物を第3方向から検出して得られる形状情報を含む第3モデル情報、及び前記対象物を前記第3方向と異なる第4方向から検出して得られる形状情報を含む第4モデル情報を、前記情報処理装置に送信し、
    前記情報処理装置は、前記第3モデル情報と前記第4モデル情報とを統合するモデル統合部を備える、請求項22に記載の撮像システム。
  24. 請求項1から請求項20のいずれか一項に記載の複数の撮像装置と、
    前記複数の撮像装置のそれぞれの前記通信部から送信される前記算出結果を使って、レンダリング処理を実行する撮像処理装置と、を備える撮像システム。
  25. 請求項1から請求項20のいずれか一項に記載の少なくとも1つの撮像装置と、
    前記通信部から送信される前記算出結果を用いて、前記対象物の統合モデル情報を生成するモデル統合部と、
    を備える撮像システム。
  26. 対象物を撮像する第1撮像部及び前記対象物の表面上の各点からの距離を検出する第1測距部を含む第1検出部と、前記第1検出部の検出結果を用いて前記対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第1モデル情報を算出する第1情報算出部と、を備える第1撮像装置と、
    前記対象物を撮像する第2撮像部及び前記対象物の表面上の各点からの距離を検出する第2測距部を含む第2検出部と、前記第2検出部の検出結果を用いて前記対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第2モデル情報を算出する第2情報算出部と、を備える第2撮像装置と、
    前記第1モデル情報と前記第2モデル情報とを統合して前記対象物の統合モデル情報を生成するモデル統合部を有する情報処理装置と、
    を備える撮像システム。
  27. 対象物を撮像する第1撮像部及び前記対象物の表面上の各点からの距離を検出する第1測距部を含む第1検出部と、前記第1検出部の検出結果を用いて前記対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第1モデル情報を算出して、前記第1モデル情報を用いて第1特徴点データを生成する第1情報算出部と、を備える第1撮像装置と、
    前記対象物を撮像する第2撮像部及び前記対象物の表面上の各点からの距離を検出する第2測距部を含む第2検出部と、前記第2検出部の検出結果を用いて前記対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第2モデル情報を算出して、前記第2モデル情報を用いて第2特徴点データを生成する第2情報算出部と、を備える第2撮像装置と、
    前記第1撮像装置と前記第2撮像装置との間におけるデータ通信によって得られる前記第1特徴点データおよび前記第2特徴点データを用いて前記第1モデル情報と前記第2モデル情報とを統合して前記対象物の統合モデル情報を生成するモデル統合部と、
    を備える撮像システム。
  28. 前記モデル統合部を有する情報処理装置を備える、請求項27に記載の撮像システム。
  29. 前記第1撮像装置は、前記モデル統合部と、前記統合モデル情報を送信する第1通信部と、を備える、請求項27又は請求項28に記載の撮像システム。
JP2016546255A 2014-09-03 2014-09-03 撮像装置、情報処理装置、及び撮像システム Pending JPWO2016035181A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/073266 WO2016035181A1 (ja) 2014-09-03 2014-09-03 撮像装置、情報処理装置、及び撮像システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018242899A Division JP2019049572A (ja) 2018-12-26 2018-12-26 撮像装置、情報処理装置、及び撮像システム

Publications (1)

Publication Number Publication Date
JPWO2016035181A1 true JPWO2016035181A1 (ja) 2017-06-22

Family

ID=55439281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016546255A Pending JPWO2016035181A1 (ja) 2014-09-03 2014-09-03 撮像装置、情報処理装置、及び撮像システム

Country Status (4)

Country Link
US (1) US11151783B2 (ja)
EP (1) EP3190380B1 (ja)
JP (1) JPWO2016035181A1 (ja)
WO (1) WO2016035181A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11657539B2 (en) 2017-10-16 2023-05-23 Sony Corporation Information processing apparatus and information processing method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10282902B1 (en) * 2016-06-24 2019-05-07 Amazon Technologies, Inc. Real-time textured 3D models
JP6845774B2 (ja) * 2017-09-15 2021-03-24 株式会社東芝 距離計測装置
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634343A (ja) * 1992-07-20 1994-02-08 Oki Electric Ind Co Ltd 複数視点3次元画像入力装置、画像合成装置、及びその画像出力装置
JP2011027707A (ja) * 2009-06-25 2011-02-10 Sharp Corp 人物動作検出装置、遊具装置、人物動作検出方法、ゲーム方法、制御プログラムおよび可読記録媒体
JP2012142791A (ja) * 2010-12-28 2012-07-26 Casio Comput Co Ltd 三次元モデル作成システム、サーバ、及び、プログラム
JP2013101464A (ja) * 2011-11-08 2013-05-23 Canon Inc 画像処理装置および画像処理方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3785709B2 (ja) 1996-12-13 2006-06-14 ソニー株式会社 形状データの近似化方法及び描画装置
EP2286932A3 (en) 1999-04-07 2012-04-04 Federal Express Corporation System and method for dimensioning objects
JP3092105B1 (ja) 1999-07-30 2000-09-25 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
US7657083B2 (en) 2000-03-08 2010-02-02 Cyberextruder.Com, Inc. System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images
JP2002031513A (ja) 2000-07-14 2002-01-31 Minolta Co Ltd 3次元測定装置
US7130458B2 (en) 2000-10-24 2006-10-31 Affymetrix, Inc. Computer software system, method, and product for scanned image alignment
JP2002150315A (ja) 2000-11-09 2002-05-24 Minolta Co Ltd 画像処理装置および記録媒体
US20030235338A1 (en) 2002-06-19 2003-12-25 Meetrix Corporation Transmission of independently compressed video objects over internet protocol
US7660433B2 (en) 2002-08-27 2010-02-09 Dralle A/S Method and a system for automatic measurement and tracking of logs, industrial wood and boards
AU2003277240A1 (en) * 2002-10-15 2004-06-07 University Of Southern California Augmented virtual environments
JP2004191243A (ja) 2002-12-12 2004-07-08 Institute Of Physical & Chemical Research 自動撮影システム
US7295720B2 (en) 2003-03-19 2007-11-13 Mitsubishi Electric Research Laboratories Non-photorealistic camera
JP4610411B2 (ja) 2004-05-17 2011-01-12 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 物体を含むシーンの様式化された画像を生成する方法
JP2006295582A (ja) 2005-04-12 2006-10-26 Olympus Corp 画像処理装置と撮像装置、および画像処理プログラム
JP2008002995A (ja) 2006-06-23 2008-01-10 Konica Minolta Sensing Inc 三次元形状測定装置
JP2009168536A (ja) 2008-01-15 2009-07-30 Fujifilm Corp 3次元形状測定装置および方法、3次元形状再生装置および方法並びにプログラム
JP5093053B2 (ja) 2008-10-31 2012-12-05 カシオ計算機株式会社 電子カメラ
JP2010134546A (ja) 2008-12-02 2010-06-17 Nippon Telegr & Teleph Corp <Ntt> 視体積交差法による3次元形状復元装置、3次元形状復元方法および3次元形状復元プログラム
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
JP5393531B2 (ja) 2010-02-25 2014-01-22 キヤノン株式会社 位置姿勢推定装置、位置姿勢推定方法、プログラム、記憶媒体
JP5462093B2 (ja) 2010-07-05 2014-04-02 株式会社トプコン 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム
JP5158223B2 (ja) 2011-04-06 2013-03-06 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
WO2012141235A1 (ja) * 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
JP2014132219A (ja) 2011-04-20 2014-07-17 Sanyo Electric Co Ltd 情報取得装置および物体検出装置
JP5022508B1 (ja) 2011-06-02 2012-09-12 三菱重工業株式会社 形状計測方法
US8902302B2 (en) 2011-09-16 2014-12-02 Emerson Electric Co. Method and apparatus for surveying with a feature location
EP2602588A1 (en) * 2011-12-06 2013-06-12 Hexagon Technology Center GmbH Position and Orientation Determination in 6-DOF
US20140028799A1 (en) 2012-07-25 2014-01-30 James Kuffner Use of Color and Intensity Modulation of a Display for Three-Dimensional Object Information
EP2720171B1 (en) 2012-10-12 2015-04-08 MVTec Software GmbH Recognition and pose determination of 3D objects in multimodal scenes
US10674135B2 (en) * 2012-10-17 2020-06-02 DotProduct LLC Handheld portable optical scanner and method of using
US9470911B2 (en) * 2013-08-22 2016-10-18 Bespoke, Inc. Method and system to create products
US9661215B2 (en) 2014-04-22 2017-05-23 Snapaid Ltd. System and method for controlling a camera based on processing an image captured by other camera
JP5876121B2 (ja) 2014-09-08 2016-03-02 株式会社東芝 画像処理装置、方法、及びプログラム
US10033980B2 (en) 2016-08-22 2018-07-24 Amazon Technologies, Inc. Determining stereo distance information using imaging devices integrated into propeller blades

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634343A (ja) * 1992-07-20 1994-02-08 Oki Electric Ind Co Ltd 複数視点3次元画像入力装置、画像合成装置、及びその画像出力装置
JP2011027707A (ja) * 2009-06-25 2011-02-10 Sharp Corp 人物動作検出装置、遊具装置、人物動作検出方法、ゲーム方法、制御プログラムおよび可読記録媒体
JP2012142791A (ja) * 2010-12-28 2012-07-26 Casio Comput Co Ltd 三次元モデル作成システム、サーバ、及び、プログラム
JP2013101464A (ja) * 2011-11-08 2013-05-23 Canon Inc 画像処理装置および画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11657539B2 (en) 2017-10-16 2023-05-23 Sony Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
EP3190380A1 (en) 2017-07-12
US11151783B2 (en) 2021-10-19
EP3190380A4 (en) 2018-03-28
US20170228927A1 (en) 2017-08-10
EP3190380B1 (en) 2022-03-23
WO2016035181A1 (ja) 2016-03-10

Similar Documents

Publication Publication Date Title
US9912862B2 (en) System and method for assisted 3D scanning
CN111052727B (zh) 电子装置及其控制方法
JP6531823B2 (ja) 撮像システム、撮像装置、撮像方法、及び撮像プログラム
US10706571B2 (en) Imaging device, image processing device, storage medium, and imaging system
US11629950B2 (en) Detection device, detection system, detection method, and storage medium
US9984508B2 (en) Light-based radar system for augmented reality
CN105531720B (zh) 用于体内对象的大小估计的系统和方法
US20150369593A1 (en) Orthographic image capture system
JP6601489B2 (ja) 撮像システム、撮像装置、撮像方法、及び撮像プログラム
JP6045378B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11151783B2 (en) Image pickup device, information processing device, and image pickup system
JP7140209B2 (ja) 検出装置、情報処理装置、検出方法、及び情報処理プログラム
JP2023157018A (ja) 検出装置、情報処理装置、検出方法、検出プログラム、及び検出システム
JP7099506B2 (ja) 検出装置、検出方法、情報処理装置、及び処理プログラム
JP2019049572A (ja) 撮像装置、情報処理装置、及び撮像システム
US20210209786A1 (en) Detection device, method of detection, information processing device, and storage medium
JP2017161370A (ja) 検出装置、検出システム、検出方法、及び検出プログラム
WO2019198446A1 (ja) 検出装置、検出方法、情報処理装置、及び情報処理プログラム
US11967094B2 (en) Detecting device, information processing device, detecting method, and information processing program
US20210192679A1 (en) Electronic device and omni-directional image display method of electronic device
JP2021072024A (ja) 光沢取得状態算出装置、光沢取得状態算出方法、光沢取得状態算出プログラム、端末及び光沢取得状態表示プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190312