JP2018180687A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2018180687A
JP2018180687A JP2017075389A JP2017075389A JP2018180687A JP 2018180687 A JP2018180687 A JP 2018180687A JP 2017075389 A JP2017075389 A JP 2017075389A JP 2017075389 A JP2017075389 A JP 2017075389A JP 2018180687 A JP2018180687 A JP 2018180687A
Authority
JP
Japan
Prior art keywords
dimensional point
point group
range
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017075389A
Other languages
English (en)
Inventor
香織 田谷
Kaori Taya
香織 田谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017075389A priority Critical patent/JP2018180687A/ja
Priority to US15/934,131 priority patent/US10708505B2/en
Publication of JP2018180687A publication Critical patent/JP2018180687A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】3次元点群の範囲をユーザが精度よく指定できるようにする。【解決手段】本発明の一実施形態に係る画像処理装置は、同一の対象物を異なる視点から表す複数の画像データのうち表示された画像データ上で選択された選択範囲を取得する選択範囲取得手段と、選択範囲に含まれる2次元点群と対応する第1の範囲内3次元点群を、対応情報に基づいて抽出する第1の3次元点群抽出手段と、表示した画像データ以外のその他の画像データのそれぞれにおいて、第1の範囲内3次元点群と対応する2次元点群が含まれる領域内の第1の範囲内2次元点群を取得する第1の2次元点群取得手段と、その他の画像データのそれぞれで取得された第1の範囲内2次元点群に基づいて、選択範囲に対応する第2の範囲内3次元点群を推定する第2の3次元点群推定手段とを備える。【選択図】図2

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
近年、被写体の3次元形状データを取得する技術が発展してきている。被写体の3次元形状データは、例えば、レーザーによる3次元スキャナを用いた方法や、同一の被写体を異なる視点から撮影した複数の画像から推定する方法によって取得できる。取得した3次元形状データを編集する場合、ユーザは編集範囲を指定する必要がある。
特許文献1には、2次元テクスチャ上でユーザが指定した点の対応点を3次元空間内で求めて、対象の3次元形状のポリゴン(メッシュ)を特定する技術が開示されている。
特開2003−067778号公報
しかしながら、特許文献1に記載の技術ではポリゴン(メッシュ)を使用しているため、特定した3次元形状の精度が落ちてしまう。また、複数の画像から2次元テクスチャを生成する場合は、つなぎ目で不整合が生じてしまい、1つの画像から2次元テクスチャを生成する場合は、2次元テクスチャ上で認識できない部分(いわゆる、オクルージョン部分)を特定することができない。すなわち、従来技術では、ユーザは、3次元点群の範囲を精度よく指定することができない。
本発明は、このような課題に鑑みてなされたものであり、その目的とするところは、3次元点群の範囲をユーザが精度よく指定することが可能な画像処理装置、画像処理方法、及びプログラムを提供することにある。
本発明の一実施形態に係る画像処理装置は、同一の対象物を異なる視点から表す複数の画像データを取得する画像データ取得手段と、前記複数の画像データのそれぞれの2次元点群と、前記対象物の3次元点群と、前記2次元点群と前記3次元点群との対応情報とを取得する点群情報取得手段と、前記複数の画像データのうち表示された画像データ上で選択された選択範囲を取得する選択範囲取得手段と、前記選択範囲に含まれる2次元点群と対応する第1の範囲内3次元点群を、前記対応情報に基づいて抽出する第1の3次元点群抽出手段と、前記表示した画像データ以外のその他の画像データのそれぞれにおいて、前記第1の範囲内3次元点群と対応する2次元点群が含まれる領域内の第1の範囲内2次元点群を取得する第1の2次元点群取得手段と、前記その他の画像データのそれぞれで取得された前記第1の範囲内2次元点群に基づいて、前記選択範囲に対応する第2の範囲内3次元点群を推定する第2の3次元点群推定手段とを備えることを特徴とする。
本発明によれば、3次元点群の範囲をユーザが精度よく指定することが可能な画像処理装置、画像処理方法、及びプログラムを提供することができる。
実施形態1に係る画像処理装置の構成を示すブロック図である。 実施形態1に係る画像処理装置の機能ブロック図である。 実施形態1に係る画像処理方法の処理フロー図である。 実施形態1に係るグラフカット手法を説明する模式図である。 実施形態1に係る画像処理を説明する模式図である 実施形態2に係る画像処理装置の機能ブロック図である。 実施形態2に係る画像処理方法の処理フロー図である。 実施形態2に係る画像処理を説明する模式図である。 実施形態3に係る画像処理装置の機能ブロック図である。 実施形態3に係る画像処理方法の処理フロー図である。 実施形態3に係る画像処理を説明する模式図である。 実施形態4に係る画像処理装置の機能ブロック図である。 実施形態4に係る画像処理方法の処理フロー図である。 実施形態4に係る画像処理を説明する模式図である。
以下、本発明の実施形態について、添付の図面を参照して詳細に説明する。
<実施形態1>
本実施形態では、被写体(すなわち、対象物)の3次元点群と対応する複数の画像データと、その画像特徴点(以降、2次元点群とする)とを用いて、2次元画像における範囲選択と同様に直観的で簡易な方法で3次元点群の範囲選択を行う。また、本実施形態における3次元点群は、複数の画像の2次元点群からSfM(Structure from Motion)などの手法によって推定されたものである。なお、3次元点群はこれに限定されるものではなく、画像と3次元点群との対応が取れていれば、デプスセンサの値と画像とが対応付けられたものでも良い。
以下では、被写体を互いに異なる視点から撮影した4つの画像データを使う場合について説明するが、本実施形態は、4つの画像データに限定されるものではなく、2つ以上の画像データに対して適用することが可能である。また、本実施形態の画像データは、被写体を撮影したものに限定されない。すなわち、本実施形態は、同一の対象物を異なる視点から表す複数の画像データに対して適用することができる。
図1は、本実施形態に係る画像処理装置100の構成を示す。画像処理装置100は、CPU101と、RAM102と、ROM103と、記憶部104と、入力インターフェース105と、出力インターフェース106と、システムバス107とを含んで構成される。入力インターフェース105には、外部メモリ108が接続されており、出力インターフェース106には表示装置109が接続されている。
CPU101は、画像処理装置100の各構成要素を統括的に制御するプロセッサである。RAM102は、CPU101の主メモリ及びワークエリアとして機能するメモリである。ROM103は、画像処理装置100内の処理に用いられるプログラム等を格納するメモリである。CPU101は、RAM102をワークエリアとして使用し、ROM103に格納されたプログラムを実行することで、後述する様々な処理を実行する。
記憶部104は、画像処理装置100での処理に用いる画像データや、処理のためのパラメータ(すなわち、設定値)などを記憶する記憶デバイスである。記憶部104としては、HDDや光ディスクドライブ、フラッシュメモリなどを用いることができる。
入力インターフェース105は、例えばUSBやIEEE1394などのシリアルバスインターフェースである。画像処理装置100は、入力インターフェース105を介して、外部メモリ108(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)から処理対象の画像データ等を取得することができる。出力インターフェース106は、例えばDVIやHDMI(登録商標)などの映像出力端子である。画像処理装置100は、出力インターフェース106を介して、表示装置109(液晶ディスプレイなどの画像表示デバイス)に、画像処理装置100で処理した画像データを出力することができる。なお、画像処理装置100は、構成要素として上記以外のものも含み得るが、ここでの説明は省略する。
以下、図2及び図3を参照して、画像処理装置100における画像処理を説明する。図2は、本実施形態に係る画像処理装置100の機能ブロック図である。図3は、本実施形態に係る画像処理方法の処理フロー図である。本実施形態では、CPU101が、ROM103に格納されたプログラムを実行することにより、図2に記載の各ブロックとして機能し、図3の処理フローを実行する。尚、CPU101が必ずしも全ての機能を実行しなくてもよく、画像処理装置100内に各機能に対応する処理回路を設けてもよい。
ステップS301では、画像データ取得部201が、入力インターフェース105を介して外部メモリ108から複数の画像データを取得し、各画像データを識別する画像ID(画像識別子)と共にRAM102に格納する。複数の画像データはそれぞれ、同一の被写体を互いに異なる視点から撮影した画像データ、すなわち、同一の対象物を異なる視点から表す画像データである。
ステップS302では、点群情報取得部202が、入力インターフェース105を介して外部メモリ108から、複数の画像データのそれぞれに含まれる2次元点群座標、対象物の3次元点群座標、及び2次元点群と3次元点群との対応情報を取得する。取得した2次元点群、3次元点群、及び対応情報は、RAM102に格納される。
ステップS303では、選択画像表示部203が、複数の画像データの中からユーザによって選択された1つの画像データの画像IDを取得して、画像IDに対応する画像データをRAM102から取得する。すなわち、選択画像表示部203は、複数の画像データのうちユーザにより選択された画像データを表示すべき画像データとして決定する決定手段として機能する。選択画像表示部203は、取得した画像データを、出力インターフェース106を介して表示装置109に表示する。
ステップS304では、選択範囲取得部204が、表示装置109に表示された画像上でユーザが選択した選択範囲の2次元点群を取得し、RAM102に格納する。具体的な選択範囲の取得方法には、簡単な手法として、指定領域内の画素と隣接する画素のうち、指定領域内の画素との間の画素値の差分が閾値以下になる領域を選択範囲とする方法がある。また、近年、高精度な範囲選択の手法として、グラフカットと呼ばれる領域分割手法が提案されている。
図4は、グラフカット手法を説明する模式図である。グラフカット手法では、まず、図4(a)に示すように、画像に対応したグラフを生成し、範囲内のseed画素401と範囲外のseed画素402を与える。次いで、図4(b)に示すように、画素間の類似度を算出し、類似度が高い画素間を大きい重みのエッジ403で繋ぎ、類似度が低い画素間を小さい重みのエッジ404で繋ぐ。また、範囲内のseed画素401に類似する画素は、範囲内ノードS405に強い重みで繋ぎ、範囲外のseed画素402に類似する画素は、範囲外ノードT406に強い重みで繋ぐ。なお、類似しない画素間の重みの繋がりの図示はここでは省略する。最後に、図4(c)に示すように、カットするノードの和が最小になるようにグラフをカットし、範囲内ノードS405側を範囲内領域、範囲外ノードT406側を範囲外領域とする。具体的には、ユーザがマウスなどで指定した範囲の画素が、範囲内seed画素や範囲外seed画素になる。なお、画素間の類似性の指標には、画素間の色の類似度や、画像の特徴量の差の大きさから出したエッジの強度、近傍領域の色の分布、画素間の距離などがある。
ステップS305では、第1の3次元点群範囲推定部205が、ステップS304でRAM102に格納された選択範囲内にある2次元点群と対応する3次元点群を、ステップS302で取得した3次元点群から対応情報を基に抽出する。第1の3次元点群範囲推定部205は、抽出した3次元点群を第1の範囲内3次元点群としてRAM102に格納する。すなわち、第1の3次元点群範囲推定部205は、第1の3次元点群抽出手段として機能する。具体的には、RAM102に格納されている3次元点群に「範囲内」という属性を付加するようにしても良い。さらに、第1の3次元点群範囲推定部205は、ステップS304で選択範囲外とされた2次元点群と対応する3次元点群を対応情報に基づいて抽出して第1の範囲外3次元点群とし、RAM102に格納してもよい。また、それ以外の(表示画像では見えていない)3次元点群を対応情報に基づいて抽出して未分類3次元点群としてRAM102に格納してもよい。具体的には、第1の範囲外3次元点群に「範囲外」という属性を付加し、未分類3次元点群に「未分類」という属性を付加するようにしても良い。
次いで、ステップS306〜ステップS307では、ステップS301で取得した複数の画像データのうち、ステップS303で表示した画像データ以外のその他の画像データごとに、処理が行われる。
ステップS306では、画像範囲推定部206が、表示画像データ以外の1つの画像データについて、ステップS305で抽出した第1の範囲内3次元点群と対応する2次元点群を対応情報に基づいて抽出する。画像範囲推定部206は抽出した2次元点群を、第1の範囲内2次元点群としてRAM102に格納する。具体的には、RAM102に格納されている2次元点群に「範囲内」という属性を付加するようにしても良い。さらに、画像範囲推定部206は、ステップS305で抽出した第1の範囲外3次元点群及び未分類3次元点群に対応する2次元点群を対応情報に基づいて抽出し、第1の範囲外2次元点群及び第1の不明2次元点群としてRAM102に格納しても良い。
ステップS307では、画像範囲推定部206が、ステップS306で格納した第1の範囲内2次元点群を基に画像の領域分割を行い、第1の範囲内2次元点群以外の点群が第1の範囲内2次元点群と同じ領域に入るかどうかを判定する。画像範囲推定部206は、同じ領域に入る第1の範囲内2次元点群以外の点群を、第1の範囲内2次元点群として更新する(すなわち、第1の範囲内2次元点群に追加する)。さらに、第1の範囲外2次元点群と第1の不明2次元点群を用いる場合は、第1の不明2次元点群が第1の範囲内2次元点群と第1の範囲外2次元点群のどちらにより近いかを判定すれば良い。その場合は、第1の不明2次元点群のうち第1の範囲内2次元点群と近いと判定された点群を、第1の範囲内2次元点群に加えれば良い。この時、画像の範囲推定方法にはステップS304で説明した方法を用いれば良い。例えば、グラフカット手法を用いる場合には、範囲内seed401に更新前の第1の範囲内2次元点群を使えばよい。さらに範囲外点群がある場合には、範囲外seed402に更新前の第1の範囲外2次元点群を使えば良い。このように、ステップS306及びS307において、画像範囲推定部206は、第1の範囲内3次元点群と対応する2次元点群が含まれる同じ領域内にある第1の範囲内2次元点群を取得する第1の2次元点群取得手段として機能する。
ステップS308では、画像範囲推定部206が、処理対象となる全ての画像データについて処理が終わったかを判定し、未処理の画像データが残っている場合はステップS306に戻り、処理を繰り返す。一方、全ての画像データの処理が終わっていればステップS309に進む。ここで、処理対象の画像データは、第1の範囲内3次元点群が見えている全ての画像データ(すなわち、第1の範囲内3次元点群と対応する2次元点群が表示されている全ての画像データ)にすれば良い。
ステップS309では、第2の3次元点群範囲推定部207が、ステップS302で取得した3次元点群のうち、各画像データにおいて第1の範囲内2次元点群である割合が所定の閾値以上となった3次元点群を抽出する。第2の3次元点群範囲推定部207は、抽出した3次元点群を第2の範囲内3次元点群としてRAM102に格納する。ここで、所定の閾値である範囲内判定閾値は、入力インターフェース105を介して外部から取得される。具体的な閾値判定方法として、例えば、第1の範囲内3次元点群が見えている全ての画像データ数のうち、第1の範囲内2次元点群として判定された点群を含む画像データ数の割合で判定すれば良い。また、3次元点群の各点を、3次元座標が近く、類似性の高いものでエッジを繋ぎ、図4を参照して説明したグラフカット手法を用いて最小カットを求めることで第2の範囲内3次元点群を抽出しても良い。すなわち、第2の3次元点群範囲推定部207は、ユーザが2次元画像上で選択した選択範囲に対応する第2の範囲内3次元点群を推定する第2の3次元点群推定手段として機能する。
図5は、本実施形態に係る画像処理を説明する模式図である。以下、当該模式図を参照して、本実施形態に係る画像処理を説明する。
図5において、被写体(対象物)の3次元形状を表す3次元点群500は、9つの点1〜9を含む点群であり、被写体を異なる視点から撮影した4つの画像データ501、502、503、504が示されている。また、ステップS303では画像データ501が表示され、画像データ501の点線で囲まれた範囲を、ステップS304で取得した選択範囲とする。選択範囲には4つの点1〜4(2次元点群)が含まれ、ステップS305では3次元点群500のうち、4つの点1〜4が第1の範囲内3次元点群として抽出される。
別視点1の画像データ502では、画像の類似性で領域分割すると、2次元点群の点1〜4、7、8が1つの領域に含まれる。また、点1〜4は、第1の範囲内3次元点群に対応する第1の範囲内2次元点群なので、点1〜4と同じ領域に含まれる点7、8も画像データ502の第1の範囲内2次元点群となる(ステップS306、S307)。
別視点2の画像データ503では、画像の類似性で領域分割すると、2次元点群の点1、2、7、8と点9と点6とが3つの領域に分かれる。点1、2は第1の範囲内3次元点群に対応する第1の範囲内2次元点群なので、点1、2と同じ領域に含まれる点7、8も画像データ503の第1の範囲内2次元点群となる(ステップS306、S307)。
別視点3の画像データ504では、画像の類似性で領域分割すると、2次元点群の点1、4と点5、6と点9と点8とが4つの領域に分かれる。点1、4が第1の範囲内3次元点群に対応する第1の範囲内2次元点群であり、同じ領域に他の点群は含まれないので、点1、4が画像データ504の第1の範囲内2次元点群となる(ステップS306、S307)。
以上の結果を、表505にまとめる。各画像データの2次元点群のうち、第1の範囲内2次元点群である点を○で示し、第1の範囲内2次元点群ではない点を×で示す。なお、表505における空欄は、被写体の3次元点群のうち、各画像データに対応する2次元点群が含まれていない点群(オクルージョン)を示す。
表505より、第1の範囲内2次元点群の割合は、点1〜4、7では100%、点8では66.7%、点5、6、9では0%である。第2の範囲内3次元点群として判定するための閾値(範囲内判定閾値)を50%とすると、点1〜4、7、8が第2の範囲内3次元点群として抽出される(ステップS309)。
本実施例では、第1の範囲内2次元点群である点群の割合を判定したが、画像の類似性と、第1の範囲内2次元点群及び第1の範囲外2次元点群との画素間の距離を重みづけして評価値を算出し、平均値を割り出して閾値処理しても良い。また、第1の範囲内3次元点群のうち、選択画像で選択範囲内と選択範囲外の境界近くに有った点は境界点として、複数の画像の領域分割の際の重み(信頼度)を下げるように設定しても良い。
本実施形態ではこのようにして、1つの2次元画像上の選択範囲から、当該範囲と隣接した類似する範囲まで自動的に3次元点群の範囲選択を行うことができる。
以上説明したように、本実施形態によると、2次元画像上でユーザが選択した範囲に対応する3次元点群の範囲を精度よく推定することができる。
<実施形態2>
実施形態2では、上述した実施形態1で出力された第2の範囲内3次元点群を用いて、同一の対象物を異なる視点から表す複数の画像データにおける範囲選択を行う。
上述した実施形態1では、各画像データにおいて3次元点群に対応する2次元点群が正しく設定されていることが前提になっているが、3次元点群に対応する2次元点群が正しく設定されていない場合もある。例えば、被写体に光沢異方性があって3次元的に同じ領域が画像上では同じように見えなかったり、ダイナミックレンジの違いによりある画像では見えている階調が別の画像では見えていなかったりする場合がある。そのような場合、3次元点群と2次元点群との対応が正しく設定されない。そこで、本実施形態では、3次元点群に対応する2次元点群が正しく設定されていない場合でも、第2の範囲内3次元点群を用いた複数の画像データにおける範囲選択を精度よく行うことを可能にする。
以下、図6及び図7を参照して、本実施形態に係る画像処理装置100における画像処理を説明する。図6は、本実施形態に係る画像処理装置100の機能ブロック図である。図7は、本実施形態に係る画像処理方法の処理フロー図である。
図6の機能ブロック図は、図2の機能ブロック図と比較して、オクルージョン判定部608と第2の画像範囲推定部609とをさらに備える。本実施形態では、主に、オクルージョン判定部608及び第2の画像範囲推定部609によって、実施形態1で出力された第2の範囲内3次元点群を用いた複数の画像データにおける範囲選択処理が実施される。
図6のブロック601〜607は、図2のブロック201〜207と同様であり、本実施形態における点群情報取得部602は、複数の画像データのそれぞれを撮影したカメラのカメラ位置姿勢情報(以下、カメラ位置姿勢とも記載する。)をさらに取得する。カメラ位置姿勢情報には、カメラの位置情報及びカメラの向きが含まれる。なお、カメラ位置姿勢は、各画像データで表された対象物に対する視点の位置情報及び向きを含む視点位置姿勢であればよい。具体的には、点群情報取得部602は、図2の点群情報取得部202と比較して、入力インターフェース105を介して外部メモリ108から、複数の画像データのそれぞれに対応するカメラ位置姿勢情報をさらに取得し、RAM102に格納する。
また、本実施形態においても、CPU101が、ROM103に格納されたプログラムを実行することにより、図6に記載の各ブロックとして機能し、図7の処理フローを実行する。また、CPU101が必ずしも全ての機能を実行しなくてもよく、画像処理装置100内に各機能に対応する処理回路を設けてもよい。
ステップS701では、オクルージョン判定部608が、RAM102に格納された3次元点群座標と、2次元点群座標と、それらの対応情報と、複数の画像データのそれぞれに対応するカメラ位置姿勢(視点位置姿勢)とを取得する。
ステップS702では、オクルージョン判定部608が、RAM102に格納された第2の範囲内3次元点群を取得する。このときさらに、RAM102に格納された3次元点群のうち、第2の範囲内3次元点群以外の範囲外3次元点群を取得しても良い。
以降、ステップS703〜S707における処理は、複数の画像データのそれぞれに対して行われる。また、処理対象の画像データを識別する画像IDを、処理画像IDとして記述する。
ステップS703では、オクルージョン判定部608が、処理画像IDの画像データの2次元点群のうち、第2の範囲内3次元点群との対応がある点群を、処理画像IDの画像データの第2の範囲内2次元点群として抽出する。すなわち、オクルージョン判定部608は、第2の2次元点群抽出手段として機能する。オクルージョン判定部608は、抽出した第2の範囲内2次元点群をRAM102に格納する。このときさらに、処理画像IDの画像データの2次元点群のうち、範囲外3次元点群との対応がある点群を、処理画像IDの画像データにおける第2の範囲外2次元点群として抽出し、RAM102に格納しても良い。
ステップS704では、オクルージョン判定部608が、第2の範囲内3次元点群のうち、処理画像IDの画像データの2次元点群との対応がない点群を、未対応範囲内3次元点群として抽出する。すなわち、オクルージョン判定部608は、未対応の3次元点群抽出手段として機能する。オクルージョン判定部608は、抽出した未対応範囲内3次元点群をRAM102に格納する。未対応範囲内3次元点群には、例えば、処理画像IDの画像データにおいて光沢異方性などの理由により2次元点群と対応するように正しく設定されていなかった点群が含まれる。
ステップS705では、オクルージョン判定部608と第2の画像範囲推定部609が、RAM102に格納された処理画像IDの画像データを取得する。
ステップS706では、オクルージョン判定部608が、未対応範囲内3次元点群を、処理画像IDの画像データに対応するカメラ位置姿勢で2次元画像に射影し、射影した点群がオクルージョンかどうか判定する。オクルージョン判定部608は、オクルージョンでない点群を第2の範囲内2次元点群に追加する。すなわち、オクルージョン判定部608は、第2の2次元点群追加手段として機能する。具体的には、例えば、未対応範囲内3次元点群に対応する他の画像データにおける2次元点群近傍の色と、射影した点群近傍の色が類似している場合はオクルージョンでないと判定し、異なる場合はオクルージョンであると判定すれば良い。
このように、オクルージョン判定部608は、第2の範囲内3次元点群に対応する2次元点群を含む第2の範囲内2次元点群を取得する第2の2次元点群取得手段として機能する。
ステップS707では、第2の画像範囲推定部609が、第2の範囲内2次元点群と画像の類似性を基に、第2の範囲内2次元点群に対応する画像範囲を推定し、出力する。この時、画像範囲の推定方法にはステップS304で説明した方法を用いれば良い。例えば、グラフカット手法を用いる場合には、範囲内seed401に第2の範囲内2次元点群を使えば良い。さらに第2の範囲外2次元点群がある場合には、範囲外seed402に第2の範囲外2次元点群を使えば良い。このように、第2の画像範囲推定部609は、第2の範囲内2次元点群に対応する画像範囲を推定する画像範囲推定手段として機能する。
ステップS708では、第2の画像範囲推定部609が、全ての画像データについて処理が終了したかどうかを判定し、終了していなければステップS703に戻り、処理を繰り返す。一方、全ての画像データの処理が終了していれば処理フローを終了する。
以上説明したように、本実施形態では、実施形態1で出力された第2の範囲内3次元点群を用いて、同一の対象物を異なる視点から表す複数の画像データにおける画像範囲を推定し、出力する。
図8は、本実施形態に係る画像処理を説明する模式図である。以下、図8を参照して、本実施形態に係る画像処理を説明する。
図8(A)において、被写体の3次元形状を表す3次元点群800は、9つの点1〜9を含む点群であり、被写体を異なる視点から撮影した5つの画像データ8A01、8A02、8A03、8A04、8A05が示されている。また、ステップS303では画像データ8A01が表示され、画像データ8A01の点線で囲まれた範囲を、ステップS304で選択された範囲とする。選択範囲には3つの点1、3、4(2次元点群)が含まれ、ステップS305では3次元点群800のうち、3つの点1、3、4が第1の範囲内3次元点群として抽出される。
また、図8(A)では、別視点2の画像データ8A03において、光沢異方性やダイナミックレンジの違いのために点3が認識できていないものとする。すなわち、点3は、オクルージョンではないのに認識されていない点(すなわち、正しく設定されていない点)である。
別視点1の画像データ8A02では、画像の類似性で領域分割すると、2次元点群の点1、3、4と点2、7、8とが2つの領域に分かれる。点1、3、4が第1の範囲内3次元点群に対応する第1の範囲内2次元点群であり、同じ領域にその他の点群は含まれないので、点1、3、4が画像データ8A02の第1の範囲内2次元点群となる。
別視点2の画像データ8A03では、画像の類似性で領域分割すると、2次元点群の点1、4と点2、7、8が2つの領域に分かれる。点1、4が第1の範囲内3次元点群に対応する第1の範囲内2次元点群であり、同じ領域にその他の点群は含まれないので、点1、4が画像データ8A03の第1の範囲内2次元点群となる。
別視点3の画像データ8A04では、画像の類似性で領域分割すると、2次元点群の点1と点2、7〜9と点6とが3つの領域に分かれる。点1が第1の範囲内3次元点群に対応する第1の範囲内2次元点群であり、同じ領域にその他の点群は含まれないので、点1が画像データ8A04の第1の範囲内2次元点群となる。
別視点4の画像データ8A05では、画像の類似性で領域分割すると、2次元点群の点1、4と点5、6と点8、9とが4つの領域に分かれる。点1、4が第1の範囲内3次元点群に対応する第1の範囲内2次元点群であり、同じ領域にその他の点群は含まれないので、点1、4が画像データ8A05の第1の範囲内2次元点群となる。
以上の結果を、表8A06にまとめる。各画像データの2次元点群のうち、第1の範囲内2次元点群である点を○で示し、第1の範囲内2次元点群でない点を×で示す。なお、表8A06における空欄は、被写体の3次元点群のうち、各画像データに対応する2次元点群が含まれていない点群(オクルージョン)を示す。
表8A06より、第1の範囲内2次元点群となった割合は、点1、3、4では100%、点2、5〜9では0%である。第2の3次元点群として判定するための閾値(範囲内判定閾値)を50%とすると、点1、3、4が第2の範囲内3次元点群として抽出される。表8A06において、オクルージョンではないのに対応が正しく取れていない別視点2の点3は、斜線を付したセルで表してある。
ここで、図8(A)において各画像データの点線で囲まれた部分を、第1の画像範囲とする。
次に、オクルージョン判定部608が、各画像データにおいて、2次元点群との対応がない未対応の範囲内3次元点群のオクルージョン判定を行う。その結果、別視点2の画像データ8A03において、点3がオクルージョンではないと判定される(ステップS706)。
次に、オクルージョンでないと判定された点群がある画像、この例では別視点2の画像データ8A03に対して、第2の画像範囲推定部609が、再び画像の類似性と範囲内3次元点群の情報を基に領域分割を行う(ステップS707)。その結果、図8(B)に示すように、別視点2の画像データ8A03の点線で図示した点1、3、4の近傍領域が、新たな第2の画像範囲となる。
この例では存在しないが、第2の範囲内3次元点群と第1の範囲内2次元点群の整合性が取れていない点があれば第1の画像範囲を更新して第2の画像範囲とすることが望ましい。具体的には、第2の範囲内3次元点群には対応しないが第1の範囲内2次元点群である点、逆に第2の範囲内3次元点群に対応するが第1の範囲内2次元点群でない点があれば、第2の範囲内2次元点群の情報を更新して第2の画像範囲を求めれば良い。
このようにして、3次元点群に対応する2次元点群が正しく設定できていない場合でも、1枚の選択画像における選択範囲から、選択範囲と隣接した類似する範囲まで自動的に複数の画像データの範囲選択ができる。
以上説明したように、本実施形態によると、上述した実施形態1で出力された第2の範囲内3次元点群を用いて、同一の対象物を異なる視点から表す複数の画像データにおける範囲選択を行うことができる。また、3次元点群に対応する2次元点群が正しく設定されていない場合でも、複数の画像データにおいて精度よく範囲選択を行うことができる。
<実施形態3>
実施形態3では、上述した実施形態1のステップS303で表示する画像をユーザが選択する際の処理について説明する。ステップS303では、複数の画像データの中から範囲選択に用いる画像データをユーザが選択するが、画像データの数が多い場合には所望の3次元点群の範囲を含む画像データを選択することは困難である。そこで、本実施形態では、所望の3次元点群の範囲が見やすい仮想視点を設定し、仮想視点に対する近傍設定に応じて仮想視点に近い視点の1または複数の画像データを自動的に選択して、ユーザに提示する。
以下、図9及び図10を参照して、本実施形態に係る画像処理装置100における画像処理を説明する。図9は、本実施形態に係る画像処理装置100の機能ブロック図である。図10は、本実施形態に係る画像処理方法の処理フロー図である。
図9の機能ブロック図は、図2の機能ブロック図と比較して、点群表示部903と表示視点近傍画像選択部904とをさらに備える。図9のブロック901、902、905〜908は図2のブロック201、202、204〜207と同様であり、本実施形態における点群情報取得部902は、複数の画像データのそれぞれを撮影したカメラのカメラ位置姿勢(視点位置姿勢)をさらに取得する。具体的には、点群情報取得部902は、図2の点群情報取得部202と比較して、入力インターフェース105を介して外部メモリ108から、複数の画像データのそれぞれに対応するカメラ位置姿勢をさらに取得し、RAM102に格納する。
また、本実施形態においても、CPU101が、ROM103に格納されたプログラムを実行することにより、図9に記載の各ブロックとして機能し、図10の処理フローを実行する。また、CPU101が必ずしも全ての機能を実行しなくてもよく、画像処理装置100内に各機能に対応する処理回路を設けてもよい。
ステップS1001では、点群情報取得部902が、入力インターフェース105を介して外部メモリ108から複数の画像データのそれぞれに対応するカメラ位置姿勢(視点位置姿勢)を取得し、RAM102に格納する。
ステップS1002では、点群表示部903が、入力インターフェース105を介して外部メモリ108から仮想視点位置姿勢情報及び近傍設定情報を取得し、RAM102に格納する。仮想視点位置姿勢情報には、仮想視点の位置情報及び向きが含まれる。近傍設定情報は、カメラ位置姿勢と仮想視点位置姿勢との内積の値についての閾値情報である。さらに、点群表示部903は、ステップS302で取得した3次元点群を仮想視点位置姿勢に対して射影して表示画像を生成し、出力インターフェース106を介して表示装置109に表示する。
以降、ステップS1003〜S1005における処理は、複数の画像データのそれぞれに対して行われる。
ステップS1003では、表示視点近傍画像選択部904が、処理対処の画像データについて、ステップS1001で取得したカメラ位置姿勢と、ステップS1002で取得した仮想視点位置姿勢との内積を計算し、内積の値を算出する。
ステップS1004では、表示視点近傍画像選択部904が、ステップS1003で算出した内積の値が、ステップS1002で取得した近傍設定の値以上であるかどうかを判定する。内積の値が近傍設定の値以上である場合は、ステップS1005に進み、内積の値が近傍設定の値より小さい場合は、ステップS1005における処理を行なわずに、ステップS1006に進む。
ステップS1005では、表示視点近傍画像選択部904が、内積の値と、処理対象の画像データの画像IDとを対応付けて、近傍画像リストとしてRAM102に格納する。
ステップS1006では、表示視点近傍画像選択部904が、全ての画像データのカメラ位置姿勢で内積の値を算出したかどうかを判定する。全ての画像データのカメラ位置姿勢で内積の値が算出されている場合は、ステップS1007に進み、そうでない場合はステップS1003に戻り、処理を繰り返す。
ステップS1007では、表示視点近傍画像選択部904が、近傍画像リストを内積の値が大きい順にソートし、その順番で画像IDに対応する画像データを、出力インターフェース106を介して表示装置109に表示する。このように、表示視点近傍画像選択部904は、仮想視点の近傍の視点に対応する1または複数の画像データを選択して表示する画像表示手段として機能する。
図11は、本実施形態に係る画像処理を説明する模式図である。以下、図11を参照して、本実施形態に係る画像処理を説明する。
図11において、被写体の3次元形状を表す3次元点群1100は、9つの点1〜9を含む点群であり、被写体を異なる視点から撮影した4つの画像データ1106、1107、1108、1109が示されている。
ここでは、点群表示部903が取得した仮想視点位置姿勢1101と、各カメラ位置姿勢との内積の値に対する近傍設定の値を0とする。この場合、仮想視点位置姿勢との内積が近傍設定の値以上(すなわち、なす角度が90度以下)のカメラ位置姿勢は、カメラ位置姿勢1102(なす角度1104)と、カメラ位置姿勢1103(なす角度1105)となる。したがって、近傍画像リストには、カメラ位置姿勢1102の近傍画像1106の画像IDと、カメラ位置姿勢1103の近傍画像1107の画像IDと、それらの内積の値とが、対応付けられて含まれることとなる。
この結果、表示視点近傍画像選択部904が近傍画像1106と近傍画像1107を表示することで、ユーザは仮想視点位置姿勢に遠い画像まで確認することなく、仮想視点位置姿勢の近傍の画像の中から所望の画像を選択することができる。
以上説明したように、本実施形態によると、ユーザは、画像データの数が多い場合でも、所望の3次元点群の範囲を含む画像データを容易に選択することができる。
<実施形態4>
実施形態4では、上述した実施形態1のステップS303で表示する画像を画像処理装置100が生成する処理について説明する。上述した実施形態3では、複数の画像データのうち仮想視点位置姿勢の近傍にある画像をユーザに提示したが、本実施形態では、画像処理装置100が仮想視点位置姿勢と同じ視点の画像を生成してユーザに提示する。
以下、図12及び図13を参照して、本実施形態に係る画像処理装置100における画像処理を説明する。図12は、本実施形態に係る画像処理装置100の機能ブロック図である。図13は、本実施形態に係る画像処理装置方法の処理フロー図である。
図12の機能ブロック図は、図2の機能ブロック図と比較して、点群表示部1203と表示視点画像生成・表示部1204とをさらに備える。図12のブロック1201、1202、1205〜1208は、図2のブロック201、202、204〜207と同様である。なお、本実施形態における点群情報取得部1202は、複数の画像データのそれぞれに対応するカメラ位置姿勢(視点位置姿勢)をさらに取得する。具体的には、点群情報取得部1202は、図2の点群情報取得部202と比較して、入力インターフェース105を介して外部メモリ108から、複数の画像データのそれぞれに対応するカメラ位置姿勢をさらに取得し、RAM102に格納する。
また、図13の処理フローにおいて、上述した実施形態3における図10の処理ステップと同様の処理ステップの説明は省略する。
また、本実施形態においても、CPU101が、ROM103に格納されたプログラムを実行することにより、図12に記載の各ブロックとして機能し、図13の処理フローを実行する。また、CPU101が必ずしも全ての機能を実行しなくてもよく、画像処理装置100内に各機能に対応する処理回路を設けてもよい。
ステップS1301及びステップS1302は、図10のステップS1001及びステップS1002と同様であるため、説明は省略する。
ステップS1303では、表示視点画像生成・表示部1204が、入力インターフェース105を介して外部メモリ108から、表示設定を取得し、RAM102に格納する。表示設定とは、対象の点が見えているカメラ位置姿勢(すなわち、視点)の所定の数を表す。詳細は後述する。
ステップS1304では、表示視点画像生成・表示部1204が、RAM102に格納されている3次元点群と2次元点群との対応情報を取得する。
以降、ステップS1305〜S1308において、図10のステップS1003〜S1006と同様の処理を行い、近傍画像リストを生成する。ステップS1305〜S1308の処理は、図10のステップS1003〜S1006と同様であるため、説明は省略する。
ステップS1309では、表示視点画像生成・表示部1204が、近傍画像リストの画像IDに対応する画像データの中から表示設定値以上の画像データに含まれる2次元点群を取得し、取得した2次元点群に対応する3次元点群を対応情報に基づいて抽出する。表示視点画像生成・表示部1204は、抽出した3次元点群を表示3次元点群に設定する。例えば、表示設定値が2視点以上の画像データから見えている点という設定である場合、所定の数以上の画像データとして2視点以上の画像データから見えている3次元点群が、表示3次元点群に設定される。
ステップS1310では、表示視点画像生成・表示部1204が、3次元点群を仮想視点位置姿勢に対して射影した画像(表示視点画像)を生成し、表示3次元点群を識別可能なように表示する。表示視点画像では、表示3次元点群とそれ以外の3次元点群とが表示方法を変えて表示される。例えば、表示3次元点群を濃い色、それ以外の3次元点群を薄い色で表示したり、表示3次元点群だけを表示するようにしたりすれば良い。このように、表示視点画像生成・表示部1204は、表示視点画像の画像生成表示手段として機能する。
図14は、本実施形態に係る画像処理方法を説明する模式図である。以下、図14を参照して、本実施形態に係る画像処理方法を説明する。
図14において、被写体の3次元形状を表す3次元点群1400は、9つの点1〜9を含む点群であり、被写体を異なる視点から撮影した4つの画像データ1406、1407、1408、1409が示されている。
ここでは、点群表示部1203が取得した仮想視点位置姿勢1401と、各カメラ位置姿勢との内積の値に対する近傍設定の値を0とする。この場合、仮想視点位置姿勢との内積が近傍設定の値以上(すなわち、なす角度が90度以下)のカメラ位置姿勢は、カメラ位置姿勢1402(なす角度1404)と、カメラ位置姿勢1403(なす角度1405)となる。したがって、近傍画像リストには、カメラ位置姿勢1402の近傍画像1406の画像IDと、カメラ位置姿勢1403の近傍画像1407の画像IDと、それらの内積の値とが、対応付けられて含まれることとなる。
ここで、表示設定の値を、3次元点群のうち、2視点以上のカメラ位置姿勢から見えている点(2つ以上の画像データ上で表示されている点)とすると、表示3次元点群は点1、4、5、6を含む点群になる。
この結果、表示視点画像生成・表示部1204が表示3次元点群だけを表示する場合、点1、4、5、6を含む表示視点画像1410が表示される。したがって、仮想視点位置姿勢1401から被写体を見た時には見えないはずの点2、3、7、8、9が表示されないため、ユーザによって点群の選択が簡単になる。
以上説明したように、本実施形態によると、仮想視点位置姿勢と同じ視点から見た画像を生成して表示することで、ユーザは、仮想視点位置姿勢と同じ視点での範囲選択を容易に行うことができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1以上のプロセッサがプログラムを読出して実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
201 画像データ取得部
202 点群情報取得部
203 選択画像表示部
204 選択範囲取得部
205 第1の3次元点群範囲推定部
206 画像範囲推定部
207 第2の3次元点群範囲推定部

Claims (12)

  1. 同一の対象物を異なる視点から表す複数の画像データを取得する画像データ取得手段と、
    前記複数の画像データのそれぞれの2次元点群と、前記対象物の3次元点群と、前記2次元点群と前記3次元点群との対応情報とを取得する点群情報取得手段と、
    前記複数の画像データのうち表示された画像データ上で選択された選択範囲を取得する選択範囲取得手段と、
    前記選択範囲に含まれる2次元点群と対応する第1の範囲内3次元点群を、前記対応情報に基づいて抽出する第1の3次元点群抽出手段と、
    前記表示した画像データ以外のその他の画像データのそれぞれにおいて、前記第1の範囲内3次元点群と対応する2次元点群が含まれる領域内の第1の範囲内2次元点群を取得する第1の2次元点群取得手段と、
    前記その他の画像データのそれぞれで取得された前記第1の範囲内2次元点群に基づいて、前記選択範囲に対応する第2の範囲内3次元点群を推定する第2の3次元点群推定手段と
    を備えることを特徴とする画像処理装置。
  2. 前記第1の3次元点群抽出手段は、前記選択範囲の外にある2次元点群と対応する第1の範囲外3次元点群を前記対応情報に基づいて抽出し、
    前記第1の2次元点群取得手段は、前記第1の範囲内3次元点群及び前記第1の範囲外3次元点群ではない未分類の3次元点群に対応する第1の不明2次元点群のうち、前記第1の範囲外3次元点群に対応する第1の範囲外2次元点群より前記第1の範囲内2次元点群に近い2次元点群を、前記第1の範囲内2次元点群に加える、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第2の3次元点群推定手段は、前記対象物の3次元点群のうち、各画像データにおいて前記第1の範囲内2次元点群である割合が所定の閾値以上となった3次元点群を、前記第2の範囲内3次元点群として推定することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第1の2次元点群取得手段は、前記2次元点群が含まれる領域を、画素間の色の類似度及び画素間の距離の少なくとも1つに基づく類似性によって判定することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記第1の2次元点群取得手段は、前記2次元点群が含まれる領域を、グラフカット手法を用いて判定することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  6. 前記複数の画像データのそれぞれにおいて、前記第2の範囲内3次元点群に対応する2次元点群を含む第2の範囲内2次元点群を取得する第2の2次元点群取得手段と、
    前記複数の画像データのそれぞれにおいて、前記第2の範囲内2次元点群に対応する画像範囲を推定する画像範囲推定手段と
    を備えることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記第2の2次元点群取得手段は、
    前記複数の画像データのそれぞれにおいて、前記第2の範囲内3次元点群に対応する前記第2の範囲内2次元点群を、前記対応情報に基づいて抽出する第2の2次元点群抽出手段と、
    前記複数の画像データのそれぞれにおいて、前記第2の範囲内3次元点群のうち、前記第2の範囲内2次元点群に対応しない未対応の3次元点群を抽出する未対応の3次元点群抽出手段と、
    前記未対応の3次元点群を、前記複数の画像データのそれぞれにおける視点位置姿勢に基づいて2次元画像に射影し、前記射影された2次元画像における2次元点群のうち、オクルージョンでない2次元点群を前記第2の範囲内2次元点群に追加する第2の2次元点群追加手段と
    を有することを特徴とする請求項6に記載の画像処理装置。
  8. 前記複数の画像データのそれぞれにおける視点位置姿勢と仮想視点の位置姿勢との内積の値を算出し、所定の値以上の内積の値が算出された前記視点位置姿勢に対応する画像データを表示する画像表示手段を備えることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記複数の画像データのそれぞれにおける視点位置姿勢と仮想視点の位置姿勢との内積の値を算出し、所定の値以上の内積の値が算出された前記視点位置姿勢に対応する画像データの中から、所定の数以上の画像データに含まれる2次元点群を取得し、前記取得した2次元点群に対応する表示3次元点群を前記対応情報に基づいて抽出し、前記対象物の3次元点群を前記仮想視点の位置姿勢に対して射影した画像を生成して、前記表示3次元点群を識別可能なように表示する画像生成表示手段を備えることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  10. 前記複数の画像データのうちユーザにより選択された画像データを表示すべき画像データとして決定する決定手段を備えることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 画像処理装置によって実行される画像処理方法であって、
    同一の対象物を異なる視点から表す複数の画像データを取得する画像データ取得工程と、
    前記複数の画像データのそれぞれの2次元点群と、前記対象物の3次元点群と、前記2次元点群と前記3次元点群との対応情報とを取得する点群情報取得工程と、
    前記複数の画像データのうち表示された画像データ上で選択された選択範囲を取得する選択範囲取得工程と、
    前記選択範囲に含まれる2次元点群と対応する第1の範囲内3次元点群を、前記対応情報に基づいて抽出する第1の3次元点群抽出工程と、
    前記表示した画像データ以外のその他の画像データのそれぞれにおいて、前記第1の範囲内3次元点群と対応する2次元点群が含まれる領域内の第1の範囲内2次元点群を取得する第1の2次元点群取得工程と、
    前記その他の画像データのそれぞれで取得された前記第1の範囲内2次元点群に基づいて、前記選択範囲に対応する第2の範囲内3次元点群を推定する第2の3次元点群推定工程と
    を含むことを特徴とする画像処理方法。
  12. コンピュータを請求項1乃至10のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2017075389A 2017-04-05 2017-04-05 画像処理装置、画像処理方法、及びプログラム Withdrawn JP2018180687A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017075389A JP2018180687A (ja) 2017-04-05 2017-04-05 画像処理装置、画像処理方法、及びプログラム
US15/934,131 US10708505B2 (en) 2017-04-05 2018-03-23 Image processing apparatus, method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017075389A JP2018180687A (ja) 2017-04-05 2017-04-05 画像処理装置、画像処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2018180687A true JP2018180687A (ja) 2018-11-15

Family

ID=63710094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017075389A Withdrawn JP2018180687A (ja) 2017-04-05 2017-04-05 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10708505B2 (ja)
JP (1) JP2018180687A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021181524A1 (ja) * 2020-03-10 2021-09-16

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10664993B1 (en) 2017-03-13 2020-05-26 Occipital, Inc. System for determining a pose of an object
JP2018197674A (ja) * 2017-05-23 2018-12-13 オリンパス株式会社 計測装置の作動方法、計測装置、計測システム、3次元形状復元装置、およびプログラム
CN113647093A (zh) * 2019-04-12 2021-11-12 索尼集团公司 图像处理装置、3d模型生成方法和程序
JP7418101B2 (ja) * 2019-07-26 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067778A (ja) 2001-08-28 2003-03-07 Sony Corp 3次元画像処理装置及び3次元画像処理方法、並びに記憶媒体
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US8817067B1 (en) * 2011-07-29 2014-08-26 Google Inc. Interface for applying a photogrammetry algorithm to panoramic photographic images
EP2915038A4 (en) * 2012-10-31 2016-06-29 Outward Inc DELIVERY OF VIRTUALIZED CONTENT
KR20140122054A (ko) * 2013-04-09 2014-10-17 삼성전자주식회사 2차원 이미지를 3차원 이미지로 변환하는 3차원 이미지 변환 장치 및 그 제어 방법
US10719939B2 (en) * 2014-10-31 2020-07-21 Fyusion, Inc. Real-time mobile device capture and generation of AR/VR content

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021181524A1 (ja) * 2020-03-10 2021-09-16
WO2021181524A1 (ja) * 2020-03-10 2021-09-16 日本電気株式会社 データ処理装置、データ処理システム及びデータ処理方法
JP7392826B2 (ja) 2020-03-10 2023-12-06 日本電気株式会社 データ処理装置、データ処理システム及びデータ処理方法

Also Published As

Publication number Publication date
US20180295289A1 (en) 2018-10-11
US10708505B2 (en) 2020-07-07

Similar Documents

Publication Publication Date Title
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
JP7403528B2 (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
JP2018180687A (ja) 画像処理装置、画像処理方法、及びプログラム
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
JP5945255B2 (ja) 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
US9679415B2 (en) Image synthesis method and image synthesis apparatus
WO2019082797A1 (ja) 再構成方法および再構成装置
Bleyer et al. A stereo approach that handles the matting problem via image warping
US20210209776A1 (en) Method and device for depth image fusion and computer-readable storage medium
JP2001067463A (ja) 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体
KR101086274B1 (ko) 깊이정보 추출 장치 및 추출 방법
US10685490B2 (en) Information processing apparatus, information processing method, and storage medium
JP6736422B2 (ja) 画像処理装置、画像処理の方法およびプログラム
JP2020098421A (ja) 三次元形状モデル生成装置、三次元形状モデル生成方法、及びプログラム
EP3723365A1 (en) Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
CN107798703B (zh) 一种用于增强现实的实时图像叠加方法以及装置
EP3588437B1 (en) Apparatus that generates three-dimensional shape data, method and program
JP5307051B2 (ja) 立体映像調整装置及び調整方法
JP6156922B2 (ja) 三次元データ生成装置、三次元データ生成方法、及びプログラム
JP2018059767A (ja) 画像処理装置、画像処理方法およびプログラム
Akyazi et al. Graph-based inpainting of disocclusion holes for zooming in 3d scenes
JP2020101922A (ja) 画像処理装置、画像処理方法およびプログラム
US20220230342A1 (en) Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor
CN117635875B (zh) 一种三维重建方法、装置及终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200401

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200707