JP2018055390A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2018055390A
JP2018055390A JP2016190475A JP2016190475A JP2018055390A JP 2018055390 A JP2018055390 A JP 2018055390A JP 2016190475 A JP2016190475 A JP 2016190475A JP 2016190475 A JP2016190475 A JP 2016190475A JP 2018055390 A JP2018055390 A JP 2018055390A
Authority
JP
Japan
Prior art keywords
data
low
subject
silhouette
intersection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016190475A
Other languages
English (en)
Other versions
JP6838912B2 (ja
Inventor
達朗 小泉
Tatsuro Koizumi
達朗 小泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016190475A priority Critical patent/JP6838912B2/ja
Priority to US15/717,799 priority patent/US10325378B2/en
Publication of JP2018055390A publication Critical patent/JP2018055390A/ja
Application granted granted Critical
Publication of JP6838912B2 publication Critical patent/JP6838912B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】 従来と比べて少ない計算量で被写体の形状を求めることを目的とする。
【解決手段】 本発明に係る画像処理装置は、複数の異なる視点から見た被写体のシルエット画像データを取得する取得手段と、前記シルエット画像データから前記シルエット画像データより低解像度な画像を表す低解像度データを生成する生成手段と、前記被写体を含む空間中の線分を前記低解像度データ上に射影して前記被写体との第一の交差を算出した後に、前記線分を前記シルエット画像データ上に射影して前記被写体との第二の交差を算出することを前記空間中における複数の線分に対して行うことで前記被写体と交差する区間を算出して前記被写体の形状を推定する推定手段とを有することを特徴とする。
【選択図】 図5

Description

本発明は、多視点画像から被写体の形状を求める技術に関する。
複数台のカメラによって取得した複数視点の画像を用いて被写体の3次元形状を復元する方法として、視体積交差法が知られている。視体積交差法では、複数視点の撮影画像上における被写体のシルエットを空間に投影して得られる領域の共通部分を、被写体形状として算出する。視体積交差法を元に高速に形状を復元する方法として、空間をボクセルで分割し、階層的に詳細化する方法が特許文献1で提案されている。また、被写体シルエットの輪郭線を用いて、必要な光線に限定して被写体形状との交差を算出する方法が非特許文献1で開示されている。
特開2001−307073号公報
"Image−Based Visual Hulls", In Proceeding of SIGGRAPH 2000,Woiciech Matsik et al.
しかしながら、特許文献1の方法では、対象となる空間全体で形状推定を行うため、対象の空間が大きい場合、計算量が多くなってしまう。また、非特許文献1の方法では、シルエットの輪郭線の抽出を行うため、入力画像の解像度が高い場合、計算量が多くなってしまう。そこで本発明は、従来と比べて少ない計算量で被写体の形状を求めることを目的とする。
本発明に係る画像処理装置は、複数の異なる視点から見た被写体のシルエット画像データを取得する取得手段と、前記シルエット画像データから前記シルエット画像データより低解像度な画像を表す低解像度データを生成する生成手段と、前記被写体を含む空間中の線分を前記低解像度データ上に射影して前記被写体との第一の交差を算出した後に、前記線分を前記シルエット画像データ上に射影して前記被写体との第二の交差を算出することを前記空間中における複数の線分に対して行うことで前記被写体と交差する区間を算出して前記被写体の形状を推定する推定手段とを有することを特徴とする。
本発明によれば、従来と比べて少ない計算量で被写体の形状を求めることができる。
本実施例における、画像処理装置を含む撮像システムの一例を表す模式図。 視体積交差法の原理を表す図。 本実施例の形状推定方法の概要を表す図。 本実施例の形状推定方法の流れを表す図。 実施形態1の撮像装置の構成例を表すブロック図。 実施形態1の撮像装置の処理の流れを表す図。 実施形態1の低解像度シルエット生成の概要を表す図。 実施形態2の撮像装置の処理の流れを表す図。 実施形態2の低解像度シルエット生成の概要を表す図。 実施形態1と実施形態2を比較した図。
[実施形態1]
<撮像システムの全体構成>
図1は、本発明を適用し得る画像処理装置を含む撮像システムの一例を示した模式図である。撮像システムは、複数の撮像装置101と画像処理装置102、表示装置103、入力装置104を有する。撮像装置101は、被写体105を囲むような複数の視点から、被写体105を撮像する。画像処理装置102は、撮像装置101が撮像した画像データを用いて、視体積交差法に基づく被写体形状の推定を行う。詳細は後述する。また、画像処理装置102には表示装置103及び入力装置104が接続されており、プロセッサ(CPUやMPUなど)がROMに格納された各種プログラムを読み出し、RAMなどの一時メモリを用いて各種演算を行う。ユーザは表示装置103と入力装置104を介して操作することで、撮像条件の設定や、撮像により取得した画像データを処理した結果の確認を行う。
<形状推定の原理>
図2により視体積交差法に基づく形状推定の原理を説明する。図2(a)は被写体と撮像装置の配置と被写体のシルエットとの関係を表す図である。ここでは一例として、3つの撮像装置201、202、203が、被写体207を撮像し、シルエットデータ(以降、シルエット画像データとも呼ぶ)204、205、206を取得するものとする。ここで、被写体207は円柱状の物体であり、図2(a)はこれを上から俯瞰した様子を表している。図2(b)は推定された形状を表す図で、被写体207のシルエット(以降、シルエット画像とも呼ぶ)208、209、210の空間上での共通領域をとることで、推定形状211が得られることを表している。このように被写体のシルエットを空間に投影して得られる領域の共通部分として被写体形状を推定する方法が、視体積交差法である。
図3は本実施形態における形状推定方法の概要を表している。本実施形態における形状推定は視体積交差法に基づく。本実施形態における形状推定では、出力視点302上の各画素303に対して、画素を通る光線304と被写体301とが交差する区間を算出する。本実施形態では、この交差区間を出力視点302上の全画素について算出したものを推定形状とする。
本実施形態では光線304を各視点のシルエットデータ305、308、311上に射影して、射影された光線307、310、313を算出し、被写体シルエット306、309、312との交差を探索することで、交差区間を求めていく。
図3(b)は、形状推定処理の流れの概略である。ここでは、被写体314と光線315の交差区間を求める。まず、光線315は1番目の視点のシルエットデータ上316に射影される。射影された光線319に沿ってシルエットデータ上で探索を行い、黒塗りであらわされた被写体シルエット317、318との交差区間320、321を求める。ここで光線315は、出力視点上の着目画素位置を(u,v)とし、出力視点の内部パラメータ行列をA、外部パラメータ行列を[R T]とすると光線は式1のように算出できる。
Figure 2018055390

kは距離に相当する値であり、X,Y,Zは光線が距離kを通る時の3次元座標である。交差区間は被写体領域に入る距離kと、被写体領域から出る距離k’の組(k,k’)で表すものとする。処理の開始時は交差区間(k,k’)を被写体が存在する距離の範囲になるよう設定しておく。光線、交差区間のm番目の視点のシルエットデータ上への射影は、式2のように行う。
Figure 2018055390

はm番目の視点の内部パラメータ行列、[R]はm番目の視点の外部パラメータ行列である。また、(u,v)はm番目の視点に射影された座標である。式1と式2に基づき、距離kにおける光線のシルエットデータ上での座標(u,v)と距離k’における座標(u’,v’)を射影された交差区間として算出する。(u,v)と(u’,v’)のなす線分と被写体シルエットの交差を探索する。射影された線分325が被写体シルエット326に入る位置は、画素境界である328としてもよいし、傾きが小さくなるよう水平または垂直方向に画素毎の走査を行い、画素中央において被写体シルエット内に入った点327としてもよい。本実施形態では327を用いる。また、周辺画素を参照してシルエットを滑らかにするような処理をしてもかまわない。被写体シルエットから出る位置についても同様である。このようにして、射影された交差区間と被写体シルエットとの共通部分となる線分を求めて、射影された交差区間を更新する。なお、射影された交差区間の傾きと線分は、射影された交差区(u,v),(u’,v’)に基づいて算出してもよいし、エピポーラ線に基づいて算出してもよい。
次に射影された交差区間を三次元復元にって空間中に投影し、交差区間322、323を算出する。すなわち、更新された(k,k’)を算出する。この例では新たに分割された交差区間322と323それぞれに対して処理を行う。m番目のシルエットデータ上の座標(u’,v’)の三次元復元は式3または式4に基づいて行う。水平方向の探索の場合、式3を用い垂直方向の探索の場合、式4を用いる。
Figure 2018055390
Figure 2018055390

ここで、P、Qは式1、式2から求めた、式5、式6のようなベクトルである。
Figure 2018055390
Figure 2018055390

次に、算出した交差区間を2番目の視点のシルエットデータ324上に再度射影する。シルエットデータ309と同様に被写体シルエットとの交差の探索と三次元復元を行い、以下同様に繰り返す。このようにして、各視点のシルエットデータを用いて交差区間を限定していくことで、被写体形状を推定する。
図4は本実施形態における形状推定処理の流れを表す図である。ステップS401では、新たに交差区間を算出する画素を設定する。ステップS402では、ステップS401で設定した画素に対応する光線を算出する。ステップS403では、ステップS402で算出した光線に対して、推定対象の空間を通る範囲を交差区間として算出する。ステップS404では、新たに被写体シルエットとの交差を探索する視点を設定する。ステップS405では、ステップS403またはステップS407で設定した交差区間を、ステップS404で設定した探索視点のシルエットデータ上に射影する。ステップS406では、ステップS405でシルエットデータ上に交差区間を射影して得た線分が、被写体シルエット上を通る範囲を探索する。ステップS407では、ステップS406で探索した被写体シルエット上を通る範囲を、三次元復元する。三次元復元された空間中の線分は光線と被写体の交差区間として更新される。ステップS408では全視点を処理したか判定する。処理していなければステップS404に戻って処理を繰り返す。処理していればステップS409に進む。ステップS409では全出力画素を処理したか判定する。処理していなければステップS401に戻って処理を繰り返す。処理していれば終了する。
<画像処理装置の構成と処理の流れ>
図5は、本実施形態の実施形態1に係る画像処理装置の構成の一例を示すブロック図である。
カメラパラメータ取得部501は、複数の撮像装置101の位置・姿勢を表す外部パラメータ、焦点距離・光学中心を表す内部パラメータなどのカメラパラメータを取得する。このカメラパラメータは空間中の3次元点を各撮像装置で撮像される画像上に射影するため計算を可能とする情報ならばどのような形態でも構わない。カメラパラメータはあらかじめ計測値や設計値などをメモリ上に記憶しておくものとする。なお、撮像装置101と画像処理装置102との通信によって取得する構成としても構わない。
シルエット取得部502は、複数の撮像装置101が撮像した被写体のシルエットデータを取得する。シルエットデータは、あらかじめ撮影した背景画像を用いた背景差分で取得するものとする。なお、シルエットデータの取得はどのような方法でもよく、動画から背景を推定する方法などを用いても構わない。また、外部の別の装置で生成したシルエットデータを取得する構成としても構わない。
低解像度シルエット生成部503(以降、生成部503とも呼ぶ)は、シルエット取得部502が取得したシルエットデータから低解像度変換を行いシルエットデータである低解像度データを生成する。
低解像度交差算出部504は、カメラパラメータ取得部501が取得したカメラパラメータに基づき、出力視点(仮想視点)の各画素に対応する光線と低解像度シルエット生成部503が生成した低解像度シルエットの交差区間を算出する。
交差算出部505は、カメラパラメータ取得部501が取得したカメラパラメータに基づき、生成部503が生成した低解像度シルエットの交差区間とシルエット取得部502との交差を算出し、交差区間をさらに限定する。
形状出力部508は、交差算出部505が算出した交差区間から、形状データを生成し出力する。ここでは、最も前面の交差区間の開始距離を抽出しデプスデータとして形状データを生成するデプス生成手段とする。
図6は、本実施形態を適用し得る画像処理装置における処理の流れの一例を表す図である。
ステップS601では、カメラパラメータ取得部501がカメラパラメータを取得する。
ステップS602では、新たな視点のシルエット取得部502が被写体のシルエットデータを取得する。
ステップS603では、生成部503が、ステップS602で取得したシルエットから低解像度シルエットデータを生成する。図7は低解像度シルエットデータの算出方法を表す図である。本実施形態では、取得した高解像度のシルエットデータの複数の画素と、1つの画素が対応するような低解像度のシルエットデータを生成する。図7は縦横2×2の画素を1つの画素にまとめるような低解像度シルエットデータを生成する例である。低解像度シルエットデータの画素と対応する高解像度シルエットデータの画素のうち、1画素でも被写体シルエットに含まれていれば、低解像度シルエットデータの画素も被写体シルエットとする。被写体シルエットとの射影された光線との交差を、328のような厳密な画素への入射、射出位置とするなら、生成した低解像度シルエットデータをそのまま用いてもよい。本実施形態では、327のように走査軸の画素中央で判定した入射、射出位置を用いるので、低解像度シルエットの交差区間に高解像度シルエットの交差区間が確実に含まれるよう、走査軸と垂直方向に1画素の膨張処理を行う。このようにして生成した、垂直走査用低解像度シルエットと水平走査用低解像度シルエットを、走査方向に応じて切り替えて用いる。
ステップS604では、全視点を処理したか判定し、処理していなければS602に戻って処理を繰り返し、処理していればステップS605に進む。
ステップS605では、低解像度交差算出部504が、ステップS601で取得したカメラパラメータに基づき、新たな視点のステップS603で生成した低解像度シルエットと新たな着目画素に対応する光線との交差を算出する。このとき、シルエットデータの視点の内部パラメータは、シルエットを低解像度化した分だけ補正を行う。補正前の内部パラメータ行列をAとすると、補正後の内部パラメータ行列A’は式7のようになる。
Figure 2018055390

ここで、bは低解像度シルエットデータ生成時のブロックサイズである。
ステップS606では、全視点を処理したか判定し、処理していなければS605に戻って処理を繰り返し、処理していればステップS607に進む。
ステップS607では、交差算出部504が、ステップS601で取得したカメラパラメータに基づき、新たな視点のステップS602で取得したシルエットによりステップS605で算出した交差区間を限定する。ステップS605で低解像度シルエットデータを用いた、少ない計算量の交差区間算出が行われているため、計算量の多い高解像度シルエットデータを用いた交差区間算出の処理が削減される。そのため、本実施形態では少ない計算量で被写体の形状を算出することができる。
ステップS608では、全視点を処理したか判定し、処理していなければS606に戻って処理を繰り返し、処理していればステップS609に進む。
ステップS608では、全画素を処理したか判定し、処理していなければS605に戻って処理を繰り返し、処理していれば処理を終了する。
なお、本実施形態では各視点に対して低解像度シルエットデータを1つずつ生成したが、低解像度シルエットデータを生成しない視点が存在してもよい。すなわち、低解像度シルエットデータを算出した視点についてのみ用いて、ステップS605〜ステップS606の処理を行ってもよい。また、低解像度シルエットデータを1つの視点に対して複数生成してもかまわない。すなわち、解像度の異なる複数の低解像度シルエットデータを生成し、ステップS605〜ステップS606の処理を解像度が低いシルエットデータから順に適用してもかまわない。また、本実施形態では取得したシルエットデータから低解像度シルエットデータを生成する構成としたが、あらかじめ算出された低解像度シルエットデータを取得して用いる構成としてもかまわない。
以上、本実施形態によれば、少ない計算量で被写体の形状を算出することが可能となる。
[実施形態2]
実施形態1では初めに全視点の低解像度シルエットを用いて交差区間を算出した後に、元のシルエットを用いて交差区間を限定することで少ない計算量で形状推定を行う例を示した。実施形態2では視点ごとの交差区間の探索において低解像度シルエットを用いて少ない計算量で探索を行う例を示す。
図8は、本実施形態の実施形態2の画像処理装置における処理の流れの一例を表す図である。実施形態1の処理に対して、ステップS801、ステップS802、ステップS803、ステップS804の処理が異なる。ここでは、変更された構成要素に関する点について説明する。
ステップS801では、生成部503が、ステップS602で取得したシルエットから低解像度シルエットデータを生成する。図9は低解像度シルエットデータの算出方法を表す図である。本実施形態では実施形態1と異なり、低解像度シルエットデータに対応する高解像度シルエットデータの画素が、全て被写体シルエットに属する場合は被写体シルエット領域とする。そして、全て非被写体シルエットに属する場合は背景領域に、混在している場合は混合領域とする。実施形態1と同様に、画素走査軸の画素中央で入射・射出位置判定を行うならば、被写体シルエット領域と混合領域の隣接画素に対して、走査軸に応じた混合領域の膨張処理を行う。
ステップS802では、低解像度交差算出部504が、ステップS601で取得したカメラパラメータに基づき、新たな視点(着目視点)について、ステップS801で生成した低解像度シルエットと新たな着目画素に対応する光線との交差を算出する。低解像度シルエットデータで被写体シルエット領域または背景領域に属する画素を通過する範囲は、このステップで交差区間を確定する。
ステップS803では、交差算出部505が、ステップS601で取得したカメラパラメータに基づき、新たな視点のステップS602で取得したシルエットによりステップS802で算出した交差区間を限定する。このステップでは、低解像度シルエットデータで混合領域に含まれていた範囲について、交差区間を算出する。これにより、計算量の多い高解像度シルエットを用いた探索を削減できるため、本実施形態では少ない計算コストで交差区間の算出が可能となる。なお、実施形態1の混合領域を持たない低解像度シルエットデータを用いて、交差区間をステップS802とステップS803で限定していく処理としてもかまわない。
ステップS804では、全視点を処理したか判定し、処理していなければS802に戻って処理を繰り返し、処理していればステップS609に進む。
なお、低解像度シルエットデータを1つの視点に対して複数生成してもかまわない。すなわち、解像度の異なる複数の低解像度シルエットデータを生成し、ステップS802テップS83処理を解像度が低いシルエットデータから順に適用してもかまわない。また、本実施形態では取得したシルエットデータから低解像度シルエットデータを生成する構成としたが、あらかじめ算出された低解像度シルエットデータを取得して用いる構成としてもかまわない。
図10は実施形態1と実施形態2の処理の概要を比較したものである。実施形態1では、図10(a)のように全ての視点の低解像度シルエットデータを用いて交差区間を算出した後に高解像度シルエットデータを用いた交差区間の限定を行う。一方、実施形態2では、図10(b)のように視点毎に低解像度シルエットデータを用いた交差区間の限定と、高解像度シルエットデータを用いた交差区間の限定を順次行う。なお、実施形態1と実施形態2は図10(c)のように組み合わせてもよい。すなわち、全ての視点の低解像度シルエットデータを用いて交差区間を算出した後に、視点毎に低解像度シルエットデータを用いた交差区間の限定と、高解像度シルエットデータを用いた交差区間の限定を順次行ってもよい。このとき、2つの低解像度シルエットデータは異なる解像度としてもよい。このように組み合わせることで、さらなる計算量の削減を行うことができる。
以上、本実施形態によれば、少ない計算量で被写体の形状を算出することが可能となる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
502 シルエット取得部
503 低解像度シルエット生成部
504 低解像度交差算出部
505 交差算出部

Claims (10)

  1. 複数の異なる視点から見た被写体のシルエット画像データを取得する取得手段と、
    前記シルエット画像データから前記シルエット画像データより低解像度な画像を表す低解像度データを生成する生成手段と、
    前記被写体を含む空間中の線分を前記低解像度データ上に射影して前記被写体との第一の交差を算出した後に、前記線分を前記シルエット画像データ上に射影して前記被写体との第二の交差を算出することを前記空間中における複数の線分に対して行うことで前記被写体と交差する区間を算出して前記被写体の形状を推定する推定手段と
    を有することを特徴とする画像処理装置。
  2. 前記推定手段は、前記第一の交差算出手段を前記複数の異なる視点の低解像度データに適用した後に、前記第二の交差算出手段を前記複数の異なる視点のシルエット画像データに適用することを特徴とする請求項1に記載の画像処理装置。
  3. 前記生成手段は、前記低解像度データの画素に対応する前記シルエット画像データの画素に前記被写体の領域が含まれる場合に前記低解像度データの画素が前記領域となるように第一の低解像度データを生成し、前期第一の低解像度データに膨張処理を行い、前記低解像度データを生成することを特徴とする請求項1又は請求項2に記載の画像処理装置。
  4. 前記推定手段は、前記複数の異なる視点から選択した着目視点の低解像度データから前記第一の交差を求めた後に、前記着目視点のシルエット画像データから前記第二の交差を求めることを特徴とする請求項1に記載の処理装置。
  5. 前記生成手段は、
    前記低解像度データの画素に対応する前記シルエット画像データの画素が全て前記被写体の領域である場合に前記低解像度データの画素が前記領域となるように、
    前記低解像度データの画素に対応する前記シルエット画像データの画素が全て背景の領域である場合に前記低解像度データの画素が背景領域となるように、
    前記低解像度データの画素に対応する前記シルエット画像データの画素に前記被写体の領域と前記背景領域とが含まれる場合に前記低解像度データの画素が混合した領域となるように、
    第一の低解像度データを生成し、前記第一の低解像度データに膨張処理を行い前記低解像度データを生成することを特徴とする請求項4に記載の画像処理装置。
  6. 前記推定手段は、前記シルエット画像データ上の交差を前記空間中に三次元復元する三次元復元手段をさらに有することを特徴とする請求項1乃至請求項5のいずれか1項に記載の画像処理装置。
  7. 仮想視点に対するデプスデータを生成するデプス生成手段をさらに有し、
    前記空間中の線分が前記仮想視点のデプスデータの画素であり、
    前記デプス生成手段は前記交差に基づきデプスデータを生成することを特徴とする請求項1乃至請求項6のいずれか1項に記載の画像処理装置。
  8. 被写体を複数の視点から撮像する複数の撮像手段と、
    前記撮像手段により撮像して得られた複数の画像データより前記シルエット画像データを抽出する抽出手段をさらに有し、
    前記取得手段は、前記抽出手段により抽出されたシルエット画像データを取得することを特徴とする請求項1乃至請求項7のいずれか1項に記載の画像処理装置。
  9. コンピュータを請求項1乃至請求項8のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
  10. 複数の異なる視点から見た被写体のシルエット画像データを取得する取得工程と、
    前記シルエット画像データから前記シルエット画像データより低解像度な画像を表す低解像度データを生成する生成工程と、
    前記被写体を含む空間中の線分を前記低解像度データ上に射影して前記被写体との第一の交差を算出した後に、前記線分を前記シルエット画像データ上に射影して前記被写体との第二の交差を算出することを前記空間中における複数の線分に対して行うことで前記被写体と交差する区間を算出して前記被写体の形状を推定する推定工程と
    を有することを特徴とする画像処理方法。
JP2016190475A 2016-09-29 2016-09-29 画像処理装置、画像処理方法およびプログラム Active JP6838912B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016190475A JP6838912B2 (ja) 2016-09-29 2016-09-29 画像処理装置、画像処理方法およびプログラム
US15/717,799 US10325378B2 (en) 2016-09-29 2017-09-27 Image processing apparatus, image processing method, and non-transitory storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016190475A JP6838912B2 (ja) 2016-09-29 2016-09-29 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018055390A true JP2018055390A (ja) 2018-04-05
JP6838912B2 JP6838912B2 (ja) 2021-03-03

Family

ID=61686467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016190475A Active JP6838912B2 (ja) 2016-09-29 2016-09-29 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10325378B2 (ja)
JP (1) JP6838912B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335284A (zh) * 2019-07-11 2019-10-15 上海昌岛医疗科技有限公司 一种病理图像的去除背景的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366935A (ja) * 2001-06-12 2002-12-20 Minolta Co Ltd ボリュームデータの生成方法および装置並びにコンピュータプログラム
JP2003123057A (ja) * 2001-10-15 2003-04-25 Minolta Co Ltd 3次元形状モデルの生成方法および装置
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント
JP2016145753A (ja) * 2015-02-09 2016-08-12 国立研究開発法人情報通信研究機構 奥行推定装置、奥行推定方法及び奥行推定プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6356272B1 (en) * 1996-08-29 2002-03-12 Sanyo Electric Co., Ltd. Texture information giving method, object extracting method, three-dimensional model generating method and apparatus for the same
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
JP4550221B2 (ja) 2000-04-24 2010-09-22 パナソニック株式会社 三次元空間再構成装置及び三次元空間再構成方法
JP4635392B2 (ja) * 2001-08-09 2011-02-23 コニカミノルタホールディングス株式会社 3次元物体の表面形状モデリング装置、および、プログラム
US20040202357A1 (en) * 2003-04-11 2004-10-14 Perz Cynthia B. Silhouette image acquisition
JP2008203995A (ja) * 2007-02-16 2008-09-04 Sony Corp 物体形状生成方法、物体形状生成装置及びプログラム
KR100914845B1 (ko) * 2007-12-15 2009-09-02 한국전자통신연구원 다시점 영상 정보를 이용한 물체의 삼차원 형상복원 방법및 장치
EP2383696A1 (en) * 2010-04-30 2011-11-02 LiberoVision AG Method for estimating a pose of an articulated object model
WO2012155279A2 (en) * 2011-05-13 2012-11-22 Liberovision Ag Silhouette-based pose estimation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント
JP2002366935A (ja) * 2001-06-12 2002-12-20 Minolta Co Ltd ボリュームデータの生成方法および装置並びにコンピュータプログラム
JP2003123057A (ja) * 2001-10-15 2003-04-25 Minolta Co Ltd 3次元形状モデルの生成方法および装置
JP2016145753A (ja) * 2015-02-09 2016-08-12 国立研究開発法人情報通信研究機構 奥行推定装置、奥行推定方法及び奥行推定プログラム

Also Published As

Publication number Publication date
US20180089849A1 (en) 2018-03-29
JP6838912B2 (ja) 2021-03-03
US10325378B2 (en) 2019-06-18

Similar Documents

Publication Publication Date Title
US10237532B2 (en) Scan colorization with an uncalibrated camera
US10614579B1 (en) Three dimensional model generation using heterogeneous 2D and 3D sensor fusion
JP7058277B2 (ja) 再構成方法および再構成装置
US20170171525A1 (en) Electronic system including image processing unit for reconstructing 3d surfaces and iterative triangulation method
CN111815707A (zh) 点云确定方法、点云筛选方法、装置、计算机设备
CN116168143A (zh) 一种多视图三维重建的方法
US20230394834A1 (en) Method, system and computer readable media for object detection coverage estimation
US9872011B2 (en) High-speed depth sensing with a hybrid camera setup
US20220405878A1 (en) Image processing apparatus, image processing method, and image processing program
JP2018036898A (ja) 画像処理装置及びその制御方法
JP6411188B2 (ja) ステレオマッチング装置とステレオマッチングプログラムとステレオマッチング方法
EP3832600A1 (en) Image processing device and three-dimensional measuring system
JP4102386B2 (ja) 3次元情報復元装置
JP6655869B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7195785B2 (ja) 3次元形状データを生成する装置、方法、及びプログラム
JP6838912B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6991700B2 (ja) 情報処理装置、情報処理方法、プログラム
EP3961556A1 (en) Object recognition device and object recognition method
CN110751731B (zh) 一种用于结构光的3d重建方法和系统
JP6641313B2 (ja) 領域抽出装置及びプログラム
JP6297965B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6257798B2 (ja) 画像処理装置及び画像処理方法
JP2020046744A (ja) 画像処理装置、背景画像の生成方法およびプログラム
JP2010205040A (ja) 路面形状認識装置
JP2006195758A (ja) ステレオマッチング装置、方法およびこの方法のプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210212

R151 Written notification of patent or utility model registration

Ref document number: 6838912

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151