JP2022112228A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2022112228A JP2022112228A JP2021007958A JP2021007958A JP2022112228A JP 2022112228 A JP2022112228 A JP 2022112228A JP 2021007958 A JP2021007958 A JP 2021007958A JP 2021007958 A JP2021007958 A JP 2021007958A JP 2022112228 A JP2022112228 A JP 2022112228A
- Authority
- JP
- Japan
- Prior art keywords
- model
- depth
- area
- back surface
- vertices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 19
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000001514 detection method Methods 0.000 claims abstract description 19
- 238000003384 imaging method Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 abstract description 14
- 238000000034 method Methods 0.000 description 14
- 238000013500 data storage Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザに見た目の違和感を与えず、かつCGモデルの操作を可能とするモデルを生成できるようにする。【解決手段】情報処理装置は、撮像装置が撮像した撮像画像からモデル化対象の現実物の領域を検出する領域検出部と、領域検出部により検出した領域に基づいて、現実物に係る表面モデルを生成する第1のモデル生成部と、第1のモデル生成部により生成された表面モデルの法線の方向に厚みを付けて現実物に係る裏面モデルを生成する第2のモデル生成部とを有する。【選択図】図1
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、現実空間に仮想空間の情報をリアルタイムに重ね合せて利用者に提示する複合現実感(MR)に関する研究が行われている。複合現実感では、ヘッドマウントディスプレイ(HMD)等の撮像装置によって撮像された現実の映像の全域又は一部に、撮像装置の位置姿勢に応じた仮想空間の画像(CG)を重畳した合成画像を表示する。
このとき、現実物と仮想物体の距離に応じて撮像画像領域にある特定の現実物領域に仮想物体を表示しないことで物体間の距離感を表現することができる。例えば、HMDを装着したユーザが自分の手や工具等の現実物を仮想物体の前にかざしたとき、撮像画像上の手や工具の領域に仮想物体を描画しなければ自分の手や工具が仮想物体の手前にあるように表示される。これにより、ユーザは仮想物体と現実物の位置関係を把握しやすくなり、仮想空間上で現実の手や工具を用いた作業の検証が容易になる。
このように、現実物と仮想物体の位置関係を正しく表現するためには、現実物領域の検出及び現実物の距離計測が必要となる。しかしながら、HMDに取り付けられた距離計測装置で現実物までの距離を計測しても、現実物の表面までの奥行きしか取得できず、現実物の裏面の奥行きを取得することはできない。例えば、複合現実感において現実の手とCGモデルの接触判定を行う場合、撮像装置から現実の手の表面までの距離を計測しても、実際にCGモデルと接触している手の裏面との接触判定が行えない問題がある。
そのため、より正確に現実物とCGモデル間の接触判定を行う手法が求められている。例えば、特許文献1では、複数視点カメラで奥行き推定する場合に、画像間で対応付けができない点の奥行きを、対応付けできた点の奥行きから推定する手法を用いている。また、非特許文献1では、事前に用意した体や手のCGモデルを利用してモーションキャプチャで得られた関節に厚み付けを行っている。また、特許文献2では、深度画像を基に正面領域だけでなく側面領域も含めた広範囲の三次元モデルを復元する手法が提案されている。特許文献3では、手の表面ポリゴンを法線方向に投影した位置に裏面ポリゴンを生成し、裏面ポリゴンを投影した際に表面ポリゴンよりも外に出る場合には、その頂点を視線方向に移動している。
J.P.Lewis, Matt Corder, and Nickson Fong. Pose space deformations. A unified approach to shape interpolation and skeleton-driven deformation. Proceedings of SIGGRAPH 2000, pp.165-172, July 2000
しかしながら、特許文献1では、複数のカメラ間でマッチングできない領域に対して奥行きを推定できる一方で、すべてのカメラで見えない領域の奥行きを推定することはできない。また、非特許文献1では、モーションキャプチャで得られる関節位置などからモデルを再構築した際に、CGモデルと現実物の位置や太さ、長さを一致させることは難しく、複合現実感において見た目のずれが生じる問題がある。さらに、特許文献2では、ボクセルを利用することを前提としており精度良くモデルの奥行きを推定する場合には、ボクセルを細かくしなければならず奥行モデルの生成に多大なメモリと時間を要する問題がある。また、特許文献3では、表面ポリゴンの頂点の法線が内向きになっている場合、裏面ポリゴンの位置が隣接する頂点と交差して反転してしまいポリゴン形状の不整合を生んでしまう可能性がある。このような場合、現実の手とCGモデルとの接触判定の精度に悪影響を及ぼしてしまう。また、現実の手とCGモデルの接触した瞬間の現実の手の形状を見回すような場合、ユーザに見た目の違和感を与えてしまう。
MRにおいてユーザの手を表示しながらCGモデルを操作する場合、ステレオカメラや深度センサからユーザの手をモデル化し、モデル化した手とCGモデルの前後関係を表現しながら高速な接触判定を行う必要がある。ここで、モデル化された手を表示するとき、表示位置に実写の手画像を重ね合わせることでユーザは現実の手でCGモデルを操作するように感じる。一方で、モデル化した手が現実の手形状と異なると現実映像と見た目のずれが生じてしまい、ユーザに違和感を与える。また、HMDに取り付けられた距離計測装置を用いて物体表面だけをモデル化する場合、厚みを考慮することができずCGモデルとの接触判定が正しく行えずユーザに違和感を与える問題がある。
本発明は、このような事情に鑑みてなされたものであり、ユーザに見た目の違和感を与えず、かつCGモデルの操作を可能とするモデルを生成できるようにすることを目的とする。
本発明に係る情報処理装置は、撮像装置が撮像した撮像画像から対象の現実物の領域を検出する領域検出手段と、前記領域検出手段により検出した領域に基づいて、前記現実物に係る表面モデルを生成する第1のモデル生成手段と、前記第1のモデル生成手段により生成された前記表面モデルの法線の方向に厚みを付けて前記現実物に係る裏面モデルを生成する第2のモデル生成手段とを有することを特徴とする。
本発明によれば、ユーザに見た目の違和感を与えず、かつCGモデルの操作を可能とするモデルを生成することができる。
以下、本発明の実施形態を図面に基づいて説明する。
(第1の実施形態)
本発明の第1の実施形態について説明する。
図1は、本実施形態に係る撮像装置を制御する情報処理装置の構成例を示すブロック図である。本実施形態では、撮像装置110、入力装置120、表示装置130が情報処理装置140に接続された構成となる。ただし、撮像装置110はステレオ構成とする。例えば、撮像装置110はビデオシースルー型ヘッドマウントディスプレイ(HMD:HeadMountedDisplay)に配置される撮像カメラであり、表示装置120はHMDやPCモニタ等のディスプレイである。
本発明の第1の実施形態について説明する。
図1は、本実施形態に係る撮像装置を制御する情報処理装置の構成例を示すブロック図である。本実施形態では、撮像装置110、入力装置120、表示装置130が情報処理装置140に接続された構成となる。ただし、撮像装置110はステレオ構成とする。例えば、撮像装置110はビデオシースルー型ヘッドマウントディスプレイ(HMD:HeadMountedDisplay)に配置される撮像カメラであり、表示装置120はHMDやPCモニタ等のディスプレイである。
情報処理装置140は、例えばプロセッサ、メモリ、OS(オペレーションシステム)やアプリケーションプログラム等を記憶する記憶装置、外部装置と通信するインタフェース等を有するコンピュータである。情報処理装置140は、画像取得部141、情報登録部142、データ記憶部143、領域検出部144、第1のモデル生成部145、第2のモデル生成部146、接触判定部147、及び画像生成部148を有する。なお、これらの各機能部は、すべてがソフトウェアにより実現されていても良いし、その一部をハードウェアにより実現するようにしても良い。
画像取得部141は、撮像装置110によって撮影された撮像画像を取得してデータ記憶部143に記憶する。情報登録部142は、入力装置120から入力されたモデル化対象となる現実物に係る情報をデータ記憶部143に記憶する。情報登録部142は、例えば入力装置120から入力されたモデル化対象となる現実物の厚み情報をデータ記憶部143に記憶する。データ記憶部143は、画像取得部141で取得した撮像画像や情報登録部142より入力される情報等を記憶する。
領域検出部144は、データ記憶部143に記憶された撮像画像からモデル化対象となる現実物の領域を検出する。例えば、現実物の色辞書を用いて画像内の特定の色領域を検出しても良いし、機械学習によって対象物領域を検出しても良い。撮像画像からモデル化対象となる現実物領域を検出可能であれば、何れの手段でも良い。
第1のモデル生成部145は、領域検出部144で検出した検出領域に基づいて、モデル化対象の現実物に係る三次元モデルを生成する。第1のモデル生成部145は、例えば、ステレオ画像の検出領域の輪郭で対応点を求めステレオマッチングすることで対象の三次元のポリゴンモデルを生成する。なお、ステレオマッチングにより生成した三次元モデルは、撮像装置110における視線方向に厚みを持たない薄い表面モデルとなり、三次元モデルを撮像画像に投影すると検出領域と一致する。
第2のモデル生成部146は、第1のモデル生成部145で生成した表面モデルに対して撮像画像に投影した際の見た目を変えないように、データ記憶部143に登録された厚み情報(厚みパラメータ)に基づいて厚みを付ける。第2のモデル生成部146は、撮像装置110における視線方向に厚みを持たない表面モデルに対して、厚み情報に応じた厚みを持つモデルを生成する。
接触判定部147は、第2のモデル生成部146で生成した厚みを持つ現実物に係るモデルとデータ記憶部143に記憶されたCGモデルとの接触判定を行う。接触判定は境界ボリュームの階層構造やGJK法等の何れの判定手法でも良い。このとき、モデル同士がめり込まないようにCGモデルに対して衝突応答を行っても良いし、接触をトリガーとしてCGモデルに対する操作を行っても良い。
画像生成部148は、接触判定部147で計算されたCGモデルと厚みを持つモデル化対象の現実物に係るモデル、及びデータ記憶部143に記憶した撮像画像を重畳した画像を生成し、生成した画像を表示装置130に出力する。画像生成部148は、CGモデルと現実物に係るモデル、及びデータ記憶部143に記憶した撮像画像を表示装置130に重畳表示させる。このとき、最初に撮像画像を背景に描画し、次に深度テストを有効にして透明な厚みを持つ現実物に係るモデルをレンダリングし、最後にCGモデルをレンダリングすることで、現実物に係るモデルの位置に現実物の画像を重畳することができる。
<処理の手順>
本実施形態における特徴は、情報登録部142と第2のモデル生成部146で実行される2つの処理にある。情報登録部142では、対象となるモデルの厚みをUI上から入力する。厚みの登録はモデルの厚みをキーボードやマウス等を用いて入力しても良いし、モデル化対象の現実物をステレオカメラで撮影してステレオマッチングから自動的に厚みを入力してもよい。例えば、図2に示すように、モデル化対象の現実物を撮影し、第1のモデル生成部145で生成した表面モデルの横幅を厚みとする。
本実施形態における特徴は、情報登録部142と第2のモデル生成部146で実行される2つの処理にある。情報登録部142では、対象となるモデルの厚みをUI上から入力する。厚みの登録はモデルの厚みをキーボードやマウス等を用いて入力しても良いし、モデル化対象の現実物をステレオカメラで撮影してステレオマッチングから自動的に厚みを入力してもよい。例えば、図2に示すように、モデル化対象の現実物を撮影し、第1のモデル生成部145で生成した表面モデルの横幅を厚みとする。
図3は、第1の実施形態に係る第2のモデル生成部の処理例を示すフローチャートである。図3に示す処理は、情報処理装置140の第2のモデル生成部146によって実行される。ここで、ポリゴン生成の手法の一例を示した図4(a)~図4(c)を適宜参照して図3に示す処理を説明する。
ステップS301では、第2のモデル生成部146は、第1のモデル生成部145によって生成された表面モデルの法線を算出する。具体的には、第2のモデル生成部146は、図4(a)のように撮像装置110で撮像された物体の表面に生成された表面モデル401に対して、図4(b)に示す法線402を求める。ここで計算する法線は、表面モデルのポリゴンの面毎に算出した面法線であってもよいし、頂点毎に算出した点法線であってもよい。なお、図4(a)~図4(c)において、400は視線ベクトルである。ここでの視線ベクトル400とはビュー座標における原点から表面モデルの頂点に向かうベクトルのことである。
ステップS302では、第2のモデル生成部146は、ステップS301において計算した法線の方向に、データ記憶部143から取得した厚み情報(厚みパラメータ)の長さだけ表面モデルの頂点を投影する。そして、第2のモデル生成部146は、投影した位置を補間・外挿することよって、図4(b)に示すような裏面深度曲面403を生成する。例えば、第2のモデル生成部146は、表面モデルの頂点の投影では導出されない裏面深度を、表面モデルの頂点を投影して得られた裏面深度の勾配値から補間する。裏面深度曲面403の表現方法として、画像やベクトル場のように離散値の集合として表現してもよいし、ベジェ曲面、Bスプライン曲面、NURBS曲面のようなパラメトリック曲面として表現してもよい。投影した位置の補間方法の一例として、線形補間、ラングランジュ補間、スプライン補間等の方法をとってもよい。また、投影した位置の外挿方法の一例として、線形外挿やパラメトリック曲面を使用したが外挿を用いてもよい。
ステップS303では、第2のモデル生成部146は、領域検出部144で取得したマスク領域の輪郭からの距離を求める。第2のモデル生成部146は、例えば、輪郭からのユークリッド距離を表すマップであるEuclidianDistanceTransformを用いて輪郭からの距離を表現する。また、輪郭からのマンハッタン距離を表すTaxicabGeometory、或いはベクトル空間で最も大きいベクトルの距離を示すChebyshevDistance等を用いて輪郭からの距離を表現するようにしてもよい。
ステップS304以降、第2のモデル生成部146は、表面モデルの頂点毎にステップS305~S307の処理を行う。
ステップS305では、第2のモデル生成部146は、ステップS303において求めた輪郭距離を用いて、注目する頂点(処理対象の頂点)が領域の端部にあるか否かを判定する。第2のモデル生成部146は、端部にあると判定した場合(Yes)にはステップS306に処理を進め、そうでない場合(No)にはステップS307に処理を進める。頂点が端部にあるか否かの判定方法の一例として、第2のモデル生成部146は、輪郭距離があらかじめ決められた距離以下である場合に端部であると判定する。
ステップS305では、第2のモデル生成部146は、ステップS303において求めた輪郭距離を用いて、注目する頂点(処理対象の頂点)が領域の端部にあるか否かを判定する。第2のモデル生成部146は、端部にあると判定した場合(Yes)にはステップS306に処理を進め、そうでない場合(No)にはステップS307に処理を進める。頂点が端部にあるか否かの判定方法の一例として、第2のモデル生成部146は、輪郭距離があらかじめ決められた距離以下である場合に端部であると判定する。
ステップS306では、第2のモデル生成部146は、図4(c)に示すように裏面深度曲面403の深度を領域端部からの距離に応じて表面モデルの深度に近づけることで、補正後の裏面深度曲面404を生成する。このとき、表面モデルの深度に近づける割合は、例えば、端部からの距離に応じて線形的に近づけてもよいし、二次関数や対数関数等を用いて非線形的に近づけてもよい。
ステップS307では、第2のモデル生成部146は、表面モデルの頂点を補正後の裏面深度曲面404に視線ベクトル400方向に投影した位置に裏面頂点を生成する。第2のモデル生成部146は、このようにして表面モデルの頂点毎に厚み情報に基づいて裏面頂点を生成し、モデル化対象の現実物に係る裏面モデルを生成する。
第1の実施形態によれば、モデル化対象の現実物である手の厚みを考慮して高精度にCGモデルの操作を可能とし、ユーザが見まわした場合にも違和感のない現実物に係るモデルを高速に生成することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
前述した第1の実施形態では、表面モデルの頂点を裏面曲面に視線ベクトル方向へ投影した位置に裏面頂点を生成した。第2の実施形態では、表面モデルの頂点を裏面曲面に視点座標系の奥行方向へ投影した位置に裏面頂点を生成し、表面からはみ出す場合には裏面深度を表面深度に調整することで、現実物に係る厚みを持つモデルの生成を実現する。なお、情報処理装置の構成は、第1の実施形態と同様であるので、説明は省略する。
次に、本発明の第2の実施形態について説明する。
前述した第1の実施形態では、表面モデルの頂点を裏面曲面に視線ベクトル方向へ投影した位置に裏面頂点を生成した。第2の実施形態では、表面モデルの頂点を裏面曲面に視点座標系の奥行方向へ投影した位置に裏面頂点を生成し、表面からはみ出す場合には裏面深度を表面深度に調整することで、現実物に係る厚みを持つモデルの生成を実現する。なお、情報処理装置の構成は、第1の実施形態と同様であるので、説明は省略する。
図5は、第2の実施形態に係る第2のモデル生成部の処理例を示すフローチャートである。図5に示す処理は、情報処理装置140の第2のモデル生成部146によって実行される。ここで、ポリゴン生成の手法の一例を示した図6(a)~図6(d)と、ビュー座標系について示した図7を適宜参照して図5に示す処理を説明する。
ステップS501では、図3のステップS301と同様に、第2のモデル生成部146は、第1のモデル生成部145によって生成された表面モデルの法線を算出する。具体的には、第2のモデル生成部146は、図6(a)のように撮像装置110で撮像された物体の表面に生成された表面モデル601に対して、図6(b)に示す法線602を求める。なお、図6(a)~図6(d)において、600は視線ベクトルである。
ステップS502では、図3のステップS302と同様に、第2のモデル生成部146は、ステップS501において計算した法線の方向に、データ記憶部143から取得した厚み情報(厚みパラメータ)の長さだけ表面モデルの頂点を投影する。そして、第2のモデル生成部146は、投影した位置を補間・外挿することよって、図6(b)に示すような裏面深度曲面603を生成する。
ステップS503以降、第2のモデル生成部146は、表面モデルの頂点毎にステップS504~S507の処理を行い、すべての頂点について処理した場合には処理を終了する。
ステップS504では、第2のモデル生成部146は、図6(c)のように、ビュー座標系Z軸逆方向604に、表面モデル601の各頂点を裏面深度曲面603へ投影した位置に裏面頂点610~613を生成する。ここで、ビュー座標系とは、図7に示すように、主点702を原点として、画像平面703の横幅の方向をX軸、縦幅の方向をY軸と定義し、画像平面703から主点702へ向かう方向をZ軸とした座標系である。そのため、ビュー座標系Z軸逆方向604は、Z軸ベクトル701の逆方向のベクトルである。
ステップS504では、第2のモデル生成部146は、図6(c)のように、ビュー座標系Z軸逆方向604に、表面モデル601の各頂点を裏面深度曲面603へ投影した位置に裏面頂点610~613を生成する。ここで、ビュー座標系とは、図7に示すように、主点702を原点として、画像平面703の横幅の方向をX軸、縦幅の方向をY軸と定義し、画像平面703から主点702へ向かう方向をZ軸とした座標系である。そのため、ビュー座標系Z軸逆方向604は、Z軸ベクトル701の逆方向のベクトルである。
ステップS505では、第2のモデル生成部146は、生成した裏面頂点と表面モデルをそれぞれ画像平面に投影する。
ステップS506では、第2のモデル生成部146は、投影した裏面頂点が表面モデルと重なるか否かを判定する。第2のモデル生成部146は、裏面頂点が表面モデルと重なると判定した場合(Yes)には次のループを実行し、裏面頂点が表面モデルと重ならないと判定した場合(No)にはステップS507に進む。ステップS507では、第2のモデル生成部146は、表面モデルと重ならないと判定された裏面モデルの頂点の深度を表面モデルの頂点の深度になるよう調整する。
ステップS506では、第2のモデル生成部146は、投影した裏面頂点が表面モデルと重なるか否かを判定する。第2のモデル生成部146は、裏面頂点が表面モデルと重なると判定した場合(Yes)には次のループを実行し、裏面頂点が表面モデルと重ならないと判定した場合(No)にはステップS507に進む。ステップS507では、第2のモデル生成部146は、表面モデルと重ならないと判定された裏面モデルの頂点の深度を表面モデルの頂点の深度になるよう調整する。
図6(c)に示した例では、裏面頂点613は表面モデル601と重ならないため、図6(d)に示すように調整後の裏面頂点623へ移動する。その後、裏面頂点610、611、612と調整後の裏面頂点623とを頂点として裏面モデル606が生成される。第2のモデル生成部146は、このようにして表面モデルの頂点毎に裏面頂点の生成及び調整を行い、モデル化対象の現実物に係る裏面モデルを生成する。
第2の実施形態によれば、第1の実施形態と同様に、モデル化対象の現実物である手の厚みを考慮して高精度にCGモデルの操作を可能とし、ユーザが見まわした場合にも違和感のない現実物に係るモデルを高速に生成することができる。
(本発明の他の実施形態)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
110:撮像装置 120:入力装置 130:表示装置 140:情報処理装置 141:画像取得部 142:情報登録部 143:データ記憶部 144:領域検出部 145:第1のモデル生成部 146:第2のモデル生成部 147:接触判定部 148:画像生成部
Claims (10)
- 撮像装置が撮像した撮像画像から対象の現実物の領域を検出する領域検出手段と、
前記領域検出手段により検出した領域に基づいて、前記現実物に係る表面モデルを生成する第1のモデル生成手段と、
前記第1のモデル生成手段により生成された前記表面モデルの法線の方向に厚みを付けて前記現実物に係る裏面モデルを生成する第2のモデル生成手段とを有することを特徴とする情報処理装置。 - 前記第2のモデル生成手段は、前記第1のモデル生成手段により生成された前記表面モデルの法線の方向に、前記現実物の厚み情報に基づいて前記表面モデルの頂点を投影して裏面深度曲面を生成し、該裏面深度曲面に前記表面モデルの頂点を投影した位置に頂点を生成して前記裏面モデルを生成することを特徴とする請求項1に記載の情報処理装置。
- 前記第2のモデル生成手段が前記裏面深度曲面に前記表面モデルの頂点を投影する方向は視線ベクトル方向であることを特徴とする請求項2に記載の情報処理装置。
- 前記第2のモデル生成手段は、前記現実物の領域の端部からの距離に応じて前記裏面深度曲面を補正することを特徴とする請求項2又は3に記載の情報処理装置。
- 前記第2のモデル生成手段が前記裏面深度曲面に前記表面モデルの頂点を投影する方向は奥行方向であることを特徴とする請求項2に記載の情報処理装置。
- 前記第2のモデル生成手段は、前記表面モデルと前記裏面モデルの頂点を画像平面に投影し、投影された前記裏面モデルの頂点が前記表面モデルと重ならない場合に前記裏面モデルの頂点の深度を調整することを特徴とする請求項2又は5に記載の情報処理装置。
- 前記第2のモデル生成手段は、前記表面モデルからの投影では導出されない裏面深度を、投影で導出された裏面深度の勾配値から補間することを特徴とする請求項2~6の何れか1項に記載の情報処理装置。
- 撮像装置が撮像した撮像画像から対象の現実物の領域を検出する領域検出工程と、
前記領域検出工程にて検出した領域に基づいて、前記現実物に係る表面モデルを生成する第1のモデル生成工程と、
前記第1のモデル生成工程にて生成された前記表面モデルの法線の方向に厚みを付けて前記現実物に係る裏面モデルを生成する第2のモデル生成工程とを有することを特徴とする情報処理方法。 - 撮像装置が撮像した撮像画像から対象の現実物の領域を検出する領域検出ステップと、
前記領域検出ステップにて検出した領域に基づいて、前記現実物に係る表面モデルを生成する第1のモデル生成ステップと、
前記第1のモデル生成ステップにて生成された前記表面モデルの法線の方向に厚みを付けて前記現実物に係る裏面モデルを生成する第2のモデル生成ステップとをコンピュータに実行させるためのプログラム。 - 請求項9に記載のプログラムを記憶した記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021007958A JP2022112228A (ja) | 2021-01-21 | 2021-01-21 | 情報処理装置、情報処理方法及びプログラム |
US17/579,402 US11983814B2 (en) | 2021-01-21 | 2022-01-19 | Image processing apparatus that generates model of object, image processing method, and storage medium storing program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021007958A JP2022112228A (ja) | 2021-01-21 | 2021-01-21 | 情報処理装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022112228A true JP2022112228A (ja) | 2022-08-02 |
Family
ID=82406489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021007958A Pending JP2022112228A (ja) | 2021-01-21 | 2021-01-21 | 情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11983814B2 (ja) |
JP (1) | JP2022112228A (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NO20045586L (no) * | 2004-12-21 | 2006-06-22 | Sinvent As | Anordning og fremgangsmate for bestemmelse av skjaeringslinjer |
JP5818857B2 (ja) | 2013-10-24 | 2015-11-18 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
JP2016071645A (ja) | 2014-09-30 | 2016-05-09 | Kddi株式会社 | オブジェクト3次元モデル復元方法、装置およびプログラム |
JP7029253B2 (ja) | 2017-08-31 | 2022-03-03 | キヤノン株式会社 | 情報処理装置及びその方法 |
CN109658525A (zh) * | 2018-12-28 | 2019-04-19 | 北京金山安全软件有限公司 | 3d模型中冗余数据的清除方法、装置及电子设备 |
-
2021
- 2021-01-21 JP JP2021007958A patent/JP2022112228A/ja active Pending
-
2022
- 2022-01-19 US US17/579,402 patent/US11983814B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11983814B2 (en) | 2024-05-14 |
US20220230393A1 (en) | 2022-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5818773B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP3944019B2 (ja) | 情報処理装置および方法 | |
US8055061B2 (en) | Method and apparatus for generating three-dimensional model information | |
JP5248806B2 (ja) | 情報処理装置、情報処理方法 | |
JP4473754B2 (ja) | 仮想試着装置 | |
KR101707707B1 (ko) | 인체 모델을 이용한 가상 아이템 피팅 방법 및 가상 아이템의 피팅 서비스 제공 시스템 | |
JP4667111B2 (ja) | 画像処理装置、画像処理方法 | |
JP5818857B2 (ja) | 情報処理装置およびその制御方法 | |
JP4677281B2 (ja) | 画像処理方法、画像処理装置 | |
KR101556992B1 (ko) | 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템 | |
US11490062B2 (en) | Information processing apparatus, information processing method, and storage medium | |
WO2016033085A1 (en) | Method of making a personalized animatable mesh | |
JP7029253B2 (ja) | 情報処理装置及びその方法 | |
JP2022112228A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2008040913A (ja) | 情報処理方法、情報処理装置 | |
JP2002015338A (ja) | モデルの変形方法およびモデリング装置 | |
JP2018128739A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム、及び記憶媒体 | |
JP6948801B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP7321029B2 (ja) | キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体 | |
WO2023120217A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP7465133B2 (ja) | 情報処理装置、情報処理方法 | |
JP2002056407A (ja) | 画像生成システム | |
JP4924747B2 (ja) | 標準モデルの変形方法およびモデリング装置 | |
JP6660159B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP2006277350A (ja) | 情報処理方法、情報処理装置 |