JP2019046096A - 情報処理装置及びその方法 - Google Patents

情報処理装置及びその方法 Download PDF

Info

Publication number
JP2019046096A
JP2019046096A JP2017167663A JP2017167663A JP2019046096A JP 2019046096 A JP2019046096 A JP 2019046096A JP 2017167663 A JP2017167663 A JP 2017167663A JP 2017167663 A JP2017167663 A JP 2017167663A JP 2019046096 A JP2019046096 A JP 2019046096A
Authority
JP
Japan
Prior art keywords
thickness
unit
image
model
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017167663A
Other languages
English (en)
Other versions
JP7029253B2 (ja
JP2019046096A5 (ja
Inventor
中川 真志
Shinji Nakagawa
真志 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017167663A priority Critical patent/JP7029253B2/ja
Priority to US16/111,950 priority patent/US10672196B2/en
Publication of JP2019046096A publication Critical patent/JP2019046096A/ja
Publication of JP2019046096A5 publication Critical patent/JP2019046096A5/ja
Application granted granted Critical
Publication of JP7029253B2 publication Critical patent/JP7029253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】 ユーザが自然な感覚でCGを操作することが可能になる。【解決手段】 撮像部を有する表示装置と通信し、当該表示装置に表示すべき画像を生成する情報処理装置であって、撮像部で撮像した画像を取得する画像取得部と、ユーザが操作する操作部の厚みに関する情報を設定する設定部と、画像取得部により取得した画像内の操作部が存在する領域を検出し、当該領域に基づき操作部の撮像部から見える表面モデルを生成する表面モデル生成部と、設定部で設定した厚みに関する情報に基づき、表面モデルから厚みを有する厚みモデルを生成する厚みモデル生成部と、該厚みモデル生成部で生成した厚みモデルに基づきCGオブジェクトとの接触判定を行って、表示装置に表示すべき画像を生成する画像生成部とを有する。【選択図】 図1

Description

本発明は、撮像画像から特定の現実物をモデル化するための情報処理装置に関する。
近年、現実空間に仮想空間の情報をリアルタイムに重ね合せて利用者に提示する複合現実感(MR:Mixed Reality)に関する研究が行われている。複合現実感では、頭部装着ディスプレイ(HMD:Head Mounted Display)などの撮像装置によって撮像された現実の映像の全域、または一部に、撮像装置の位置姿勢に応じた仮想空間の画像(CG:Computer Graphics)を重畳した合成画像を表示する。
このとき、現実物と仮想物体の距離に応じて撮像画像領域にある特定の現実物領域に仮想物体を表示しないことで物体間の距離感を表現することができる。例えば、HMDを装着したユーザが自分の手や工具などの現実物を仮想物体の前にかざしたとき、撮像画像上の手や工具の領域に仮想物体を描画しなければ自分の手や工具が仮想物体の手前にあるように表示される。これにより、ユーザは仮想物体と現実物の位置関係を把握しやすくなり、仮想空間上で現実の手や工具を用いた作業の検証が容易になる。
このように、現実物と仮想物体の位置関係を正しく表現するためには、現実物領域の検出、および現実物の距離計測が必要となる。しかしながら、HMDに取り付けられた距離計測装置で現実物までの距離を計測しても、得られるのは、HMDと現実物の表面間の距離であり、現実物そのものの奥行き(HMD側の面とその反対側の面の距離)を取得することはできない。この結果、複合現実感において現実の手とCGモデルの接触判定を行う場合、カメラから現実の手の表面までの距離を計測しても、実際にCGモデルと接触している手の裏面との接触判定が行えないという問題がある。
特開2015−82288号公報 特開2016−71645号公報
J.P.Lewis, Matt Corder, and Nickson Fong. Pose space deformations. A unified approach to shape interpolation and skeleton-driven deformation. Proceedings of SIGGRAPH 2000, pp.165-172, July 2000
例えば、特許文献1は、複数視点カメラで奥行き推定する場合に、画像間で対応付けができない点の奥行きを、対応付けできた点の奥行きから推定する手法を開示している。また、非特許文献1は、事前に用意した体や手のCGモデルを利用してモーションキャプチャで得られた関節に厚み付けを行っている。また、特許文献2は、深度画像を基に正面領域だけでなく側面領域も含めた広範囲の三次元モデルを復元する手法を提案している。
しかしながら、特許文献1では複数のカメラ間でマッチングできない領域に対して奥行きを推定できる一方で、すべてのカメラで見えない領域の奥行きを推定することはできない。また、非特許文献1では、モーションキャプチャで得られる関節位置などからモデルを再構築した際にCGモデルと現実物の位置や太さ、長さを一致させることは難しく、複合現実感において見た目のずれが生じる問題がある。さらに、特許文献2ではボクセルを利用することを前提としており、精度良くモデルの奥行きを推定する場合には、ボクセルを細かくしなければならず奥行モデルの生成に多大なメモリと時間を要する、という問題がある。
MRにおいてユーザが自身の手でCGモデルを操作する場合がある。この場合、ステレオカメラや深度センサからユーザの手をモデル化し、モデル化した手とCGモデルの前後関係を表現しながら高速な接触判定を行う必要がある。ここで、モデル化された手を表示するとき、表示位置に実写の手画像を重ね合わせることでユーザは現実の手でCGモデルを操作するように感じる。
一方で、モデル化した手が現実の手形状と異なると現実映像と見た目のずれが生じてしまい、ユーザに違和感を与える。また、HMDに取り付けられた距離計測装置を用いて物体表面だけをモデル化する場合、厚みを考慮することができずCGモデルとの接触判定が正しく行えずユーザに違和感を与える問題がある。
本発明は係る問題に鑑みなされたものであり、ユーザが自然な感覚でCGを操作する技術を提供しようとするものである。
この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、
撮像手段を有する表示装置と通信し、当該表示装置に表示すべき画像を生成する情報処理装置であって、
前記撮像手段で撮像した画像を取得する画像取得手段と、
ユーザが操作する操作部の厚みに関する情報を設定する設定手段と、
前記画像取得手段により取得した画像内の前記操作部が存在する領域を検出し、当該領域に基づき前記操作部の前記撮像手段から見える表面モデルを生成する表面モデル生成手段と、
前記設定手段で設定した厚みに関する情報に基づき、前記表面モデルから厚みを有する厚みモデルを生成する厚みモデル生成手段と、
該厚みモデル生成手段で生成した厚みモデルに基づきCGオブジェクトとの接触判定を行って、前記表示装置に表示すべき画像を生成する画像生成手段とを有することを特徴とする。
本発明によれば、ユーザが自然な感覚でCGを操作することが可能になる。
第1の実施形態におけるシステム構成図。 第1の実施形態における厚み登録部の登録方法を示す図。 第1の実施形態における厚みモデル生成部の処理を示すフローチャート。 第1の実施形態における対象物領域検出部の入力画像の例を示す図。 第1の実施形態における対象物領域検出部の出力画像の例を示す図。 第1の実施形態における厚みモデル生成部における法線方向に厚み付けしたモデルを示す図。 第1の実施形態における厚みモデル生成部における頂点の修正位置を示す図。 変形例における厚みモデルと圧力の関係を示す図。
以下図面に従って本発明に係る実施形態を詳細に説明する。
<装置構成>
図1に本実施形態に係る撮像装置を制御する情報処理装置のブロック図を示す。本実施形態では、撮像装置100、入力装置200、表示装置300が情報処理装置1000に接続された構成となる。ただし、撮像装置100はステレオ構成とする。例えば、撮像装置100はビデオシースルー型HMD(HeadMountedDisplay)に設けられる撮像カメラであり、表示装置300はHMDやPCモニタなどのディスプレイである。また、HMDの位置姿勢の検出は、HMDの撮像装置が撮像した画像内に写っているマーカ(マーカーの種類と位置が既知)に基づいて行うものとするが、HMDの位置姿勢を検出する手段についてが、その種類を問わない。
情報処理装置1000は、パーソナルコンピュータなどに代表される装置であって、内部にプロセッサ、RAM(メモリ)、OS(オペレーティングシステム)や以下に説明する各種処理を実現するためのアプリケーションプログラムを記憶する外部記憶装置(ハードディスク等が代表である)、各種外部機器(HMD(撮像装置100、表示装置300)、入力装置200(キーボード、ポインティングデバイス等))と通信するインターフェースを有する。そして、本装置の電源がONになると、プロセッサは外部記憶装置からメモリにOSをロードし実行し、次いでアプリケーションを実行する。この結果、プロセッサは、情報処理装置1000内の厚み登録部1020、データ記憶部1030、対象物領域検出部1040、表面モデル生成部1050、厚みモデル生成部1060、接触判定部1070、表示画像生成部1080が機能する。なお、これらの全てがソフトウェアで実現するのではなく、その一部がハードウェアで実現させても構わない。以下は各構成要素の機能の説明である。
撮像画像取得部1010は、HMDから、HMDに搭載された撮像装置100による撮像画像を受信し、データ記憶部1030に一時的に格納する。厚み登録部1020は、入力部200より入力した、実施形態におけるモデル化対象物の厚みに関する情報(厚みパラメータ)をデータ記憶部1030に格納する。データ記憶部1030は、例えばRAMに確保されるメモリ領域である。なお、モデル化対象物は、実施形態では、HMDを装着したユーザが操作する操作部であり、具体的にはユーザの手である。
対象物領域検出部1040は、データ記憶部1030に記憶された撮像画像を読出し、その撮像画像内に存在するモデル化対象となる現実物(実施形態では手)の領域を検出する。例えば、現実物の色辞書を用いて画像内の特定の色領域を検出しても良いし、機械学習によって対象物領域を検出しても良い。撮像画像から現実物領域を検出可能であれば、その検出の種類は問わない。
表面モデル生成部1050は、対象物領域検出部1040で検出した検出領域から三次元モデルを生成する。例えば、ステレオ画像の検出領域の輪郭で対応点を求めステレオマッチングすることで対象の三次元のポリゴンモデルを生成する。なお、ステレオマッチングにより生成した三次元モデルは、あくまで撮像装置の視線方向に厚みを持たない薄い表面モデルである。ただし、この三次元モデルを撮像画像に投影すると検出領域と一致する。
厚みモデル生成部1060は、表面モデル生成部1050で生成した表面モデルに対して撮像画像に投影した際の見た目を変えないように、データ記憶部1030に登録された厚みパラメータに応じた厚みを付ける。つまり、厚みモデル生成部1060は、単に撮像装置から見える、厚みの無い表面の3次元形状から、奥行きのある「物」としてのモデルを生成する。
接触判定部1070は、厚みモデル生成部1060で生成した厚みモデルとデータ記憶部に記憶されたCGモデルとの接触判定を行う。接触判定は境界ボリュームの階層構造やGJK法など何れの判定手法でも良い。このとき、モデル同士がめり込まないようにCGモデルに対して衝突応答を行っても良いし、接触をトリガーとしてCGモデルに対する操作(移動処理等)を行っても良い。
表示画像生成部1080は、接触判定部1070で計算されたCGモデルと厚みモデル、およびデータ記憶部1030に記憶した撮像画像の重畳する画像生成を行い、表示装置300に生成された画像を表示出力する。このとき、最初に撮像画像を背景に描画し、次に深度テストを有効にして透明な厚みモデルをレンダリング、最後にCGモデルをレンダリングすることで、厚みモデルの位置に現実物の画像を重畳することができる。
<処理の手順>
本実施形態の特徴は、厚み登録部1020と厚みモデル生成部の2つの処理にある。厚み登録部1020は、対象となるモデルの厚みをUI上から入力する。厚みの登録はモデルの厚みをキーボードやマウスから入力しても良いし、対象の現実物をステレオカメラで撮影してステレオマッチングから自動的に厚みを入力してもよい。例えば、図2に示すように対象の現実物を撮影し、表面モデル生成部1050で生成した表面モデルの横幅を厚みとする。
図3は、実施形態の表面モデル生成部1050の処理の流れを示したフロー図である。また、図4は撮像画像を示し、図5は対象物領域検出部1040が検出し、生成した領域画像を示しておる。
ステップS2010にて、表面モデル生成部1050は、生成した表面モデル110を構成する頂点の法線を計算する(実施形態では、この頂点は、対象物領域検出部1040が検出した領域における最も垂直方向に位置している点とする)。次に、表面モデル生成部1050は、図6に示すように、厚みパラメータに基づき、法線の正負方向に新たな頂点を生成して上下表面モデル120を生成する。さらに、表面モデル110は、上下表面モデル生成後に側面モデルを生成する。側面モデルは上下表面モデル120の対応する頂点と表面モデル110の輪郭から得られる隣接頂点を3頂点としたポリゴンの組み合わせで表現できる。
ステップS2020にて、表面モデル生成部1050は、ステップS2010で生成した厚みモデルの各頂点を対象物領域検出部1040で生成した検出領域画像に投影する。
次にステップS2030にて、表面モデル生成部1050は、各頂点が検出領域画像の内か外か判定する。例えば、図6の頂点140を投影すると図5の頂点140位置が検出領域外に出ていることが判る。
最後に、ステップS2040にて、表面モデル生成部1050は、検出領域画像の外にある場合は、図7に示すように頂点140を視線上に移動して厚みモデルを変形する。ここで、移動後の頂点を150とする。例えば、頂点140の法線がn、視線方向がe、厚みがd[mm]のとき、頂点の移動量は視線と逆方向にx[mm]となる。移動量xの算出方法を次式(1)に示す。
Figure 2019046096
<変形例1>
上記実施形態では、厚み登録部1020で現実物の厚みを入力したが、厚みの代わりに体積を登録しても良い。例えば、モデルの体積をキーボードやマウスから入力しても良いし、カメラを用いて対象の現実物の三次元再構成を行うことでモデルの体積を算出しても良い。
実施形態における厚みモデル生成部1060は、入力された厚みだけ法線方向に厚みを付けていたが、変形例1では設定した体積にするように厚み量を動的に計算する。厚みモデルの体積は、ガウスの発散定理より次式(2)で計算できる。
Figure 2019046096
ここで、Vはモデルの体積、Sはモデルの表面積、Aは任意のベクトルである。Aは任意のベクトルなのでdivA=1(例えば、A=(x, 0, 0))とすると次式(3)となる。
Figure 2019046096
ここで、厚みモデルを構成するポリゴンiの頂点をvi1,vi2,vi3とするとdSは次式(4)で表せる。
Figure 2019046096
式(3)、(4)より、厚みモデルの体積は次式(5)で近似できる。
Figure 2019046096
次に体積が設定値となるように頂点を移動する。例えば、圧力モデルによって頂点を動的に移動すればよい。圧力モデルは厚みモデルの内部に気体が入っているものと考え、体積の変化に応じた圧力変化によって変形する手法である。
例えば、現在の体積をV、設定した体積をV’とするとボイル=シャルルの法則より次式(6)が成り立つ。
Figure 2019046096
ただし、Tは現在の気体の温度、pは現在の圧力、T’は設定した体積での気体の温度、p’は設定した体積での圧力である。ここで変形前後の気体の温度が等しければ次式(7)が成り立ち、体積から気体の圧力が求められる。
Figure 2019046096
また、体積V’で内圧と外圧が釣り合っている状態と考えると外圧はp’となり、内外圧差はp-p’となる。ここで、圧力は単位面積当たりの応力なので、ポリゴンの面積に応じてポリゴンを構成する頂点に力を加えて厚みモデルを変形していく。図8に厚みモデルと圧力の関係を示す。厚みモデルの体積が小さいときは大きな内圧により厚みモデルの頂点が外側に膨らんでいき、設定した体積に近づくと内圧が小さくなり体積の変動も少なくなる。
このように、厚みモデルが設定した体積になるまで同様の計算を繰り返すことで体積を一定にすることができる。
なお、頂点が検出領域から出る場合には視線方向に直交する向きに、はみ出した大きさに応じた力を加えることで検出領域画像からモデルがはみ出さないようにできる。
以上説明したように実施形態によれば、ユーザの手の表面モデルから、厚みモデルを求め、その厚みモデルを用いてCGオブジェクトとの衝突判定を行った画像を生成するので、違和感の発生しにくい画像を生成することが可能になる。
なお、実施形態ではユーザは表示装置としてHMDを例にして説明したが、例えばスマートホンやタブレット等のカメラ付きの表示装置であっても構わないので、上記実施形態により本願発明が限定されるものではない。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…撮像装置、200…入力装置、300…表示装置、1000…情報処理装置、1010…撮像画像取得部、1020…厚み登録部、1030…データ記憶部、1040…対象物領域検出部、1050…表面モデル生成部、1060…厚みモデル生成部、1070…接触判定部、1080…表示画像生成部

Claims (7)

  1. 撮像手段を有する表示装置と通信し、当該表示装置に表示すべき画像を生成する情報処理装置であって、
    前記撮像手段で撮像した画像を取得する画像取得手段と、
    ユーザが操作する操作部の厚みに関する情報を設定する設定手段と、
    前記画像取得手段により取得した画像内の前記操作部が存在する領域を検出し、当該領域に基づき前記操作部の前記撮像手段から見える表面モデルを生成する表面モデル生成手段と、
    前記設定手段で設定した厚みに関する情報に基づき、前記表面モデルから厚みを有する厚みモデルを生成する厚みモデル生成手段と、
    該厚みモデル生成手段で生成した厚みモデルに基づきCGオブジェクトとの接触判定を行って、前記表示装置に表示すべき画像を生成する画像生成手段と
    を有することを特徴とする情報処理装置。
  2. 前記厚みモデル生成手段は、
    前記表面モデルの法線方向に厚みをつける厚み付け手段と、
    前記厚みモデルを前記操作部が示す領域に投影した際の領域の外に出ないようにモデルを変形する変形手段と、
    を有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記変形手段は、領域外に出る領域を前記撮像手段の視線方向に変形することを特徴とする請求項2に記載の情報処理装置。
  4. 前記厚みモデル生成手段は、厚みを体積から算出する手段を有することを特徴とする請求項1に記載の情報処理装置。
  5. 前記表示装置は、頭部装着ディスプレイであることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 撮像手段を有する表示装置と通信し、当該表示装置に表示すべき画像を生成する情報処理装置の制御方法であって、
    前記撮像手段で撮像した画像を取得する画像取得工程と、
    前記ユーザが操作する操作部の厚みに関する情報を設定する設定工程と、
    前記画像取得工程により取得した画像内の前記操作部が存在する領域を検出し、当該領域に基づき前記操作部の前記撮像手段から見える表面モデルを生成する表面モデル生成工程と、
    前記設定工程で設定した厚みに関する情報に基づき、前記表面モデルから厚みを有する厚みモデルを生成する厚みモデル生成工程と、
    該厚みモデル生成工程で生成した厚みモデルに基づきCGオブジェクトとの接触判定を行って、前記表示装置に表示すべき画像を生成する画像生成工程と、
    を有することを特徴とする情報処理装置の制御方法。
  7. コンピュータが読み込み実行することで、前記コンピュータに、請求項6に記載の各工程を実行させるためのプログラム。
JP2017167663A 2017-08-31 2017-08-31 情報処理装置及びその方法 Active JP7029253B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017167663A JP7029253B2 (ja) 2017-08-31 2017-08-31 情報処理装置及びその方法
US16/111,950 US10672196B2 (en) 2017-08-31 2018-08-24 Information processing apparatus and method of controlling an information processing apparatus that generate, for display, a composed image in which a computer graphics object is overland on a portion of the image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017167663A JP7029253B2 (ja) 2017-08-31 2017-08-31 情報処理装置及びその方法

Publications (3)

Publication Number Publication Date
JP2019046096A true JP2019046096A (ja) 2019-03-22
JP2019046096A5 JP2019046096A5 (ja) 2020-10-08
JP7029253B2 JP7029253B2 (ja) 2022-03-03

Family

ID=65435549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017167663A Active JP7029253B2 (ja) 2017-08-31 2017-08-31 情報処理装置及びその方法

Country Status (2)

Country Link
US (1) US10672196B2 (ja)
JP (1) JP7029253B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983814B2 (en) 2021-01-21 2024-05-14 Canon Kabushiki Kaisha Image processing apparatus that generates model of object, image processing method, and storage medium storing program thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102557356B1 (ko) 2017-12-22 2023-07-18 매직 립, 인코포레이티드 가상, 증강 또는 혼합 현실 환경에서 3d 비디오들을 생성 및 디스플레이하기 위한 방법들 및 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256499A (ja) * 2002-03-04 2003-09-12 Japan Science & Technology Corp グリップ形状の設計システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5818857B2 (ja) 2013-10-24 2015-11-18 キヤノン株式会社 情報処理装置およびその制御方法
JP2016071645A (ja) 2014-09-30 2016-05-09 Kddi株式会社 オブジェクト3次元モデル復元方法、装置およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256499A (ja) * 2002-03-04 2003-09-12 Japan Science & Technology Corp グリップ形状の設計システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
久米 佑太 他: "素手による仮想物体とのインタラクションにおける視覚的改良の検討", 映像情報メディア学会技術報告, vol. 第41巻 第4号, JPN6021024357, 11 February 2017 (2017-02-11), JP, pages 69 - 72, ISSN: 0004537179 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983814B2 (en) 2021-01-21 2024-05-14 Canon Kabushiki Kaisha Image processing apparatus that generates model of object, image processing method, and storage medium storing program thereof

Also Published As

Publication number Publication date
JP7029253B2 (ja) 2022-03-03
US20190066388A1 (en) 2019-02-28
US10672196B2 (en) 2020-06-02

Similar Documents

Publication Publication Date Title
CN108780586B (zh) 图像处理方法、显示设备和检查系统
KR101453815B1 (ko) 사용자의 시점을 고려하여 동작인식하는 인터페이스 제공방법 및 제공장치
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
CN110913751B (zh) 具有滑动检测和校正功能的可穿戴眼睛跟踪系统
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP2021192250A (ja) 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム
CN108475439B (zh) 三维模型生成系统、三维模型生成方法和记录介质
JP4829141B2 (ja) 視線検出装置及びその方法
KR101556992B1 (ko) 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템
JP5709440B2 (ja) 情報処理装置、情報処理方法
CN110956695B (zh) 信息处理装置、信息处理方法和存储介质
JP2011028309A5 (ja)
JP2015505089A (ja) 姿勢を推定する方法及び装置
JP2017191576A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
JP2009020761A (ja) 画像処理装置及びその方法
KR20160110070A (ko) 전자 장치 및 그 제어 방법
JP5597064B2 (ja) 情報処理装置およびその方法
JP7029253B2 (ja) 情報処理装置及びその方法
JP2010211732A (ja) 物体認識装置および方法
JP5518677B2 (ja) 仮想情報付与装置及び仮想情報付与プログラム
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN113228117B (zh) 创作装置、创作方法和记录有创作程序的记录介质
JP2022112228A (ja) 情報処理装置、情報処理方法及びプログラム
JP3668168B2 (ja) 動画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200828

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220218

R151 Written notification of patent or utility model registration

Ref document number: 7029253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151