JP6698946B2 - 情報処理装置、制御方法、及びプログラム - Google Patents
情報処理装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP6698946B2 JP6698946B2 JP2019525579A JP2019525579A JP6698946B2 JP 6698946 B2 JP6698946 B2 JP 6698946B2 JP 2019525579 A JP2019525579 A JP 2019525579A JP 2019525579 A JP2019525579 A JP 2019525579A JP 6698946 B2 JP6698946 B2 JP 6698946B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- bone
- virtual space
- virtual
- virtual volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 55
- 230000010365 information processing Effects 0.000 title claims description 54
- 210000000988 bone and bone Anatomy 0.000 claims description 89
- 230000033001 locomotion Effects 0.000 claims description 73
- 230000008859 change Effects 0.000 claims description 47
- 238000004088 simulation Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 5
- 230000002123 temporal effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 34
- 238000012545 processing Methods 0.000 description 25
- 238000004891 communication Methods 0.000 description 17
- 210000001364 upper extremity Anatomy 0.000 description 13
- 210000003128 head Anatomy 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 210000003141 lower extremity Anatomy 0.000 description 9
- 230000005484 gravity Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 241000251539 Vertebrata <Metazoa> Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013213 extrapolation Methods 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000005489 elastic deformation Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001936 parietal effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
Description
本実施の形態は、以上の構成を基本的に備え、次のように動作する。すなわち、本実施の形態の情報処理装置1は、図4に例示するように、撮像部14で撮像された画像データ、及び、当該画像データの各画素に撮像されている実空間内の対象物までの距離の情報を受け入れ(S1)、当該取得した情報に基づいて、実空間内の対象物を表す仮想空間内の点群の各点の色及び位置を決定する(S2)。情報処理装置1は、ここで設定した点群に含まれる各点の位置及び色の情報を記憶部12に格納して保存する(S3)。
以下、情報処理装置1の制御部11による仮想体積要素の移動の推定の処理のいくつかの例について説明する。まず、この制御部11は、仮想体積要素そのものを基準として推定を行うこととしてもよい。具体的に、この例では、記憶部12に保存した過去N回分(Nは2以上の正の整数であり、例えばN=2(前回の点群と今回の点群の2つ))の点群情報を参照し、当該参照した点群内の各点について、対応する点を識別し、対応する点ごとの移動量(仮想空間の座標系、例えばξ,η,ζ直交座標で表される)を求める。
また、仮想体積要素が、人体などのように、ボーンモデルによって推定が可能な対象を表す場合は、情報処理装置1の制御部11による仮想体積要素のそれぞれを、対象となった脊椎動物(以下の説明では人体を例とする)のどのボーンに対応するものかを識別しておき、ボーンモデルに基づいて仮想体積要素の移動量を推定してもよい。
Δξ_i=(1−α)・ΔξIK+α・Δξpc_i
Δη_i=(1−α)・ΔηIK+α・Δηpc_i
Δζ_i=(1−α)・ΔζIK+α・Δζpc_i
などと定めてもよい。この例によると、ボーンに近い点ほどボーンに基づく推定結果に対応する移動量だけ移動したものと推定され、ボーンから離れた点ほど、点群そのものについて推定された移動量が反映されることとなり、例えば上腕部に対応する部分の衣服(ボーンから比較的離れた場所となる)の動きが実際の動きに基づいて反映されるとともに、ボーンの移動量の推定結果から著しく離れた場所に移動するという不自然な動きとなることが阻止される。
また撮像部14が撮像した画像データ等に基づいて(点群の情報を用いずに)、制御部11が対象物のボーンやジョイントの位置及び角度を推定できる場合(画像データに基づくボーンやジョイントの推定方法は広く知られているので、ここでの詳しい説明を省略する)は、点群の移動量に基づくことなく、当該推定された位置及び角度に基づいて各ボーンの移動量(各ボーンの位置及び方向に係る時間変化の情報)を推定してもよい。この場合、画像データに基づいてボーンの移動量が推定できない場合に、制御部11がラベリング処理した点群の移動量から、ボーンの移動量を推定するようにしてもよい。
さらにここでは、ボーンの移動量(位置及び角度の時間変化)に基づく、所定の時間だけ後のボーンの位置及び角度の推定結果は、当該ボーンの単位時間あたりの移動量に、上記所定の時間の長さを乗じて得ることとしていたが本実施の形態はこれに限られない。このようなボーンの移動量の変化については、代表的なポーズの変化(過去に実測されたもの)を機械学習させてデータベースとして記録しておき、ボーンの移動量を入力したときに、所定の時間だけ後のボーンの位置及び角度の推定結果が得られるようにしておいてもよい。
また、ここでの例では、ボーンに近い点ほどボーンに基づく推定結果に対応する移動量だけ移動したものと推定され、ボーンから離れた点ほど、点群そのものについて推定された移動量が反映されるものとしたが、本実施の形態はこれに限られない。例えば、ボーンから所定の距離以上に重力方向下方に離れている点については、点群そのものについて推定された移動量がより大きく反映されるようにしてもよい。すなわち、ボーンから所定の距離以上離れた位置にあり、かつボーンから重力方向下方に存在する点については、そうでない点に比べ、上記パラメータαを「1」により近い値(点群そのものについて推定された移動量をより強く反映する値)に設定する。
また、ここまでの説明では、ボーンの情報を用いつつ、点群の各点など、個々の仮想体積要素の過去の移動量に基づいて、個々の仮想体積要素の所定タイミングでの位置を推定することとしていたが、本実施の形態はこれに限られない。
さらに情報処理装置1の制御部11は、過去に保存した、仮想空間内の仮想体積要素の配置位置と色との情報(仮想空間の情報)を参照し、当該仮想体積要素の少なくとも一部について、その過去の移動を表す、仮想空間の情報の時間変化の情報を検出して、過去のタイミングにおける各仮想体積要素の位置及び色を推定してもよい。具体的に、制御部11は、過去の時刻T0,T1,T2,T3…において、撮像部14が撮像した画像データ、及び、当該画像データの各画素に撮像されている実空間内の対象物までの距離の情報に基づいて決定された、実空間内の対象物を表す仮想空間内の仮想体積要素(点群等)の色及び位置の情報を、記憶部12に保存しているものとする。
また、ここまでの説明の例では、制御部11は仮想空間に配した仮想体積要素の位置及び色の情報の時間変化に基づいて、将来の所定のタイミング、または過去のタイミングにおける各仮想体積要素の位置及び色を外挿により推定していた。しかしながら、本実施の形態はこれに限られず、制御部11は仮想空間に配した仮想体積要素の位置及び色の情報の時間変化に基づき、所定のシミュレーションエンジンによるシミュレーションを行い、当該シミュレーションの結果として将来の所定のタイミング、または過去のタイミングにおける各仮想体積要素の位置及び色を推定してもよい。ここでのシミュレーションは、物理現象に基づくシミュレーション(いわゆる物理シミュレーション)や、物理現象を誇張したアニメーション的効果のシミュレーション(変形を誇張したり、触れたとたんに粒子として飛び散るように効果を設定したり、といったアニメーション処理の適用シミュレーション)、化学現象のシミュレーション(反応シミュレーション)等、種々のシミュレーション処理を用いることができる。
またここまでの説明では、情報処理装置1の制御部11が、実空間情報取得部31と、点群配置部32と、保存部33と、推定部34と、推定点群配置部35と、仮想空間情報生成部36としての動作を行うものとしたが、この例に代えて、制御部11は、撮像部14が撮像した画像データや、取得した、実空間内の対象物までの距離の情報を、別途用意されたサーバ装置へ送出し、このサーバ装置にて実空間情報取得部31と、点群配置部32と、保存部33と、推定部34と、推定点群配置部35と、仮想空間情報生成部36と、出力部37のうち少なくとも一つの動作を行わせ、サーバ装置に、当該処理の結果としての仮想空間内の所定の位置(例えばユーザの目の位置)に配した仮想的なカメラの視野内の点群をレンダリングした画像データ等の処理の結果を、ユーザの情報処理装置1または表示装置2に対して、送信出力させ、その後の処理を情報処理装置1または表示装置2側にて行うようにしてもよい。
Claims (7)
- 現実空間内の対象物の位置及び外観に係る情報を取得する手段と、
前記取得した対象物の現実空間内の位置に対応する仮想空間内の位置に、当該対象物の少なくとも外観に沿って、複数の仮想体積要素を配して、当該仮想体積要素の集合により前記対象物を表現した仮想空間の情報を生成する仮想空間情報生成手段と、
当該生成した仮想空間の情報を保持する保持手段と、
前記保持された情報を参照し、前記仮想体積要素の少なくとも一部についての移動を表す、前記仮想空間の情報の時間変化の情報を検出する検出手段と、
当該検出した時間変化の情報に基づいて、所定の時間だけ後の、当該仮想体積要素の位置を推定する推定手段と、を含み、
前記仮想空間情報生成手段は、当該推定の結果に基づいて、所定の時間だけ後の仮想空間の情報を生成して出力し、
前記対象物のうち、対象物の移動または姿勢変化が、予め定められたボーンモデルに基づいて行われる対象物については、
前記検出手段が、当該ボーンモデルに含まれる各ボーンについて、当該ボーンとともに移動する仮想体積要素を識別するとともに、前記仮想空間の情報の時間変化の情報として、当該ボーンモデルの各ボーンの位置及び方向に係る時間変化の情報を検出し、
前記推定手段が、前記検出された各ボーンの位置及び方向に係る時間変化の情報に基づいて、所定の時間だけ後の、各ボーンの位置及び方向に係る情報を推定し、当該推定された各ボーンの位置に基づいて、各ボーンとともに移動するものとして識別された仮想体積要素の移動位置を推定する情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記ボーンの位置及び方向に係る時間変化の情報に対し、過去に実測された、当該時間変化の情報が得られた後のボーンの移動後の位置を表す情報を関連付けて保持するデータベースにアクセス可能に接続され、
前記推定手段は、前記検出したボーンの位置及び方向に係る時間変化の情報に基づいて、所定の時間だけ後の、当該ボーンの位置及び方向を、当該データベースに保持される情報に基づいて推定する情報処理装置。 - 請求項1または2に記載の情報処理装置であって、
前記所定の時間は、今後の所定の描画のタイミングに合致する時刻までの時間である情報処理装置。 - 請求項1または2に記載の情報処理装置であって、
過去に保持された前記仮想空間の情報を参照し、前記仮想体積要素の少なくとも一部についての過去の移動を表す、前記仮想空間の情報の時間変化の情報を検出し、当該検出した時間変化の情報に基づいて、過去の所定のタイミングにおける、当該仮想体積要素の位置を推定して、当該推定の結果に基づいて、所定の時間だけ後の仮想空間の情報を生成して出力する情報処理装置。 - 請求項1から4のいずれか一項に記載の情報処理装置であって、
前記推定手段は、さらに、所定の時間だけ後の、当該仮想体積要素の姿勢または形状を、予め定められた物理シミュレーションエンジンを用いて推定する情報処理装置。 - コンピュータを用い、
取得手段が、現実空間内の対象物の位置及び外観に係る情報を取得する工程と、
仮想空間情報生成手段が、前記取得した対象物の現実空間内の位置に対応する仮想空間内の位置に、当該対象物の少なくとも外観に沿って、複数の仮想体積要素を配して、当該仮想体積要素の集合により前記対象物を表現した仮想空間の情報を生成する工程と、
保持手段が、当該生成した仮想空間の情報を保持する工程と、
検出手段が、前記仮想体積要素の少なくとも一部についての移動を表す、前記仮想空間の情報の時間変化の情報を検出する工程と、
推定手段が、当該検出した時間変化の情報に基づいて、所定の時間だけ後の、当該仮想体積要素の位置を推定する工程と、を含み、
当該推定の結果に基づいて、所定の時間だけ後の仮想空間の情報を生成して出力し、
前記対象物のうち、対象物の移動または姿勢変化が、予め定められたボーンモデルに基づいて行われる対象物については、
前記検出手段が、当該ボーンモデルに含まれる各ボーンについて、当該ボーンとともに移動する仮想体積要素を識別するとともに、前記仮想空間の情報の時間変化の情報として、当該ボーンモデルの各ボーンの位置及び方向に係る時間変化の情報を検出し、
前記推定手段が、前記検出された各ボーンの位置及び方向に係る時間変化の情報に基づいて、所定の時間だけ後の、各ボーンの位置及び方向に係る情報を推定し、当該推定された各ボーンの位置に基づいて、各ボーンとともに移動するものとして識別された仮想体積要素の移動位置を推定する情報処理装置の制御方法。 - コンピュータを、
現実空間内の対象物の位置及び外観に係る情報を取得する手段と、
前記取得した対象物の現実空間内の位置に対応する仮想空間内の位置に、当該対象物の少なくとも外観に沿って、複数の仮想体積要素を配して、当該仮想体積要素の集合により前記対象物を表現した仮想空間の情報を生成する仮想空間情報生成手段と、
当該生成した仮想空間の情報を保持する保持手段と、
前記仮想体積要素の少なくとも一部についての移動を表す、前記仮想空間の情報の時間変化の情報を検出する検出手段と、
当該検出した時間変化の情報に基づいて、所定の時間だけ後の、当該仮想体積要素の位置を推定する推定手段と、
として機能させ、当該推定の結果に基づいて、所定の時間だけ後の仮想空間の情報を生成して出力させ、
前記対象物のうち、対象物の移動または姿勢変化が、予め定められたボーンモデルに基づいて行われる対象物については、
前記検出手段として機能させる際に、当該ボーンモデルに含まれる各ボーンについて、当該ボーンとともに移動する仮想体積要素を識別させるとともに、前記仮想空間の情報の時間変化の情報として、当該ボーンモデルの各ボーンの位置及び方向に係る時間変化の情報を検出させ、
前記推定手段として機能させる際に、前記検出された各ボーンの位置及び方向に係る時間変化の情報に基づいて、所定の時間だけ後の、各ボーンの位置及び方向に係る情報を推定させ、当該推定された各ボーンの位置に基づいて、各ボーンとともに移動するものとして識別された仮想体積要素の移動位置を推定させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017122407 | 2017-06-22 | ||
JP2017122407 | 2017-06-22 | ||
PCT/JP2018/022980 WO2018235744A1 (ja) | 2017-06-22 | 2018-06-15 | 情報処理装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018235744A1 JPWO2018235744A1 (ja) | 2020-01-23 |
JP6698946B2 true JP6698946B2 (ja) | 2020-05-27 |
Family
ID=64737100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019525579A Active JP6698946B2 (ja) | 2017-06-22 | 2018-06-15 | 情報処理装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200202609A1 (ja) |
JP (1) | JP6698946B2 (ja) |
WO (1) | WO2018235744A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11830131B2 (en) * | 2018-02-06 | 2023-11-28 | Veo Robotics, Inc. | Workpiece sensing for process management and orchestration |
JP2022063882A (ja) * | 2019-02-28 | 2022-04-25 | ソニーグループ株式会社 | 情報処理装置および方法、並びに、再生装置および方法 |
JP6971282B2 (ja) * | 2019-08-30 | 2021-11-24 | 株式会社コロプラ | プログラム、方法、および情報端末装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3432937B2 (ja) * | 1995-03-15 | 2003-08-04 | 株式会社東芝 | 移動物体検知装置及び移動物体検知方法 |
US9110163B2 (en) * | 2013-06-14 | 2015-08-18 | Microsoft Technology Licensing, Llc | Lidar-based classification of object movement |
JP6353214B2 (ja) * | 2013-11-11 | 2018-07-04 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
JP6439702B2 (ja) * | 2013-12-25 | 2018-12-19 | ソニー株式会社 | 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム |
-
2018
- 2018-06-15 WO PCT/JP2018/022980 patent/WO2018235744A1/ja active Application Filing
- 2018-06-15 JP JP2019525579A patent/JP6698946B2/ja active Active
- 2018-06-15 US US16/620,101 patent/US20200202609A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2018235744A1 (ja) | 2018-12-27 |
US20200202609A1 (en) | 2020-06-25 |
JPWO2018235744A1 (ja) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10593025B2 (en) | Method and system for reconstructing obstructed face portions for virtual reality environment | |
CN109643145B (zh) | 具有世界传感器和用户传感器的显示系统 | |
US9697635B2 (en) | Generating an avatar from real time image data | |
TWI659335B (zh) | 圖形處理方法和裝置、虛擬實境系統和計算機儲存介質 | |
JP6698946B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
KR101707707B1 (ko) | 인체 모델을 이용한 가상 아이템 피팅 방법 및 가상 아이템의 피팅 서비스 제공 시스템 | |
US11170521B1 (en) | Position estimation based on eye gaze | |
KR20180112756A (ko) | 표정 검출 성능을 갖는 머리-장착형 디스플레이 | |
JP6558839B2 (ja) | 媒介現実 | |
US20120223956A1 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
JP2016105279A (ja) | 視覚データを処理するための装置および方法、ならびに関連するコンピュータプログラム製品 | |
US20150277555A1 (en) | Three-dimensional user interface apparatus and three-dimensional operation method | |
AU2016210884A1 (en) | Method and system for providing virtual display of a physical environment | |
Gültepe et al. | Real-time virtual fitting with body measurement and motion smoothing | |
US11288854B2 (en) | Information processing apparatus and information processing method | |
CN113315878A (zh) | 单程对象扫描 | |
CN117529700A (zh) | 使用自追踪控制器的人体姿势估计 | |
CA3171478A1 (en) | Fitting of glasses frames including live fitting | |
CN108881885A (zh) | 深度处理系统 | |
US11544865B1 (en) | Posture detection and correction | |
CN116523579A (zh) | 一种显示设备、虚拟试衣系统及方法 | |
CN112987914B (zh) | 用于内容放置的方法和设备 | |
JPWO2020054203A1 (ja) | 表示装置、方法およびプログラム | |
Amirkhanov et al. | WithTeeth: Denture Preview in Augmented Reality. | |
TWI463474B (zh) | 影像調整系統及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190819 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190819 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6698946 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |