JP7459798B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP7459798B2 JP7459798B2 JP2020553037A JP2020553037A JP7459798B2 JP 7459798 B2 JP7459798 B2 JP 7459798B2 JP 2020553037 A JP2020553037 A JP 2020553037A JP 2020553037 A JP2020553037 A JP 2020553037A JP 7459798 B2 JP7459798 B2 JP 7459798B2
- Authority
- JP
- Japan
- Prior art keywords
- real object
- user
- contact
- image
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 63
- 238000003672 processing method Methods 0.000 title claims description 14
- 238000001514 detection method Methods 0.000 claims description 120
- 230000009471 action Effects 0.000 claims description 64
- 230000033001 locomotion Effects 0.000 claims description 64
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 14
- 238000013459 approach Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000000034 method Methods 0.000 description 109
- 230000008569 process Effects 0.000 description 78
- 210000003811 finger Anatomy 0.000 description 71
- 238000010586 diagram Methods 0.000 description 38
- 210000001508 eye Anatomy 0.000 description 31
- 238000005516 engineering process Methods 0.000 description 28
- 238000012545 processing Methods 0.000 description 17
- 238000012937 correction Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000000903 blocking effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000007667 floating Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000011230 binding agent Substances 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000002570 electrooculography Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
前記取得部は、実空間が撮影された1以上の撮影画像を取得する。
前記動作検出部は、前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出する。
前記領域検出部は、前記検出された接触動作に応じて前記実物体を含む対象領域を検出する。
前記表示制御部は、前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御する。
これにより、遮蔽物による遮蔽のない実物体のクリアな画像を仮想空間に持ち込むことが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
これにより、遮蔽のない実物体を表す仮想画像を容易に仮想空間に持ち込むことが可能となる。この結果、実空間と仮想空間とをシームレスにつなぐことが可能となる。
これにより、実物体上に実物体が複製された仮想画像が表示されることになる。この結果、仮想画像を簡単に取り扱うことが可能となり優れたユーザビリティが発揮される。
これにより、例えば遮蔽のない実物体を表す精度のよい仮想画像を容易に生成することが可能となる。
これにより、例えばユーザが接触する直前の実物体を撮影することが可能となる。これにより、仮想画像の精度を十分に向上することが可能となる。
これにより、例えば解像度の高い仮想画像を生成することが可能となる。
これにより、例えば簡単な動作でキャプチャの対象や範囲等を指定することが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
これにより、例えば実物体とそれ以外の領域とを精度よく切り分けることが可能となり、高精度な仮想画像を生成することが可能となる。
これにより、キャプチャ対象となる実物体とそれ以外の領域との切り分け精度を向上することが可能となる。この結果、適正な仮想画像を生成することが可能となる。
これにより、キャプチャ対象となる実物体とそれ以外の領域との切り分け精度を大幅に向上することが可能となり、装置の信頼性を十分に向上することが可能となる。
これにより、例えば実物体の状況等に係らず実物体の境界等を精度よく検出することが可能となる。この結果、装置のユーザビリティを十分に向上することが可能となる。
これにより、例えばキャプチャの範囲を容易に設定することが可能となる。
これにより、例えばキャプチャの範囲となる対象領域を確認することが可能となり、不要な仮想画像が生成されるといった事態を十分に回避することが可能となる。
これにより、キャプチャの範囲を精度よく設定することが可能となり、例えば所望とする実物体の仮想画像等を容易に生成することが可能となる。
これにより、例えば接触位置に合わせて、仮想画像を違和感なく表示させるといったことが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
これにより、例えば手のジェスチャーに合わせて仮想画像の表示の仕方を切り替えるといったことが可能となり、使いやすいインターフェースを提供することが可能となる。
これにより、実空間に存在する様々な実物体の仮想画像を生成することが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作が検出される。
前記検出された接触動作に応じて前記実物体を含む対象領域が検出される。
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示が制御される。
実空間が撮影された1以上の撮影画像を取得するステップ。
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出するステップ。
前記検出された接触動作に応じて前記実物体を含む対象領域を検出するステップ。
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御するステップ。
図1は、本技術の一実施形態に係るHMDの動作の概要を説明するための模式図である。HMD100(Head Mount Display)は、透過型のディスプレイを備えたメガネ型の装置であり、ユーザ1の頭部に装着されて使用される。
図4は、HMD100の動作の一例を示すフローチャートである。図4に示す処理は、領域自動検出モードで実行される処理であり、例えばHMD100の動作中に繰り返し実行されるループ処理である。
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
(1)実空間が撮影された1以上の撮影画像を取得する取得部と、
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出する動作検出部と、
前記検出された接触動作に応じて前記実物体を含む対象領域を検出する領域検出部と、
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御する表示制御部と
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記表示制御部は、遮蔽物により遮蔽されていない前記実物体を表す前記仮想画像を生成する
情報処理装置。
(3)(2)に記載の情報処理装置であって、
前記表示制御部は、前記1以上の撮影画像のうち前記対象領域に前記遮蔽物が含まれない前記撮影画像から前記部分画像を生成する
情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記仮想画像を前記実物体に重畳して表示する
情報処理装置。
(5)(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
前記取得部は、前記実空間を撮影する撮影装置、及び前記撮影装置の出力が記憶されたデータベースの少なくとも一方から、前記1以上の撮影画像を取得する
情報処理装置。
(6)(5)に記載の情報処理装置であって、
前記接触動作は、前記実物体に対して前記ユーザが手を接近させる動作を含み、
前記動作検出部は、前記接触動作の状態が、前記実物体に対する前記ユーザの手の接触が予測される接触前状態であるか否かを判定し、
前記取得部は、前記接触動作の状態が、前記接触前状態であると判定された場合、前記撮影装置を制御して前記1以上の撮影画像を取得する
情報処理装置。
(7)(6)に記載の情報処理装置であって、
前記取得部は、前記接触動作の状態が、前記接触前状態であると判定された場合、前記撮影装置の撮影解像度を高くする
情報処理装置。
(8)(1)から(7)のうちいずれか1つに記載の情報処理装置であって、
前記動作検出部は、前記実物体と前記ユーザの手との接触位置を検出し、
前記領域検出部は、前記検出された接触位置に基づいて前記対象領域を検出する
情報処理装置。
(9)(8)に記載の情報処理装置であって、
前記領域検出部は、前記対象領域として、前記接触位置を含む前記実物体の境界を検出する
情報処理装置。
(10)(9)に記載の情報処理装置であって、さらに、
前記ユーザの視線方向を検出する視線検出部を具備し、
前記領域検出部は、前記ユーザの視線方向に基づいて、前記実物体の境界を検出する
情報処理装置。
(11)(10)に記載の情報処理装置であって、
前記視線検出部は、前記ユーザの視線方向に基づいて注視位置を検出し、
前記領域検出部は、前記対象領域として、前記接触位置及び前記注視位置を含む前記実物体の境界を検出する
情報処理装置。
(12)(9)から(11)のうちいずれか1つに記載の情報処理装置であって、
前記領域検出部は、前記実物体の影、サイズ、及び形状の少なくとも1つに基づいて、前記実物体の境界を検出する
情報処理装置。
(13)(1)から(12)のうちいずれか1つに記載の情報処理装置であって、
前記動作検出部は、前記ユーザの手の指先位置を検出し、
前記領域検出部は、前記指先位置の移動に伴う前記指先位置の軌跡に基づいて前記対象領域を検出する
情報処理装置。
(14)(1)から(13)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記対象領域を表す領域画像を前記実物体に重畳して表示する
情報処理装置。
(15)(14)に記載の情報処理装置であって、
前記領域画像は、形状、サイズ、及び位置の少なくとも1つを編集可能に表示され、
前記領域検出部は、前記編集された領域画像に基づいて前記対象領域を変更する
情報処理装置。
(16)(1)から(15)のうちいずれか1つに記載の情報処理装置であって、
前記動作検出部は、前記実物体と前記ユーザの手との接触位置を検出し、
前記表示制御部は、前記検出された接触位置に応じて、前記仮想画像の表示を制御する
情報処理装置。
(17)(1)から(16)のうちいずれか1つに記載の情報処理装置であって、
前記動作検出部は、前記実物体に触れる前記ユーザの手のジェスチャーを検出し、
前記表示制御部は、前記検出された前記ユーザの手のジェスチャーに応じて、前記仮想画像の表示を制御する
情報処理装置。
(18)(1)から(17)のうちいずれか1つに記載の情報処理装置であって、
前記仮想画像は、前記実物体の2次元画像及び3次元画像の少なくとも1方である
情報処理装置。
(19)実空間が撮影された1以上の撮影画像を取得し、
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出し、
前記検出された接触動作に応じて前記実物体を含む対象領域を検出し、
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御する
ことをコンピュータシステムが実行する情報処理方法。
(20)実空間が撮影された1以上の撮影画像を取得するステップと、
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出するステップと、
前記検出された接触動作に応じて前記実物体を含む対象領域を検出するステップと、
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御するステップと
をコンピュータシステムに実行させるプログラム。
3…実物体
4…仮想画像
5…手指
6…キャプチャ領域
7…境界
8…軌跡
12…透過型ディスプレイ
14…外向きカメラ
21…撮影画像データベース
30…コントローラ
31…画像取得部
32…接触検出部
33…視線検出部
34…領域検出部
35…AR表示部
40…撮影画像
42…領域画像
43、43a、43b…部分画像
100、200…HMD
Claims (18)
- 実空間が撮影された1以上の撮影画像を取得する取得部と、
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出する動作検出部と、
前記検出された接触動作に応じて前記実物体を含む対象領域を検出する領域検出部と、
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御する表示制御部と
を具備し、
前記動作検出部は、前記実物体と前記ユーザの手との接触位置を検出し、
前記領域検出部は、前記検出された接触位置に基づいて、前記対象領域として前記接触位置を含む前記実物体の境界を検出する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記表示制御部は、遮蔽物により遮蔽されていない前記実物体を表す前記仮想画像を生成する
情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記表示制御部は、前記1以上の撮影画像のうち前記対象領域に前記遮蔽物が含まれない前記撮影画像から前記部分画像を生成する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記表示制御部は、前記仮想画像を前記実物体に重畳して表示する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記取得部は、前記実空間を撮影する撮影装置、及び前記撮影装置の出力が記憶されたデータベースの少なくとも一方から、前記1以上の撮影画像を取得する
情報処理装置。 - 請求項5に記載の情報処理装置であって、
前記接触動作は、前記実物体に対して前記ユーザが手を接近させる動作を含み、
前記動作検出部は、前記接触動作の状態が、前記実物体に対する前記ユーザの手の接触が予測される接触前状態であるか否かを判定し、
前記取得部は、前記接触動作の状態が、前記接触前状態であると判定された場合、前記撮影装置を制御して前記1以上の撮影画像を取得する
情報処理装置。 - 請求項6に記載の情報処理装置であって、
前記取得部は、前記接触動作の状態が、前記接触前状態であると判定された場合、前記撮影装置の撮影解像度を高くする
情報処理装置。 - 請求項1に記載の情報処理装置であって、さらに、
前記ユーザの視線方向を検出する視線検出部を具備し、
前記領域検出部は、前記ユーザの視線方向に基づいて、前記実物体の境界を検出する
情報処理装置。 - 請求項8に記載の情報処理装置であって、
前記視線検出部は、前記ユーザの視線方向に基づいて注視位置を検出し、
前記領域検出部は、前記対象領域として、前記接触位置及び前記注視位置を含む前記実物体の境界を検出する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記領域検出部は、前記実物体の影、サイズ、及び形状の少なくとも1つに基づいて、前記実物体の境界を検出する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記動作検出部は、前記ユーザの手の指先位置を検出し、
前記領域検出部は、前記指先位置の移動に伴う前記指先位置の軌跡に基づいて前記対象領域を検出する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記表示制御部は、前記対象領域を表す領域画像を前記実物体に重畳して表示する
情報処理装置。 - 請求項12に記載の情報処理装置であって、
前記領域画像は、形状、サイズ、及び位置の少なくとも1つを編集可能に表示され、
前記領域検出部は、前記編集された領域画像に基づいて前記対象領域を変更する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記動作検出部は、前記実物体と前記ユーザの手との接触位置を検出し、
前記表示制御部は、前記検出された接触位置に応じて、前記仮想画像の表示を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記動作検出部は、前記実物体に触れる前記ユーザの手のジェスチャーを検出し、
前記表示制御部は、前記検出された前記ユーザの手のジェスチャーに応じて、前記仮想画像の表示を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記仮想画像は、前記実物体の2次元画像及び3次元画像の少なくとも1方である
情報処理装置。 - 実空間が撮影された1以上の撮影画像を取得するステップと、
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出するステップと、
前記検出された接触動作に応じて前記実物体を含む対象領域を検出するステップと、
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御するステップと
をコンピュータシステムが実行する情報処理方法であって、
前記接触動作を検出するステップは、前記実物体と前記ユーザの手との接触位置を検出し、
前記対象領域を検出するステップは、前記検出された接触位置に基づいて、前記対象領域として前記接触位置を含む前記実物体の境界を検出する
情報処理方法。 - 実空間が撮影された1以上の撮影画像を取得するステップと、
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出するステップと、
前記検出された接触動作に応じて前記実物体を含む対象領域を検出するステップと、
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御するステップと
をコンピュータシステムに実行させるプログラムであって、
前記接触動作を検出するステップは、前記実物体と前記ユーザの手との接触位置を検出し、
前記対象領域を検出するステップは、前記検出された接触位置に基づいて、前記対象領域として前記接触位置を含む前記実物体の境界を検出する
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018194262 | 2018-10-15 | ||
JP2018194262 | 2018-10-15 | ||
PCT/JP2019/038915 WO2020080107A1 (ja) | 2018-10-15 | 2019-10-02 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020080107A1 JPWO2020080107A1 (ja) | 2021-09-09 |
JP7459798B2 true JP7459798B2 (ja) | 2024-04-02 |
Family
ID=70283891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553037A Active JP7459798B2 (ja) | 2018-10-15 | 2019-10-02 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220012922A1 (ja) |
JP (1) | JP7459798B2 (ja) |
CN (1) | CN112840379A (ja) |
WO (1) | WO2020080107A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022046498A1 (en) * | 2020-08-28 | 2022-03-03 | Sterling Labs Llc | Detecting user-to-object contacts using physiological data |
JP2023125554A (ja) * | 2022-02-28 | 2023-09-07 | 株式会社Jvcケンウッド | 仮想空間画像表示装置及び仮想空間画像表示方法並びに仮想空間画像表示プログラム |
US20230319296A1 (en) * | 2022-03-29 | 2023-10-05 | Apple Inc. | Energy efficient context relevant processing for content |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140121015A1 (en) | 2012-10-30 | 2014-05-01 | Wms Gaming, Inc. | Augmented reality gaming eyewear |
JP2014157482A (ja) | 2013-02-15 | 2014-08-28 | Konica Minolta Inc | 操作表示システム |
US20170188081A1 (en) | 2014-05-26 | 2017-06-29 | Nongqiang Fan | Method and apparatus for interacting with display screen |
JP2018092313A (ja) | 2016-12-01 | 2018-06-14 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002157606A (ja) * | 2000-11-17 | 2002-05-31 | Canon Inc | 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体 |
US7940963B2 (en) * | 2006-12-27 | 2011-05-10 | Fujifilm Corporation | Monitoring system, monitoring method, and program |
JP2009146333A (ja) * | 2007-12-18 | 2009-07-02 | Panasonic Corp | 空間入力動作表示装置 |
JP2010215194A (ja) * | 2009-03-19 | 2010-09-30 | Hyundai Motor Co Ltd | 車載機器の操作装置 |
CN101673161B (zh) * | 2009-10-15 | 2011-12-07 | 复旦大学 | 一种可视可操作无实体的触摸屏系统 |
US20130100008A1 (en) * | 2011-10-19 | 2013-04-25 | Stefan J. Marti | Haptic Response Module |
US10013053B2 (en) * | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
KR102303115B1 (ko) * | 2014-06-05 | 2021-09-16 | 삼성전자 주식회사 | 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법 |
US20170323480A1 (en) * | 2016-05-05 | 2017-11-09 | US Radar, Inc. | Visualization Technique for Ground-Penetrating Radar |
JP6499384B2 (ja) * | 2016-08-24 | 2019-04-10 | ナーブ株式会社 | 画像表示装置、画像表示方法、及び画像表示プログラム |
-
2019
- 2019-10-02 WO PCT/JP2019/038915 patent/WO2020080107A1/ja active Application Filing
- 2019-10-02 US US17/283,472 patent/US20220012922A1/en not_active Abandoned
- 2019-10-02 JP JP2020553037A patent/JP7459798B2/ja active Active
- 2019-10-02 CN CN201980066388.6A patent/CN112840379A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140121015A1 (en) | 2012-10-30 | 2014-05-01 | Wms Gaming, Inc. | Augmented reality gaming eyewear |
JP2014157482A (ja) | 2013-02-15 | 2014-08-28 | Konica Minolta Inc | 操作表示システム |
US20170188081A1 (en) | 2014-05-26 | 2017-06-29 | Nongqiang Fan | Method and apparatus for interacting with display screen |
JP2018092313A (ja) | 2016-12-01 | 2018-06-14 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
Non-Patent Citations (2)
Title |
---|
IWAI, Daisuke et al.,Limpid Desk: Transparentizing Documents on Real Desk in Projection-based Mixed Reality,Proceedings on the IEEE Virtual Reality Conference (VR 2006),2006年03月26日,DOI:10.1109/VR, 2006. 95,pp.30-31 |
岩井大輔,他1名,Limpid Desk:投影型複合現実感による机上書類の透過化,情報処理学会論文誌,日本,社団法人情報処理学会,2007年03月15日,Vol.48, No.3,pp.1294-1306 |
Also Published As
Publication number | Publication date |
---|---|
CN112840379A (zh) | 2021-05-25 |
WO2020080107A1 (ja) | 2020-04-23 |
US20220012922A1 (en) | 2022-01-13 |
JPWO2020080107A1 (ja) | 2021-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220084279A1 (en) | Methods for manipulating objects in an environment | |
JP6393367B2 (ja) | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 | |
KR20220040493A (ko) | 3차원 환경들과 상호작용하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 | |
CN116719452A (zh) | 用于与用于移动虚拟环境中的虚拟对象的虚拟控件和/或示能表示交互的方法 | |
JP7459798B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11720171B2 (en) | Methods for navigating user interfaces | |
KR20220137770A (ko) | 시선 기반 내비게이션을 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 | |
US11579693B2 (en) | Systems, methods, and graphical user interfaces for updating display of a device relative to a user's body | |
US20230336865A1 (en) | Device, methods, and graphical user interfaces for capturing and displaying media | |
US20240028177A1 (en) | Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments | |
US20240103684A1 (en) | Methods for displaying objects relative to virtual surfaces | |
US20240103680A1 (en) | Devices, Methods, and Graphical User Interfaces For Interacting with Three-Dimensional Environments | |
US20240103681A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments | |
US20240152245A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments | |
US20240152256A1 (en) | Devices, Methods, and Graphical User Interfaces for Tabbed Browsing in Three-Dimensional Environments | |
US20240104819A1 (en) | Representations of participants in real-time communication sessions | |
KR20240091221A (ko) | 미디어를 캡처 및 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 | |
KR20240047458A (ko) | 미디어 및 3차원 환경들과의 상호작용을 위한 디바이스들, 방법들 및 그래픽 사용자 인터페이스들 | |
CN117940880A (zh) | 用于与媒体和三维环境交互的设备、方法和图形用户界面 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220808 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7459798 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |