JP2018081694A - 拡張又は仮想現実環境におけるオブジェクトの選択 - Google Patents

拡張又は仮想現実環境におけるオブジェクトの選択 Download PDF

Info

Publication number
JP2018081694A
JP2018081694A JP2017219754A JP2017219754A JP2018081694A JP 2018081694 A JP2018081694 A JP 2018081694A JP 2017219754 A JP2017219754 A JP 2017219754A JP 2017219754 A JP2017219754 A JP 2017219754A JP 2018081694 A JP2018081694 A JP 2018081694A
Authority
JP
Japan
Prior art keywords
gesture
user
environment
objects
remaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017219754A
Other languages
English (en)
Other versions
JP2018081694A5 (ja
JP7093174B2 (ja
Inventor
アローム,ヴァンサン
Alleume Vincent
ジュエ,ピエリック
Jouet Pierrick
フラデ,マシュー
Fradet Matthieu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2018081694A publication Critical patent/JP2018081694A/ja
Publication of JP2018081694A5 publication Critical patent/JP2018081694A5/ja
Application granted granted Critical
Publication of JP7093174B2 publication Critical patent/JP7093174B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】拡張又は仮想現実環境におけるオブジェクトの選択方法を提供する。【解決手段】複数の実際のオブジェクト及び/又は仮想のオブジェクト8、10、12、14、16、18、20を含む環境において、オブジェクトを選択する方法であって、環境は、ディスプレイデバイス4を介してユーザ2に対して表示され、方法は、複数のオブジェクト8、10、12、14、16、20の各オブジェクトに対するジェスチャパスの割り当てを含み、ジェスチャパスは、オブジェクトを選択するためにユーザ2によって実行される一連のジェスチャを含む。【選択図】図6

Description

本発明は、一般に、人間とコンピュータとの対話(interaction:相互作用)に関連する。より具体的には、本発明は、実際(現実)のオブジェクト(real objects:リアルオブジェクト)及び/又は仮想のオブジェクト(virtual objects:バーチャルオブジェクト)を含む、拡張(augmented)現実環境又は仮想現実環境(virtual reality environment)におけるオブジェクトとユーザの対話に取り組む。それ故に、本発明は、環境におけるオブジェクトの選択方法及び対応する選択デバイスに関係する。本発明は、さらに、本発明の選択方法を実行するコンピュータプログラムに関係する。
このセクションで説明されるアプローチは、遂行することができるが、以前に着想され、又は遂行されたアプローチを必ずしも必要としない。したがって、本明細書で別途指示がない限り、本セクションで説明されるアプローチは、本出願の請求項に対する先行技術ではなく、本セクションに含めることによって先行技術であると認めるものでもない。
コンピュータ、スマートフォン及びタブレットなどのマルチメディアデバイスとの一般的なユーザとの対話は、キーボードイベント、マウスイベント及びピンチ、ズーム、タッチなどのスクリーンタッチイベントのようなユーザ入力に通常依存している。
非直接的なトリガとして一般に使用される、音声及びジェスチャコマンドなどの他の対話も普及してきており、関連するコンテキストの分析が、ユーザによって予測されるアクションと連動することが通常必要である。
このコンテキストは、ユーザによって現在使用される特定のアプリケーションに一般に関連し、それに限定される可能性があり得る。この場合、考慮されるコンテキストは、例えば、ユーザによって行われる最近のクエリ又は最後に開かれたメニュなどを含む。
このコンテキストは、部屋におけるユーザの物理的位置及び部屋に存在しているアイテムの物理的位置などの周辺のユーザ環境も含み、自身の裸眼を通して又はシースルーデバイス又はヘッドマウントディスプレイ(HMD)を使用して、ユーザはそれらを知覚する。周辺のユーザ環境における実際のオブジェクトを含むコンテキストの例は、図1に示されている。
図1の例において、ヘッドマウントディスプレイ(a head-mounted display)4を装着したユーザ2は、部屋6に位置する多数の実際のオブジェクトと対話することができる。例えば、これらのオブジェクトは、カメラ8及び新聞10などのテーブル7上に置かれたオブジェクトを含む。
その上、変更された現実(altered reality)又は仮想現実のアプリケーションなどのいくつかのケースでは、コンテキストは、ユーザの周囲にあるものから実際のオブジェクト及び/又は仮想のオブジェクトを含むことができる。そのようなコンテキストの例は、図2に示されている。
変更された現実によって、拡張現実(複合現実(mixed reality)とも呼ばれる)のケース場合、すなわち、シーンにおいて実際のオブジェクトにいくつかの仮想オブジェクトを加えたもの、及び、ユーザによって直接又はシースルーメガネをなどのデバイスを使用して見られる、実際のオブジェクトを、例えば、サイズ、色、プレゼンス、又は位置において変更したケースの両方を意味する。
図2の例において、ヘッドマウントディスプレイ4を装着したユーザ2は、実際のオブジェクト8、10と対話できる。ユーザ2は、部屋6に位置する仮想のオブジェクトとも対話する。例えば、仮想のオブジェクトは、地球儀12、ゲームパッド14、イコライザ16、キャラクタ18及び歯車20を含む。これらの仮想のオブジェクトは、ヘッドマウントディスプレイ4中のアプリケーションに関連することができる。例えば、仮想オブジェクトは、例えば、ゲームを起動するためのゲームパッド14などのいくつかの関連するアプリケーションをトリガすることを起動することができる、利用可能なアプリケーションのアバタ又はエレメントのアバタとして提供することができる。
ユーザの周辺の環境における複数の実際の及び/又は仮想のオブジェクトの場合は、自身が対話を意図するオブジェクトを具体的に示す必要がユーザにはある。オブジェクトのこの選択は、誤ったオブジェクトの選択によるユーザの意図の誤解を避けるために非常に正確である必要がある。
共通のゲームのアプローチでは、対話のそのようなトリガをすることは、一回で少数のオブジェクトに限定される。オブジェクトの数は、プレーヤによって使用されるゲームパッドのボタンの数に通常関連付けられる。いくつかのゲーム、例えば、プレイステーション3及びプレイステーション4のコンソールでのヘビーレインムーブエディション(Heavy Rain Move Edition)は、プレイシーンにおいて特定の制御デバイス及びオブジェクトの精密にチューニングされたレイアウトを使用する。
米国特許出願公開第2013/0328925号資料は、複合現実(mixed reality)環境における仮想オブジェクト上のユーザのフォーカスを解釈するシステムを説明する。このシステムは、1つ以上の処理ユニットに接続されたシースルー(see-through)、ヘッドマウントディスプレイデバイスを含む。ヘッドマウントディスプレイユニットと共同する処理ユニットは、ホログラフオブジェクトとしても参照される、1つ以上の仮想オブジェクトをユーザに表示することができる。ユーザは、表示された仮想オブジェクトと対話することができる。推論、表現ジェスチャ及びヒューリスティックルールを使用して、仮想オブジェクトのうちどれにユーザがフォーカスし、対話しそうであるかをシステムは決定する。その時点で、システムは、他の仮想オブジェクト以上に選択された仮想オブジェクトを強調し、バラエティ豊かな方法で選択された仮想オブジェクトと対話することができる。
米国特許出願公開第2013/0328925号明細書
この資料では、ユーザが対話したいオブジェクトの選択は、仮想オブジェクトに関するユーザの頭又は目又は手の位置を判定することによって、又は仮想オブジェクトに関するユーザの手の動きを判定することによって行われる。
従来技術の解決策の1つの問題は、接近して側にあるグループ化されたオブジェクトの場合、正確にオブジェクトの選択を管理することができない点である。また、現存する解決策は、ユーザの視点から、実際の及び/又は仮想のオブジェクトの部分的又は全体的なオーバーラップを正確に取り扱うことができない。
図3は、多数の仮想オブジェクトを有する現実的な拡張されたシーンの例を示す。そのようなシーンは、現存のシステムを通して容易に管理できない。
図3のシーンに存在するオブジェクトは、図2のシーンに存在するそれらと同じであり、新聞10のすごく近くあり、新聞を部分的に覆うカメラ8がある。
例えば、それらが非常に近くにあり、又は部分的又は全体的に隠蔽されているときに、テーブル7上にあるカメラ8又は新聞10などの、図3のシーンにおいて特定のオブジェクトを、例えば、彼/彼女の手22によって、ある対話をいかに容易にユーザ2がトリガすることができるか?
本発明は、この状況を改善する解決策を提案する。
それに応じて、複数の実際のオブジェクト及び/又は仮想のオブジェクトを含む環境においてオブジェクトを選択する方法であって、環境は、ディスプレイデバイスを介してユーザに表示され、方法は、複数のオブジェクトの各オブジェクトに対するジェスチャパスの割り当てを含み、ジェスチャパスは、オブジェクトを選択するためにユーザによって実行される一連のジェスチャを含む方法を本発明は提供する。
それ故に、ジェスチャパスの割当ては、環境の各オブジェクトを一意的に識別することによって、ユーザの視点から他のオブジェクトによって部分的に又は全体的に覆われた(covered)場合でも、任意のオブジェクトを選択することが可能となる。
ある実施形態によると、タグは、オブジェクト上又はオブジェクトの近くにスーパーインポーズされるように各オブジェクトのジェスチャパスを表示することを、この方法は含む。
例えば、ユーザの視点から見えるオブジェクトに対して、タグは、オブジェクト上にスーパーインポーズされた半透明の覆われたテクスチャを持つ。ユーザが自身の視点から見えないオブジェクトに対しては、可視にするために、タグはオブジェクトの近くに置かれる。代替案としては、隠蔽されたオブジェクトは、半透明のテクスチャで表示され、タグはそれ自身が半可視になるように、オブジェクト上にスーパーインポーズされる。
有利に、ジェスチャパスの各ジェスチャは、ジェスチャの向きに従った向きの矢印の形で表示される。
ある実施形態によると、方法は、
・ユーザによって実行されるジェスチャを検知することと、
・依然としてオブジェクトの選択を実行されるジェスチャパスの残りのジェスチャを表示することと、
を含む。
それ故に、ユーザは、各ジェスチャの後で、依然として各オブジェクトの選択を実行される残りのジェスチャ(remaining gestures)を知る。
第1の実施形態によると、方法は、
・遂行される残りのジェスチャの第1のジェスチャに対応しないユーザの検出されたジェスチャに対するオブジェクトを検出することと、
・検出されたオブジェクトを破棄することと、
を含む。
好ましくは、検出されたオブジェクトは、ユーザによって非選択可能になる検出されたオブジェクト上で十字形の形のタグをスーパーインポーズすることによって破棄される。
第2の実施形態によると、方法は、
・遂行される残りのジェスチャの第1のジェスチャに対応しないユーザの検出されたジェスチャに対して、オブジェクトを検出することと、
・検出されたオブジェクトの残りのジェスチャを変更することであって、環境の各オブジェクトの残りのジェスチャは、環境の任意の他のオブジェクトの残りのジェスチャとは異なる、変更することと、
を含む。
それ故に、この第2の実施形態によると、ユーザが選択したいターゲットのオブジェクトのジェスチャパスに対応していないジェスチャをユーザが誤って実行した場合、対応するジェスチャパスが動的に変更されるので、このオブジェクトを選択することが依然として(still)可能である。
有利に、そのオブジェクトに割当てられたジェスチャパスが完全に遂行されたときに、そのオブジェクトは選択される。
ある実施形態によると、ジェスチャは、手のジェスチャである。
手のジェスチャの向きは、容易に検出できるので、これは有利である。
有利には、ジェスチャパスの割当ては、ユーザの快適さを考慮する。
例えば、オブジェクトの選択を遂行するためのジェスチャを判定するときには、ユーザの物理的な手の限界も考慮される。
本発明は、また、複数の実際のオブジェクト及び/又は仮想のオブジェクトを含む環境におけるオブジェクトを選択する選択デバイスを提供し、この環境は、ディスプレイを通して、ユーザに表示され、この選択デバイスは、少なくとも1つのプロセッサを含み、選択デバイスは、複数のオブジェクトの各オブジェクトにジェスチャパスを割り当てるように構成されたアサインメントモジュールを含み、ジェスチャパスは、オブジェクトを選択するためのユーザによって実行される一連のジェスチャパスを含む。
ある実施形態によれば、アサインメントモジュールは、
・遂行される残りのジェスチャの第1のジェスチャに対応しないユーザの検出されたジェスチャに対してオブジェクトを検出することと、
・検出されたオブジェクトの残りのジェスチャを変更することであって、環境の各オブジェクトの残りのジェスチャは、環境の任意の他のオブジェクトの残りのジェスチャとは異なる、変更することと、
を行うように構成される。
ある実施形態によると、選択デバイスは、環境を分析し、環境の複数のオブジェクトを検出するように構成された環境分析モジュールを含む。
有利に、環境分析モジュールは、ユーザの視点から部分的に又は全体的に隠蔽されたオブジェクトを検出するように構成される。
ある実施形態によると、選択デバイスは、ユーザによって遂行されるジェスチャを分析するように構成されるジェスチャ分析モジュールを含む。
本発明による方法は、プログラム可能な装置上でソフトウェアとして実装することができる。それは、ハードウェアだけ、又はソフトウェアだけ、又はそれらの組合せで実装することができる。
本発明は、ソフトウェアとして実装することができるので、本発明は、任意の適切な搬送媒体上のプログラム可能な装置に対して提供するコンピュータ読取可能コードとして具体化することができる。搬送媒体は、フロッピーディスク、CD−ROM、ハードディスクドライブ、磁気テープデバイス又は半導体メモリデバイスのような記憶媒体を含むことができる。
本発明は、それ故に、コンピュータに本発明の選択方法の実行を可能とするコンピュータ実行可能命令を含むコンピュータ読取可能プログラムを提供する。
図7の概略図は、そのようなコンピュータプログラムに対する一般的なアルゴリズムの例を解説する。
本発明は、添付図面の図において、例として解説され、制限するためではなく、図面において、参照番号は、類似する要素を指す:
既に説明したように、実際のオブジェクトのみを含む環境の概略図である。 既に説明したように、実際のオブジェクトと仮想のオブジェクトとを含む拡張現実環境の概略図である。 既に説明したように、相互に近くにある多数のオブジェクトを含む拡張現実環境の例を示す。 図3の環境における本発明の実装例を示す。 図3の環境における本発明の第1の実施形態の実装例を示す。 図3の環境における本発明の第2の実施形態の実装例を示す。 本発明の実施形態による選択方法のステップを示すフローチャートである。 本発明の実施形態による、選択デバイスを説明する概略図である。
本発明の実施形態は、図3を参照して既に説明された拡張現実環境において実装される。
図4において、この環境も表現される。この環境において、ヘッドマウントディスプレイ4を装着したユーザ2は、実際のオブジェクト8、10と対話することができる。ユーザ2は、仮想オブジェクト12、14、16、18、20とも対話することができる。例えば、これらの仮想オブジェクトは、例えば、ゲームなどのヘッドマウントディスプレイ4におけるアプリケーションに関連することができる。シーンとも呼ばれる、図4において表現される環境は、ヘッドマウントディスプレイ4を装着したユーザ2の視界に対応する。
有利に、ユーザ2は、彼/彼女の手22を動かすことによってオブジェクト8、10、12、14、16、18、20の中のオブジェクトとの対話に関与する。手22は、矢印(arrows)24によって表現される複数の動きに従って動かすことができる。
以下の説明では、ジェスチャは、2D(2次元)又は3D(3次元)空間における、体の部分、好ましくは手の最小限の動きを意味し、ジェスチャは、ユーザのコマンド検出を担当する分析システムによって検出可能である。例えば、ユーザが、静止位置から4cm右に、彼/彼女の右手を僅かに動かし、次にまた静止する。これは、ジェスチャ動き単位(a gesture movement unit)を表現する。
ジェスチャパス(gesture path)によって、上述の単位ジェスチャ(unit gestures)の組合せ、すなわち、時系列(a temporal sequence)を意味する。
2D空間において、ユーザの手の現在の位置の周りで典型的に定義される、手のデプス(depth)変更は典型的には無視され、ここでデプスは時間内の手の変化を推定する観察するデバイスまでの手からの距離である。そのような観察デバイスは、例えば、カメラなどの検出するデバイスを含む。
3D空間において、観察するデバイスに関して、手のデプスの位置の変化も考慮され、追加の単位ジェスチャ(unit gestures)を許し、それは例えば、ある「押す(press)」ジェスチャ(手のジェスチャの推定を担当する観察するデバイスに向かって手を僅かに動かす)又はある「リリース(release)」ジェスチャ(そのデバイスから手を僅かに遠ざける)である。
ジェスチャの開始と終了(個々のジェスチャパス)は、動き推定処理(move estimation process)において検出される動きの欠如であり得る。ジェスチャの終わりは、継続時間のしきい値(duration time threshold)(例えば、単位ジェスチャは、最長で3秒間の長さと設定できる)として定義することもでき、又はジェスチャパスは、累積したジェスチャの単位が、既知のジェスチャ(すなわち、システムが、コマンドとして認識しようとするジェスチャ)のいずれにも属さないと直ぐに終了するように設定することもできる。
また、「手の」ジェスチャは、例えば、リモコンのようなコントローラとして使用されるオブジェクトによって作られるジェスチャを含む。
有利には、表現される実施形態において、ユーザの手22によって実行されるジェスチャは、2Dジェスチャであり、すなわち、ジェスチャは、ユーザの手22に近い平面領域にある。
別の例によると、手の生理的な限界(hand physiological limitation)又はユーザの快適さの要求(user’s comfort requirement)に関してもまだ、ユーザ2の手22の周辺の境界領域における3Dジェスチャも考慮される。実際に、手22は、その初期ジェスチャ開始点近くに留まり、例えば、ユーザの位置から遠く離れることができない。
図4に示された実施形態によると、オブジェクトの選択に従事している間、シーンの各候補のオブジェクトは、例えば、半透明に覆われたテクスチャ(semi-transparent covering texture)を使用することによって、多かれ少なかれ部分的にトリガされるように一時的にレンダリングされる。タグ(tag)は、有利に、一連の矢印の形で表現され、ユーザ2が最終的に各オブジェクトの選択を達成する必要がある残りのジェスチャを表示する、動的な情報を含む。これらの残りのジェスチャは、そのオブジェクトを選択するために手22を使用してユーザ2が達成する必要があるジェスチャパス(gesture path)を提供する。
意図する選択目的のため、各瞬間でのジェスチャパスを構成する、残りのジェスチャは、識別できるように形成され、すなわち、シーンからの的確ないずれのオブジェクトも、図4に示されるように、同時に表現される同じ残りのジェスチャパスを持たず、シーンのそれぞれのオブジェクトは、他のオブジェクトのジェスチャパスとは異なるジェスチャパスを有する。
ジェスチャパスと各オブジェクトとの関係によって、例えば、それらが全体的に又は部分的に他のオブジェクトによって隠れたなどにより、例えそれらがユーザ2に対して見えないとしても、環境のすべてのオブジェクトは選択することができる。覆い隠されたオブジェクトの選択のこの可能性を改善するために、それに関連するジェスチャパスを表示するのに役立つ半透明のテクスチャのオブジェクトの上書きのサイズを縮小することができる。
図5に表現された第1の実施形態によると、ユーザ2が手22で、あるオブジェクトに対して遂行できる残りのジェスチャの第1のジェスチャに対応しないジェスチャを行うとき、次に、このオブジェクトは、選択から破棄され(discarded)、すなわち、ユーザ2は、最早このオブジェクトを選択できない。
例えば、ユーザ2は、オブジェクト18及び20のみのジェスチャパスの第1のジェスチャに対応する、矢印26によって表現されるジェスチャに従って、手22を一寸動かすことによって、すべての他のオブジェクト8、10、12、16は、選択から破棄される。
例えば、非選択になるオブジェクト8、10、12、14、16上に十字形(cross)の形でタグが重ね合わせることによって、この破棄は、ユーザ2に示される。オブジェクトはそのサイズを縮小するとこによって破棄されたと見せることも可能である。
希望するオブジェクトの迅速な選択(quick selection)を達成するために、第1の実施形態は有利である。しかしながら、第1の実施形態は、エラートレラント(error-tolerant)ではない。実際に、ユーザ2は、例えば、ゲームパッド14を選択することに興味を持つが、しかしながら、残念ながらゲームパッド14に関連する残りのジェスチャパスの第1のジェスチャに対応しない誤ったジェスチャを行うことがあり得る。
有利に、第2の実施形態によると、ユーザ2によって誤ったジェスチャが行われた後であっても、オブジェクトを選択することが依然として可能である。
図6に表現された、この第2の実施形態によると、ユーザ2は、あるオブジェクトに関して遂行できる残りのジェスチャの第1のジェスチャに対応しないジェスチャを行うとき、このオブジェクトの残りのジェスチャは変更され、一方、それは、環境の他のオブジェクトの残りのジェスチャとは依然として異なる。第2の実施形態は、ユーザ2によって遂行された任意の誤ったジェスチャからの回復を許す。
それ故に、破棄する代わりに、第1の実施形態でのように、オブジェクト8、10、12、14、16は、依然として選択可能だが、それは新しいジェスチャパスによってである。
オブジェクト8、10、12、14、16のジェスチャパスのみが変更される点に留意することは重要である。ユーザ2のジェスチャがジェスチャパスの最初のジェスチャと一致する、オブジェクト18、20のジェスチャパスは変更されない。これは、選択プロセスがこれらのオブジェクトに対して同じままであり、第2の実施形態による回復オプションの起動にもかかわらず、追加の選択時間にユーザが直面することはないという点で有利である。
誤ったジェスチャの場合、図7を参照して後述されるように、すべてのジェスチャの検出を再実行する必要がなく、希望するオブジェクトを依然として選択することができる。それ故に、第2の実施形態は、オブジェクトの選択の実行時間に関して最小限のコストで、誤ったジェスチャを元の状態に戻す(fixing)ことを許す。
本発明の第2の実施形態のアプローチは、各現在のしかし廃棄される可能性があるオブジェクトの各ジェスチャパスの動的なリアルタイム更新をもたらす。
有利に、ジェスチャパスの変更は、例えば、新しい赤い色又は不連続な矢印を使用するなどして、ユーザ2に視覚的に伝えることができる。
ジェスチャパスの変更があったとき、物理的な手の限界及びユーザの快適さも考慮される。それ故に、ジェスチャパスが、手22をその初期の位置よりも遠ざけたり、又はユーザ2にとって潜在的に快適ではない領域に導いたとき、次に、再計算されたジェスチャパスは、その初期の位置の近くにユーザの手22を戻したパス、又はより快適な位置にすら導くパスを好み、一方、すべてのオブジェクトに対する特徴的なジェスチャパスは維持する。
また、有利に、2Dジェスチャのみが考慮されるとき、ユーザ2は、3Dジェスチャを行うと、ジェスチャパスが再計算される。代替方法としては、例えば、ユーザに自身が好むジェスチャ領域を定義されるために、ユーザのジェスチャが評価される2D平面の向きは、ユーザの第1の3Dジェスチャから先ず推定することができる。
図7のフローチャートは、本発明の好ましい実施形態によるオブジェクトの選択の方法のステップを示す。
第1のステップ30の間、環境レイアウトが、好ましくは3Dスキャニング(3D scanning)を通して、推定される。この3Dスキャニングは、以下のステップの1つ又は組合せを含むことができる:
・デプスを検知すること、
・カラーステレオキャプチャ、
・イメージ特徴抽出、例えば、ユーザ2の場所(location)及び/又は方向(orientation)に特有の特徴を抽出するなどの、データベース特徴抽出により達成される可能性がある。既知のオブジェクトの事前学習データベースが、ユーザ環境のレイアウトの推定を助けるために、空間的/サイズの特徴、色特徴、デプス特徴などを通して説明されるオブジェクトにおいて使用することができる。例えば、椅子、ソファ、テーブルのデータベースがこの目的に使用することができる。
例えば、推定は、ユーザ2は、住居の特定の部屋にいると特定することができ、居間に例えば、ソファ、TV、コーヒーテーブルなどの関連するオブジェクトを認識することができる。
実際のオブジェクトの検出後、仮想オブジェクトが、例えば、同じ部屋の同じ場所に、又は他の部屋などの別の場所のいずれかのシーンに追加される。
ステップ32で、環境の1つ以上のオブジェクトの部分的な又は全体的な隠蔽(occultation)が検出される。この隠蔽は、実際のオブジェクト及び/又は仮想オブジェクトの間で部分的に又は全体的に覆うことに一般的に起因する。
次に、検出された隠蔽は、ユーザに提示されるオブジェクトの外観を変更することによって、ステップ34で処理される。例えば、ユーザの視点から見ると、完全に隠蔽されたオブジェクトは、例えば、半透明にオーバーレイすることによって、視覚的にアレンジされ、これらのオブジェクトのそれぞれに対して何らかの表示割当てを行う。例えば、2つの他のオブジェクトを完全に隠蔽しているオブジェクトは、3つに分かれてそのオリジナルの表示が見え、2つの他のオブジェクトは、元々隠蔽されたオブジェクトエリアの内部にいくらかの表示エリアが割当てられる。ユーザインタフェースにおけるレンダリングされたディスプレイでの半透明の及び/又は着色されたサブエリアは、そのような隠蔽処理の可能性がある出力である。
ステップ36で、各オブジェクトに割当てられたジェスチャパスは、選択可能なオブジェクトと呼ばれ、ユーザによって選択できる。このジェスチャパスは、タグとしてヘッドマウントデバイス4上に表示される。
ステップ38で、ユーザのジェスチャの開始(start)が検出される。次に、ジェスチャの遂行が推定される。
ステップ40で、本発明の第2の実施形態によって、1つ以上のオブジェクトの1つ以上のジェスチャパスにこのジェスチャが一致しないと検出されたとき、このジェスチャパスは、更新される。
ステップ42で、ユーザ2は、あるオブジェクトのジェスチャパスを完了したとき、そのオブジェクトが選択される。
この選択されたオブジェクトを使用してユーザができるアクションのリストが有利にユーザに表示される。
ある実施形態によると、オーディオフィードバックは、表示の代わりに、又は表示と組み合わせて、実装される。
ユーザは、次に希望するアクションを選ぶ。このアクションは、ズームのようなユーザインタフェースアクションであり得る。これは、また、選択されたオブジェクトを使用したコンテンツ再生又は任意の他のアクションでも良い。
ステップ44で、希望するアクションが実行される。
図8は、本発明の実施形態による選択デバイス50を図示する。
特に、ヘッドマウントディスプレイは、十分な処理能力と検出ハードウェア性能を有するときは、選択デバイス(selection device)50は、例えば、ヘッドマウントディスプレイ4自体である。それは、また、PC、スマートフォン、セットトップボックス、ゲートウェイ又は1つ以上のプロセッサ、ネットワーク接続性及びシーン(3D)検出能力を有する任意の他のデバイスであり得る。
選択デバイス50は、環境分析モジュール(environment analysis module)52を含む。この環境分析モジュール52は、有利には、3Dシーンスキャナを含む。
選択デバイス50は、また、環境分析モジュール52によって検知される各選択可能なオブジェクトにジェスチャパスをアサインするように構成されたアサインメントモジュール(assignment module)54を含む。アサインメントモジュール54は、必要なときに、本発明の第2の実施形態によって、ジェスチャパスを更新するように構成される。
実施形態によると、選択デバイス50は、ユーザ2によって遂行されたジェスチャを分析するように構成されるジェスチャ分析モジュール(gesture analysis module)56を含む。このジェスチャ分析モジュール56は、好ましくは、平面(plan)(2Dジェスチャ)における、ユーザの手22のジェスチャを検出するように構成される。
ユーザのジェスチャの3Dシーンスキャニング(3D scene scanning)及び識別/トラッキング(identification / tracking)は、例えば、ヘッドマウントディスプレイ4に組み込まれた及び/又はユーザ環境で空間的に限定されたカメラからのイメージセグメンテーションなどの視覚的な手がかり上で行われ、正確なユーザの手のトラッキング及びシーンレイアウト推定を許す。
代替案としては、ユーザのジェスチャの3Dシーンスキャニング及び識別/トラッキングは、タイムオブフライト選択(Time-Of-Flight selection)、又は赤外線において投射されたパターンからのデプス推定、又はステレオビジョンカメラ、又はそれらの組合せによる、純粋なデプスセンシングに基づいて、DEPTHカメラを使用した3D特徴抽出により実行される。
本発明の好ましい実施形態として何が現在考慮されるべきかを図示して、説明したように、様々な他の変更が可能であり、本発明の真の範囲から逸脱することなく均等物と置換可能であることが、当業者によって理解される。加えて、多くの変形が、本明細書で説明される中心となる発明の概念から逸脱することなく本発明の教示に対する特定の状況に適応することができる。その上、本発明の実施形態は、上述のすべての構成要件を含む必要はないかもしれない。その結果、本発明は、説明される特定の実施形態に限定されることを意図しておらず、添付請求項の範囲に入るすべての実施形態を本発明は含む。
「備える(comprise)」、「含む(include)」、「包含する(incorporate)」、「含む(contain)」、「である(is)」及び「持つ、有する(have)」などの表現は、この説明及び関連する請求項を解釈するときに、非排他的な態様で解釈されるべきであり、すなわち、必要であるとも明示的に定義されていない他のアイテム又はコンポーネントを考慮に入れるように解釈すべきではない。単数形への言及は、また複数形への言及と解釈されるべきであり、逆もまた同様である。
本説明で開示した様々なパラメータは変更することができ、開示され、及び/又は請求される様々な実施形態は、本発明の範囲から逸脱することなく組み合わせることができることを、当業者であれば、容易に理解する。

Claims (15)

  1. 複数の実際のオブジェクト及び/又は仮想のオブジェクト(8、10、12、14、16、18、20)を含む環境においてオブジェクトを選択する方法であって、前記環境は、ディスプレイデバイス(4)を介してユーザ(2)に表示され、
    前記方法は、前記複数のオブジェクト(8、10、12、14、16、18、20)の各オブジェクトに対するジェスチャパスの割り当て(36)を含み、前記ジェスチャパスは、前記オブジェクトを選択するために前記ユーザ(2)によって実行される一連のジェスチャを含む、方法。
  2. 前記オブジェクト上又は前記オブジェクトの近くにスーパーインポーズされるタグとして各オブジェクトの前記ジェスチャパスが表示されること(36)を含む、請求項1に記載の方法。
  3. 前記ジェスチャパスの各ジェスチャは、前記ジェスチャの向きに従った向きの矢印の形式で表示される、請求項1又は2に記載の方法。
  4. 前記ユーザ(2)によって実行されるジェスチャを検出すること(38)と、
    依然として前記オブジェクトを選択するために実行される前記ジェスチャパスの残っているジェスチャを表示することと、
    を含む、請求項1乃至3のいずれか1項記載の方法。
  5. 遂行される残りのジェスチャの第1のジェスチャに対応しないユーザ(2)の検出されたジェスチャに対するオブジェクトを検出することと、
    前記検出されたオブジェクトを破棄することと、
    を含む、請求項1乃至4のいずれか1項記載の方法。
  6. 遂行される残りのジェスチャの第1のジェスチャに対応しない前記ユーザの検出されたジェスチャに対するオブジェクトを検出することと、
    前記検出されたオブジェクトの前記残りのジェスチャを変更することであって、前記環境の各オブジェクトの前記残りのジェスチャは、前記環境の任意の他のオブジェクトの前記残りのジェスチャとは異なる、変更することと、
    を含む、請求項1乃至4のいずれか1項記載の方法。
  7. 前記オブジェクトに割り当てられた前記ジェスチャパスが、完全に遂行されたとき、前記オブジェクトが選択される(42)、請求項1乃至6のいずれか1項記載の方法。
  8. 前記ジェスチャが手のジェスチャである、請求項1乃至7のいずれか1項記載の方法。
  9. 前記ジェスチャパスの前記割り当ては、前記ユーザの快適さを考慮する、請求項1乃至8のいずれか1項記載の方法。
  10. 複数の実際のオブジェクト及び/又は仮想のオブジェクト(8、10、12、14、16、18、20)を含む環境においてオブジェクトを選択する選択デバイス(50)であって、前記環境は、ディスプレイデバイス(4)を介してユーザ(2)に表示され、前記選択デバイス(50)は、前記複数のオブジェクト(8、10、12、14、16、18、20)の各オブジェクトに対するジェスチャパスの割り当て(36)を含み、前記ジェスチャパスは、前記オブジェクトを選択するために前記ユーザ(2)によって実行される一連のジェスチャを含む、選択デバイス。
  11. アサインメントモジュール(54)が、
    遂行される残りのジェスチャの第1のジェスチャに対応しない前記ユーザの検出されたジェスチャに対するオブジェクトを検出することと、
    前記検出されたオブジェクトの前記残りのジェスチャを変更することであって、前記環境の各オブジェクトの前記残りのジェスチャは、前記環境の任意の他のオブジェクトの前記残りのジェスチャとは異なる、変更することと、
    を実行するように構成される、請求項10に記載の選択デバイス。
  12. 前記環境を分析し、前記環境の前記複数のオブジェクトを検出するように構成される環境分析モジュール(52)を含む、請求項10又は11に記載の選択デバイス。
  13. 前記環境分析モジュール(52)は、前記ユーザの視点から部分的に又は全体的に隠蔽されるオブジェクトを検出するように構成される、請求項12に記載の選択デバイス。
  14. 前記ユーザ(2)によって遂行されるジェスチャを分析するように構成されるジェスチャ分析モジュール(56)を含む、請求項10乃至13のいずれか1項記載の選択デバイス。
  15. コンピュータに請求項1乃至9のいずれか1項記載の前記方法を実行するようにするコンピュータ実行可能命令を含む、コンピュータ読取可能プログラム。
JP2017219754A 2016-11-16 2017-11-15 拡張又は仮想現実環境におけるオブジェクトの選択 Active JP7093174B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16306497.5A EP3324270A1 (en) 2016-11-16 2016-11-16 Selection of an object in an augmented reality environment
EP16306497.5 2016-11-16

Publications (3)

Publication Number Publication Date
JP2018081694A true JP2018081694A (ja) 2018-05-24
JP2018081694A5 JP2018081694A5 (ja) 2020-12-24
JP7093174B2 JP7093174B2 (ja) 2022-06-29

Family

ID=57442612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017219754A Active JP7093174B2 (ja) 2016-11-16 2017-11-15 拡張又は仮想現実環境におけるオブジェクトの選択

Country Status (5)

Country Link
US (1) US10747307B2 (ja)
EP (2) EP3324270A1 (ja)
JP (1) JP7093174B2 (ja)
KR (1) KR102508924B1 (ja)
CN (1) CN108073280B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019244437A1 (ja) * 2018-06-18 2019-12-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2023153220A1 (ja) * 2022-02-09 2023-08-17 ソニーグループ株式会社 情報処理装置及び情報処理方法
JP7446943B2 (ja) 2020-08-18 2024-03-11 株式会社日立製作所 情報表現作成支援装置、情報表現作成支援方法およびコンピュータプログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN110554770A (zh) * 2018-06-01 2019-12-10 苹果公司 静态遮挡物
US11500452B2 (en) 2018-06-05 2022-11-15 Apple Inc. Displaying physical input devices as virtual objects
JP7306386B2 (ja) * 2018-06-06 2023-07-11 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN109246286B (zh) * 2018-07-13 2021-02-02 深圳超多维科技有限公司 智能终端应用操作的控制方法、系统、设备及存储介质
US10942577B2 (en) 2018-09-26 2021-03-09 Rockwell Automation Technologies, Inc. Augmented reality interaction techniques
US10809910B2 (en) * 2018-09-28 2020-10-20 Apple Inc. Remote touch detection enabled by peripheral device
KR102629330B1 (ko) 2018-11-28 2024-01-26 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
KR20200080047A (ko) 2018-12-26 2020-07-06 삼성전자주식회사 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기
CN111124136A (zh) * 2019-12-31 2020-05-08 维沃移动通信有限公司 虚拟画面同步方法及穿戴式设备
CN111665936A (zh) * 2020-05-19 2020-09-15 维沃移动通信有限公司 音乐收藏方法、装置、电子设备及介质
CN112843706B (zh) * 2021-03-16 2024-05-28 网易(杭州)网络有限公司 Vr游戏中虚拟物体的处理方法、装置以及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011513847A (ja) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド 認識されたジェスチャーを用いた高機能化入力
JP2014186361A (ja) * 2013-03-21 2014-10-02 Sony Corp 情報処理装置、操作制御方法及びプログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7093202B2 (en) * 2002-03-22 2006-08-15 Xerox Corporation Method and system for interpreting imprecise object selection paths
US7886236B2 (en) * 2003-03-28 2011-02-08 Microsoft Corporation Dynamic feedback for gestures
JP4883774B2 (ja) 2006-08-07 2012-02-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US8130211B2 (en) * 2007-09-24 2012-03-06 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace
US9767681B2 (en) * 2007-12-12 2017-09-19 Apple Inc. Handheld electronic devices with remote control functionality and gesture recognition
CN101349944A (zh) * 2008-09-03 2009-01-21 宏碁股份有限公司 手势引导系统及以触控手势控制计算机系统的方法
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8009022B2 (en) * 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US8682489B2 (en) * 2009-11-13 2014-03-25 Intuitive Sugical Operations, Inc. Method and system for hand control of a teleoperated minimally invasive slave surgical instrument
US8812990B2 (en) * 2009-12-11 2014-08-19 Nokia Corporation Method and apparatus for presenting a first person world view of content
EP2575007A1 (en) * 2011-09-27 2013-04-03 Elo Touch Solutions, Inc. Scaling of gesture based input
CN102508651B (zh) * 2011-09-29 2015-04-15 深圳超多维光电子有限公司 用户界面的实现方法及系统、电子设备
US9182815B2 (en) * 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
JP2013123970A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 表示装置
US8812994B2 (en) * 2011-12-29 2014-08-19 Apple Inc. Device, method, and graphical user interface for configuring restricted interaction with a user interface
US9448635B2 (en) * 2012-04-16 2016-09-20 Qualcomm Incorporated Rapid gesture re-engagement
US8880336B2 (en) * 2012-06-05 2014-11-04 Apple Inc. 3D navigation
US20130328925A1 (en) 2012-06-12 2013-12-12 Stephen G. Latta Object focus in a mixed reality environment
WO2014009561A2 (en) * 2012-07-13 2014-01-16 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
CN103809735B (zh) * 2012-11-12 2017-06-30 腾讯科技(深圳)有限公司 一种手势识别的方法及装置
KR20140089049A (ko) * 2013-01-02 2014-07-14 삼성전자주식회사 3d 초음파 영상 분석 지원 장치 및 방법
US20150029092A1 (en) * 2013-07-23 2015-01-29 Leap Motion, Inc. Systems and methods of interpreting complex gestures
US10914951B2 (en) 2013-08-19 2021-02-09 Qualcomm Incorporated Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking
JP6144596B2 (ja) * 2013-09-30 2017-06-07 Dmg森精機株式会社 表示装置
JP6201770B2 (ja) * 2014-01-15 2017-09-27 富士通株式会社 ジェスチャui装置、ジェスチャui方法及びプログラム
US20150248166A1 (en) * 2014-01-26 2015-09-03 Shangkar Meitei Mayanglambam System for spontaneous recognition of continuous gesture input
TWI511029B (zh) * 2014-01-28 2015-12-01 Acer Inc 觸控顯示裝置及其操作方法
US9836760B2 (en) * 2014-01-31 2017-12-05 Apple Inc. Representative user journeys for content sessions
EP2916099B1 (en) * 2014-03-07 2020-09-30 Hexagon Technology Center GmbH Articulated arm coordinate measuring machine
EP3007029B1 (en) * 2014-10-07 2017-12-27 LG Electronics Inc. Mobile terminal and wearable device
US20160148558A1 (en) * 2014-11-26 2016-05-26 Fos Labs, Inc. Personal display systems
KR102388130B1 (ko) * 2015-01-12 2022-04-19 삼성메디슨 주식회사 의료 영상 표시 방법 및 장치
US10222976B2 (en) * 2015-06-23 2019-03-05 Sap Se Path gestures

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011513847A (ja) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド 認識されたジェスチャーを用いた高機能化入力
JP2014186361A (ja) * 2013-03-21 2014-10-02 Sony Corp 情報処理装置、操作制御方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019244437A1 (ja) * 2018-06-18 2019-12-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7446943B2 (ja) 2020-08-18 2024-03-11 株式会社日立製作所 情報表現作成支援装置、情報表現作成支援方法およびコンピュータプログラム
WO2023153220A1 (ja) * 2022-02-09 2023-08-17 ソニーグループ株式会社 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
EP3324270A1 (en) 2018-05-23
EP3324271B1 (en) 2022-07-27
KR102508924B1 (ko) 2023-03-13
JP7093174B2 (ja) 2022-06-29
EP3324271A1 (en) 2018-05-23
US20180136721A1 (en) 2018-05-17
KR20180055697A (ko) 2018-05-25
CN108073280B (zh) 2022-08-19
US10747307B2 (en) 2020-08-18
CN108073280A (zh) 2018-05-25

Similar Documents

Publication Publication Date Title
JP7093174B2 (ja) 拡張又は仮想現実環境におけるオブジェクトの選択
US11741917B2 (en) Eclipse cursor for mixed reality displays
US10222981B2 (en) Holographic keyboard display
US9910509B2 (en) Method to control perspective for a camera-controlled computer
US10234935B2 (en) Mediation of interaction methodologies in immersive environments
US20200192625A1 (en) Systems and Methods for Providing Audio to a User Based on Gaze Input
US9740452B2 (en) Systems and methods for providing audio to a user based on gaze input
AU2024202163A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
KR20200035103A (ko) 시선-기반 사용자 상호작용
TW202046085A (zh) 基於捏合和拉放手勢偵測人工實境系統中的輸入
CN117980962A (zh) 用于内容应用的设备、方法和图形用户界面
KR20160106653A (ko) 조정된 스피치 및 제스처 입력
CN103752010B (zh) 用于控制设备的增强现实覆盖
CN109144598A (zh) 基于手势的电子面罩人机交互方法与系统
EP2887183B1 (en) Augmented reality display of scene behind surface
KR102679286B1 (ko) 비접촉식 화면 제어 시스템
KR20230146285A (ko) 비접촉식 화면 제어 시스템

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211004

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220617

R150 Certificate of patent or registration of utility model

Ref document number: 7093174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150