JP7099444B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP7099444B2 JP7099444B2 JP2019511084A JP2019511084A JP7099444B2 JP 7099444 B2 JP7099444 B2 JP 7099444B2 JP 2019511084 A JP2019511084 A JP 2019511084A JP 2019511084 A JP2019511084 A JP 2019511084A JP 7099444 B2 JP7099444 B2 JP 7099444B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- predetermined
- information processing
- gaze position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/08—Cursor circuits
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2358/00—Arrangements for display data security
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/14—Electronic books and readers
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
Description
前記視線情報取得部は、所定のオブジェクトに対する第1のユーザの注視位置を示す第1の視線情報を取得する。
前記入力情報取得部は、前記第1のユーザ及び第2のユーザの少なくとも一方による所定の入力情報を取得する。
前記位置提示部は、前記所定の入力情報に基づいて、不可視状態にある前記第1のユーザの注視位置を前記第2のユーザに提示する位置提示制御を行うよう情報提供装置を制御する。
前記第1のユーザ及び第2のユーザの少なくとも一方による所定の入力情報が取得される。
前記所定の入力情報に基づいて、不可視状態にある前記第1のユーザの注視位置を前記第2のユーザに提示する位置提示制御を行うよう情報提供装置が制御される。
所定のオブジェクトに対する第1のユーザの注視位置を示す第1の視線情報を取得するステップ。
前記第1のユーザ及び第2のユーザの少なくとも一方による所定の入力情報を取得するステップ。
前記所定の入力情報に基づいて、不可視状態にある前記第1のユーザの注視位置を前記第2のユーザに提示する位置提示制御を行うよう情報提供装置を制御すステップ。
図1は、本技術の一実施形態に係るコンテンツ提供装置の外観を模式的に示す図である。図2は、コンテンツ提供装置の機能的な構成例を示すブロック図である。
図3は、コンテンツ提供装置10の基本的な動作例を示すフローチャートである。まず視線検出部23により、ユーザ1a及び1bの各々の注視位置Ea及びEbが検出される(ステップ101)。当該注視位置Ea及びEbの検出は常時実行されており、例えば所定の時間分遡った過去から現在までの注視位置Eの履歴情報が一時的に記憶されてもよい。
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
(1)所定のオブジェクトに対する第1のユーザの注視位置を示す第1の視線情報を取得する視線情報取得部と、
前記第1のユーザ及び第2のユーザの少なくとも一方による所定の入力情報を取得する入力情報取得部と、
前記所定の入力情報に基づいて、不可視状態にある前記第1のユーザの注視位置を前記第2のユーザに提示する位置提示制御を行うよう情報提供装置を制御する位置提示部と、
を備える情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記視線情報取得部は、前記所定のオブジェクトに対する前記第2のユーザの注視位置を示す第2の視線情報を取得し、
前記入力情報取得部は、前記所定の入力情報として、前記第1のユーザの注視位置と前記第2のユーザの注視位置との位置関係情報を取得し、
前記位置提示部は、前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。
(3)(2)に記載の情報処理装置であって、
前記位置提示部は、前記第1のユーザの注視位置と前記第2のユーザの注視位置とが連動しているという前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。
(4)(3)に記載の情報処理装置であって、
前記位置提示部は、前記第1のユーザの注視位置と前記第2のユーザの注視位置とが略同一方向に移動しているという前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。
(5)(3)又は(4)に記載の情報処理装置であって、
前記位置提示部は、前記第1のユーザの注視位置と前記第2のユーザの注視位置とが略同時に移動しているという前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。
(6)(2)から(5)のうちいずれか1つに記載の情報処理装置であって、
前記位置提示部は、前記第1のユーザの注視位置と前記第2のユーザの注視位置との距離が所定値以下であるという前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。
(7)(1)から(6)のうちいずれか1つに記載の情報処理装置であって、
前記入力情報取得部は、前記所定の入力情報として、前記第1の視線情報を取得し、
前記位置提示部は、前記第1のユーザの注視位置が前記所定のオブジェクトの所定の位置にあるという前記所定の入力情報に基づいて、前記位置提示制御を行うよう情報提供装置を制御する
情報処理装置。
(8)(7)に記載の情報処理装置であって、
前記所定のオブジェクトの所定の位置は、前記所定のオブジェクトの周縁部である
情報処理装置。
(9)(7)又は(8)に記載の情報処理装置であって、
前記所定のオブジェクトは、所定のコンテンツを提供するオブジェクトであり、
前記所定のオブジェクトの所定の位置は、前記第1のユーザ及び前記第2のユーザに注視されている前記所定のコンテンツの途切れ位置である
情報処理装置。
(10)(9)に記載の情報処理装置であって、
前記所定のコンテンツは、所定の操作が入力されるまで、進行することが少なくとも部分的に抑制されるコンテンツである
情報処理装置。
(11)(1)から(10)のうちいずれか1つに記載の情報処理装置であって、
前記所定のオブジェクトは、音楽コンテンツ又は動画コンテンツを再生する再生オブジェクトであり、
前記入力情報取得部は、前記所定の入力情報として、前記第1の視線情報を取得し、
前記位置提示部は、前記第1のユーザの注視位置が前記再生オブジェクト上にあるという前記所定の入力情報に基づいて、前記位置提示制御を行うよう情報提供装置を制御する
情報処理装置。
(12)(11)に記載の情報処理装置であって、
前記入力情報取得部は、前記所定の入力情報として、前記音楽コンテンツ又は前記動画コンテンツの区切りにおける前記第1の視線情報を取得し、
前記位置提示部は、前記音楽コンテンツ又は前記動画コンテンツの区切りにおける前記第1のユーザの注視位置が前記再生オブジェクト上にあるという前記所定の入力情報に基づいて、前記位置提示制御を行うよう情報提供装置を制御する
情報処理装置。
(13)(1)から(12)のうちいずれか1つに記載の情報処理装置であって、
前記入力情報取得部は、前記所定の入力情報として、前記第1の視線情報を取得し、
前記位置提示部は、前記第1のユーザの注視位置が前記第2のユーザに向かって移動したという前記所定の入力情報に基づいて、前記第1のユーザの移動する前の注視位置を可視化する前記位置提示制御を行うよう情報提供装置を制御する
情報処理装置。
(14)(1)から(13)のうちいずれか1つに記載の情報処理装置であって、
前記入力情報取得部は、前記所定の入力情報として、前記第1のユーザ及び前記第2のユーザの少なくとも一方による音声情報を取得し、
前記位置提示部は、前記音声情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。
(15)(14)に記載の情報処理装置であって、
前記位置提示部は、前記第1のユーザが発した指示語を含む前記音声情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。
(1)(1)から(15)のうちいずれか1つに記載の情報処理装置であって、
前記入力情報取得部は、前記所定の入力情報として、前記第1のユーザ及び前記第2のユーザの少なくとも一方によるジェスチャ情報を取得し、
前記位置提示部は、前記ジェスチャ情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。
(17)(1)から(16)のうちいずれか1つに記載の情報処理装置であって、
前記情報提供装置は、画像表示機能、及び音声出力機能の少なくとも一方を有する
情報処理装置。
(18)(1)から(17)のうちいずれか1つに記載の情報処理装置であって、
前記情報提供装置は、仮想現実画像、及び拡張現実画像の少なくとも一方を表示可能である
情報処理装置。
(19)所定のオブジェクトに対する第1のユーザの注視位置を示す第1の視線情報を取得するステップと、
前記第1のユーザ及び第2のユーザの少なくとも一方による所定の入力情報を取得するステップと、
前記所定の入力情報に基づいて、不可視状態にある前記第1のユーザの注視位置を前記第2のユーザに提示する位置提示制御を行うよう情報提供装置を制御すステップと
をコンピュータシステムに実行させるプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
1、1a、1b…ユーザ
10…コンテンツ提供装置
20…コントローラ
21…入力情報判定部
22…位置提示制御部
23…視線検出部
24…動作検出部
25…音声判定部
40…電子書籍
42…ページ
43…ページ閲覧済み領域
44、45…ポインタ
47…アイコン
48…アイコン領域
50…リモコン
200、300…HMD
Claims (19)
- 所定のオブジェクトに対する第1のユーザの注視位置を示す第1の視線情報を取得する視線情報取得部と、
前記第1のユーザ及び第2のユーザの少なくとも一方による所定の入力情報を取得する入力情報取得部と、
前記所定の入力情報に基づいて、不可視状態にある前記第1のユーザの注視位置を前記第2のユーザに提示する位置提示制御を行うよう情報提供装置を制御する位置提示部と、
を備え、
前記視線情報取得部は、前記所定のオブジェクトに対する前記第2のユーザの注視位置を示す第2の視線情報を取得し、
前記入力情報取得部は、前記所定の入力情報として、前記第1のユーザの注視位置と前記第2のユーザの注視位置との位置関係情報を取得し、
前記位置提示部は、前記第1のユーザの注視位置と前記第2のユーザの注視位置とが連動しているという前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記位置提示部は、前記第1のユーザの注視位置と前記第2のユーザの注視位置とが略同一方向に移動しているという前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記位置提示部は、前記第1のユーザの注視位置と前記第2のユーザの注視位置とが略同時に移動しているという前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記位置提示部は、前記第1のユーザの注視位置と前記第2のユーザの注視位置との距離が所定値以下であるという前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記入力情報取得部は、前記所定の入力情報として、前記第1の視線情報を取得し、
前記位置提示部は、前記第1のユーザの注視位置が前記所定のオブジェクトの所定の位置にあるという前記所定の入力情報に基づいて、前記位置提示制御を行うよう情報提供装置を制御する
情報処理装置。 - 請求項5に記載の情報処理装置であって、
前記所定のオブジェクトの所定の位置は、前記所定のオブジェクトの周縁部である
情報処理装置。 - 請求項5に記載の情報処理装置であって、
前記所定のオブジェクトは、所定のコンテンツを提供するオブジェクトであり、
前記所定のオブジェクトの所定の位置は、前記第1のユーザ及び前記第2のユーザに注視されている前記所定のコンテンツの途切れ位置である
情報処理装置。 - 請求項7に記載の情報処理装置であって、
前記所定のコンテンツは、所定の操作が入力されるまで、進行することが少なくとも部分的に抑制されるコンテンツである
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記所定のオブジェクトは、音楽コンテンツ又は動画コンテンツを再生する再生オブジェクトであり、
前記入力情報取得部は、前記所定の入力情報として、前記第1の視線情報を取得し、
前記位置提示部は、前記第1のユーザの注視位置が前記再生オブジェクト上にあるという前記所定の入力情報に基づいて、前記位置提示制御を行うよう情報提供装置を制御する
情報処理装置。 - 請求項9に記載の情報処理装置であって、
前記入力情報取得部は、前記所定の入力情報として、前記音楽コンテンツ又は前記動画コンテンツの区切りにおける前記第1の視線情報を取得し、
前記位置提示部は、前記音楽コンテンツ又は前記動画コンテンツの区切りにおける前記第1のユーザの注視位置が前記再生オブジェクト上にあるという前記所定の入力情報に基づいて、前記位置提示制御を行うよう情報提供装置を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記入力情報取得部は、前記所定の入力情報として、前記第1の視線情報を取得し、
前記位置提示部は、前記第1のユーザの注視位置が前記第2のユーザに向かって移動したという前記所定の入力情報に基づいて、前記第1のユーザの移動する前の注視位置を可視化する前記位置提示制御を行うよう情報提供装置を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記入力情報取得部は、前記所定の入力情報として、前記第1のユーザ及び前記第2のユーザの少なくとも一方による音声情報を取得し、
前記位置提示部は、前記音声情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。 - 請求項12に記載の情報処理装置であって、
前記位置提示部は、前記第1のユーザが発した指示語を含む前記音声情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記入力情報取得部は、前記所定の入力情報として、前記第1のユーザ及び前記第2のユーザの少なくとも一方によるジェスチャ情報を取得し、
前記位置提示部は、前記ジェスチャ情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記情報提供装置は、画像表示機能、及び音声出力機能の少なくとも一方を有する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記情報提供装置は、仮想現実画像、及び拡張現実画像の少なくとも一方を表示可能である
情報処理装置。 - コンピュータシステムが実行する情報処理方法であって、
所定のオブジェクトに対する第1のユーザの注視位置を示す第1の視線情報を取得する視線情報取得ステップと、
前記第1のユーザ及び第2のユーザの少なくとも一方による所定の入力情報を取得する入力情報取得ステップと、
前記所定の入力情報に基づいて、不可視状態にある前記第1のユーザの注視位置を前記第2のユーザに提示する位置提示制御を行うよう情報提供装置を制御する位置提示ステップと
を含み、
前記視線情報取得ステップは、前記所定のオブジェクトに対する前記第2のユーザの注視位置を示す第2の視線情報を取得し、
前記入力情報取得ステップは、前記所定の入力情報として、前記第1のユーザの注視位置と前記第2のユーザの注視位置との位置関係情報を取得し、
前記位置提示ステップは、前記第1のユーザの注視位置と前記第2のユーザの注視位置とが連動しているという前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
情報処理方法。 - コンピュータシステムに情報処理方法を実行させるプログラムであって、
前記情報処理方法は、
所定のオブジェクトに対する第1のユーザの注視位置を示す第1の視線情報を取得する視線情報取得ステップと、
前記第1のユーザ及び第2のユーザの少なくとも一方による所定の入力情報を取得する入力情報取得ステップと、
前記所定の入力情報に基づいて、不可視状態にある前記第1のユーザの注視位置を前記第2のユーザに提示する位置提示制御を行うよう情報提供装置を制御する位置提示ステップと
を含み、
前記視線情報取得ステップは、前記所定のオブジェクトに対する前記第2のユーザの注視位置を示す第2の視線情報を取得し、
前記入力情報取得ステップは、前記所定の入力情報として、前記第1のユーザの注視位置と前記第2のユーザの注視位置との位置関係情報を取得し、
前記位置提示ステップは、前記第1のユーザの注視位置と前記第2のユーザの注視位置とが連動しているという前記位置関係情報に基づいて、前記位置提示制御を行うよう前記情報提供装置を制御する
プログラム。 - 所定のオブジェクトに対する第1のユーザの注視位置を示す第1の視線情報を取得する視線情報取得部と、
前記第1のユーザ及び第2のユーザの少なくとも一方による所定の入力情報を取得する入力情報取得部と、
前記所定の入力情報に基づいて、不可視状態にある前記第1のユーザの注視位置を前記第2のユーザに提示する位置提示制御を行うよう情報提供装置を制御する位置提示部と、
を備え、
前記入力情報取得部は、前記所定の入力情報として、前記第1の視線情報を取得し、
前記位置提示部は、前記第1のユーザの注視位置が前記第2のユーザに向かって移動したという前記所定の入力情報に基づいて、前記第1のユーザの移動する前の注視位置を可視化する前記位置提示制御を行うよう情報提供装置を制御する
情報処理装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017073448 | 2017-04-03 | ||
JP2017073448 | 2017-04-03 | ||
PCT/JP2018/005517 WO2018186031A1 (ja) | 2017-04-03 | 2018-02-16 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018186031A1 JPWO2018186031A1 (ja) | 2020-04-23 |
JP7099444B2 true JP7099444B2 (ja) | 2022-07-12 |
Family
ID=63712464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019511084A Active JP7099444B2 (ja) | 2017-04-03 | 2018-02-16 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11209900B2 (ja) |
JP (1) | JP7099444B2 (ja) |
CN (1) | CN110546601B (ja) |
WO (1) | WO2018186031A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021140195A (ja) * | 2018-05-31 | 2021-09-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN113508369A (zh) * | 2019-04-01 | 2021-10-15 | 住友电气工业株式会社 | 交流支持系统、交流支持方法、交流支持程序以及图像控制程序 |
US11385726B2 (en) * | 2020-06-01 | 2022-07-12 | Science House LLC | Systems, methods, and apparatus for enhanced presentation remotes |
CN115735177A (zh) * | 2020-06-30 | 2023-03-03 | 美国斯耐普公司 | 包括共享对象操纵ar体验的眼戴器 |
CN114527864B (zh) * | 2020-11-19 | 2024-03-15 | 京东方科技集团股份有限公司 | 增强现实文字显示系统、方法、设备及介质 |
JP7296069B2 (ja) * | 2021-01-28 | 2023-06-22 | 独立行政法人国立高等専門学校機構 | 視線入力装置、および視線入力方法 |
JPWO2023022109A1 (ja) * | 2021-08-17 | 2023-02-23 | ||
JP7022250B1 (ja) | 2021-10-04 | 2022-02-17 | 株式会社メディアドゥ | バーチャルリアリティ又は拡張現実読書システム、書籍及び画像の3次元表示制御プログラム、ならびに、情報処理方法 |
US11520457B1 (en) * | 2021-11-18 | 2022-12-06 | Motorola Mobility Llc | Cursor position based on focus of a glasses device |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006107281A (ja) | 2004-10-07 | 2006-04-20 | Queen Mary & Westfield College | コミュニケーション支援装置 |
JP2009514090A (ja) | 2005-10-28 | 2009-04-02 | トビイ テクノロジー アーベー | 視覚的フィードバックを有するアイトラッカー |
JP2013114691A (ja) | 2011-11-29 | 2013-06-10 | Samsung Electronics Co Ltd | 視線追跡に基づくユーザ機能運用方法及びこれを支援する端末機 |
JP2014178933A (ja) | 2013-03-15 | 2014-09-25 | Konica Minolta Inc | オブジェクト表示装置及び操作制御方法並びに操作制御プログラム |
JP2015088086A (ja) | 2013-11-01 | 2015-05-07 | ソニー株式会社 | 情報処理装置および情報処理方法 |
WO2015190093A1 (ja) | 2014-06-10 | 2015-12-17 | 株式会社ソシオネクスト | 半導体集積回路およびそれを備えた表示装置並びに制御方法 |
WO2016002445A1 (ja) | 2014-07-03 | 2016-01-07 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2016103109A (ja) | 2014-11-27 | 2016-06-02 | 富士通株式会社 | 表示装置、表示方法及び表示プログラム |
WO2016151958A1 (ja) | 2015-03-20 | 2016-09-29 | ソニー株式会社 | 情報処理装置、情報処理システム、情報処理方法およびプログラム |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9706711D0 (en) * | 1997-04-02 | 1997-05-21 | Philips Electronics Nv | User interface with compound cursor |
GB9800397D0 (en) * | 1998-01-09 | 1998-03-04 | Philips Electronics Nv | Virtual environment viewpoint control |
JP2004246398A (ja) | 2003-01-29 | 2004-09-02 | Nippon Telegr & Teleph Corp <Ntt> | ユーザ意図推定装置,ユーザ意図推定方法,ユーザ意図推定プログラムおよびそのプログラムの記録媒体,並びに自動辞書引き装置,自動辞書引き処理方法,自動辞書引き処理プログラムおよびそのプログラムの記録媒体 |
US7727060B2 (en) * | 2005-07-15 | 2010-06-01 | Maurice Mills | Land-based, on-line poker system |
US8120577B2 (en) | 2005-10-28 | 2012-02-21 | Tobii Technology Ab | Eye tracker with visual feedback |
US7774703B2 (en) * | 2006-02-09 | 2010-08-10 | Microsoft Corporation | Virtual shadow awareness for multi-user editors |
US8913004B1 (en) * | 2010-03-05 | 2014-12-16 | Amazon Technologies, Inc. | Action based device control |
US8723915B2 (en) * | 2010-04-30 | 2014-05-13 | International Business Machines Corporation | Multi-participant audio/video communication system with participant role indicator |
US10120438B2 (en) * | 2011-05-25 | 2018-11-06 | Sony Interactive Entertainment Inc. | Eye gaze to alter device behavior |
CA2847975A1 (en) * | 2011-09-07 | 2013-03-14 | Tandemlaunch Technologies Inc. | System and method for using eye gaze information to enhance interactions |
KR101872859B1 (ko) * | 2012-01-20 | 2018-06-29 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어방법 |
US9245497B2 (en) * | 2012-11-01 | 2016-01-26 | Google Technology Holdings LLC | Systems and methods for configuring the display resolution of an electronic device based on distance and user presbyopia |
EP2837639B1 (en) * | 2013-08-12 | 2020-02-26 | Shin-Etsu Chemical Co., Ltd. | Method for dehydrating hydrous low-substituted hydroxypropyl cellulose and method for producing low-substituted hydroxypropyl cellulose by using same |
CN105593785B (zh) * | 2013-11-01 | 2019-11-12 | 英特尔公司 | 凝视辅助触摸屏输入 |
JP5968926B2 (ja) | 2014-01-23 | 2016-08-10 | 京セラドキュメントソリューションズ株式会社 | 情報処理装置及び情報処理プログラム |
KR20150096826A (ko) * | 2014-02-17 | 2015-08-26 | 엘지전자 주식회사 | 디스플레이 장치 및 제어 방법 |
KR102193029B1 (ko) * | 2014-05-09 | 2020-12-18 | 삼성전자주식회사 | 디스플레이 장치 및 그의 화상 통화 수행 방법 |
US9727136B2 (en) * | 2014-05-19 | 2017-08-08 | Microsoft Technology Licensing, Llc | Gaze detection calibration |
US20150338939A1 (en) * | 2014-05-23 | 2015-11-26 | Microsoft Technology Licensing, Llc | Ink Modes |
US20150364140A1 (en) * | 2014-06-13 | 2015-12-17 | Sony Corporation | Portable Electronic Equipment and Method of Operating a User Interface |
US9766702B2 (en) * | 2014-06-19 | 2017-09-19 | Apple Inc. | User detection by a computing device |
US9678567B2 (en) * | 2014-07-16 | 2017-06-13 | Avaya Inc. | Indication of eye tracking information during real-time communications |
KR20160016468A (ko) * | 2014-08-05 | 2016-02-15 | 삼성전자주식회사 | 리얼 3d 영상 생성 방법 및 그 장치 |
US10359842B2 (en) * | 2014-09-16 | 2019-07-23 | Ricoh Company, Limited | Information processing system and information processing method |
US20160147298A1 (en) * | 2014-11-25 | 2016-05-26 | Kobo Incorporated | E-reading device page continuity bookmark indicium and invocation |
US9300916B1 (en) * | 2015-02-10 | 2016-03-29 | International Business Machines Corporation | Natural gazes during online video conversations |
US10551913B2 (en) * | 2015-03-21 | 2020-02-04 | Mine One Gmbh | Virtual 3D methods, systems and software |
US10037312B2 (en) * | 2015-03-24 | 2018-07-31 | Fuji Xerox Co., Ltd. | Methods and systems for gaze annotation |
US9898865B2 (en) * | 2015-06-22 | 2018-02-20 | Microsoft Technology Licensing, Llc | System and method for spawning drawing surfaces |
KR102415502B1 (ko) * | 2015-08-07 | 2022-07-01 | 삼성전자주식회사 | 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치 |
US10186086B2 (en) * | 2015-09-02 | 2019-01-22 | Microsoft Technology Licensing, Llc | Augmented reality control of computing device |
US9451210B1 (en) * | 2015-12-10 | 2016-09-20 | Google Inc. | Directing communications using gaze interaction |
US9691219B1 (en) * | 2015-12-11 | 2017-06-27 | Igt Canada Solutions Ulc | Enhanced electronic gaming machine with electronic maze and eye gaze display |
IL243422B (en) * | 2015-12-30 | 2018-04-30 | Elbit Systems Ltd | Information management is displayed according to the directions of the user's gaze |
US10133345B2 (en) * | 2016-03-22 | 2018-11-20 | Microsoft Technology Licensing, Llc | Virtual-reality navigation |
US10481682B2 (en) * | 2016-03-29 | 2019-11-19 | Google Llc | System and method for generating virtual marks based on gaze tracking |
US10466474B2 (en) * | 2016-08-04 | 2019-11-05 | International Business Machines Corporation | Facilitation of communication using shared visual cue |
US10410421B2 (en) * | 2016-09-13 | 2019-09-10 | 3I, Corporation | Method and server for providing virtual reality image about object |
US9841814B1 (en) * | 2017-01-27 | 2017-12-12 | Emergent AR Platforms Corp. | Intentional user experience |
US10142686B2 (en) * | 2017-03-30 | 2018-11-27 | Rovi Guides, Inc. | System and methods for disambiguating an ambiguous entity in a search query based on the gaze of a user |
-
2018
- 2018-02-16 WO PCT/JP2018/005517 patent/WO2018186031A1/ja active Application Filing
- 2018-02-16 JP JP2019511084A patent/JP7099444B2/ja active Active
- 2018-02-16 CN CN201880021403.0A patent/CN110546601B/zh active Active
- 2018-02-16 US US16/489,839 patent/US11209900B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006107281A (ja) | 2004-10-07 | 2006-04-20 | Queen Mary & Westfield College | コミュニケーション支援装置 |
JP2009514090A (ja) | 2005-10-28 | 2009-04-02 | トビイ テクノロジー アーベー | 視覚的フィードバックを有するアイトラッカー |
JP2013114691A (ja) | 2011-11-29 | 2013-06-10 | Samsung Electronics Co Ltd | 視線追跡に基づくユーザ機能運用方法及びこれを支援する端末機 |
JP2014178933A (ja) | 2013-03-15 | 2014-09-25 | Konica Minolta Inc | オブジェクト表示装置及び操作制御方法並びに操作制御プログラム |
JP2015088086A (ja) | 2013-11-01 | 2015-05-07 | ソニー株式会社 | 情報処理装置および情報処理方法 |
WO2015190093A1 (ja) | 2014-06-10 | 2015-12-17 | 株式会社ソシオネクスト | 半導体集積回路およびそれを備えた表示装置並びに制御方法 |
WO2016002445A1 (ja) | 2014-07-03 | 2016-01-07 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2016103109A (ja) | 2014-11-27 | 2016-06-02 | 富士通株式会社 | 表示装置、表示方法及び表示プログラム |
WO2016151958A1 (ja) | 2015-03-20 | 2016-09-29 | ソニー株式会社 | 情報処理装置、情報処理システム、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2018186031A1 (ja) | 2020-04-23 |
CN110546601A (zh) | 2019-12-06 |
US11209900B2 (en) | 2021-12-28 |
US20200033942A1 (en) | 2020-01-30 |
CN110546601B (zh) | 2023-09-26 |
WO2018186031A1 (ja) | 2018-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7099444B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11520456B2 (en) | Methods for adjusting and/or controlling immersion associated with user interfaces | |
JP7092108B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11804041B2 (en) | Method, device, and system for generating affordances linked to a representation of an item | |
US20230092282A1 (en) | Methods for moving objects in a three-dimensional environment | |
US20150213784A1 (en) | Motion-based lenticular image display | |
US11733783B2 (en) | Method and device for presenting a synthesized reality user interface | |
US20230333646A1 (en) | Methods for navigating user interfaces | |
US20230384907A1 (en) | Methods for relative manipulation of a three-dimensional environment | |
US20240020371A1 (en) | Devices, methods, and graphical user interfaces for user authentication and device management | |
US20230221833A1 (en) | Methods for displaying user interface elements relative to media content | |
US20230093979A1 (en) | Devices, methods, and graphical user interfaces for content applications | |
US20230336865A1 (en) | Device, methods, and graphical user interfaces for capturing and displaying media | |
US20240094819A1 (en) | Devices, methods, and user interfaces for gesture-based interactions | |
US20240104871A1 (en) | User interfaces for capturing media and manipulating virtual objects | |
US20240103677A1 (en) | User interfaces for managing sharing of content in three-dimensional environments | |
US20240028177A1 (en) | Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments | |
US20240103678A1 (en) | Devices, methods, and graphical user interfaces for interacting with extended reality experiences | |
US20240103614A1 (en) | Devices, methods, for interacting with graphical user interfaces | |
US20240104819A1 (en) | Representations of participants in real-time communication sessions | |
US20240103679A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
WO2024064016A1 (en) | Devices, methods, and user interfaces for gesture-based interactions | |
WO2024064036A1 (en) | User interfaces for managing sharing of content in three-dimensional environments | |
WO2024064350A1 (en) | User interfaces for capturing stereoscopic media | |
WO2024064180A1 (en) | User interfaces that include representations of the environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220506 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220506 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220613 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7099444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |