JPWO2017187708A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2017187708A1
JPWO2017187708A1 JP2018514127A JP2018514127A JPWO2017187708A1 JP WO2017187708 A1 JPWO2017187708 A1 JP WO2017187708A1 JP 2018514127 A JP2018514127 A JP 2018514127A JP 2018514127 A JP2018514127 A JP 2018514127A JP WO2017187708 A1 JPWO2017187708 A1 JP WO2017187708A1
Authority
JP
Japan
Prior art keywords
information processing
display
candidates
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018514127A
Other languages
English (en)
Other versions
JP7092028B2 (ja
Inventor
賢次 杉原
賢次 杉原
友久 田中
友久 田中
翼 塚原
翼 塚原
遼 深澤
遼 深澤
茜 矢野
茜 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017187708A1 publication Critical patent/JPWO2017187708A1/ja
Application granted granted Critical
Publication of JP7092028B2 publication Critical patent/JP7092028B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】視覚的に視認可能に提示された複数の対象に対して選択的に操作を行うような状況下においても、より好適な態様でユーザとの間のインタラクションを実現する。
【解決手段】所定の出力部に1以上の表示情報を表示させる制御部と、視覚的に視認可能なオブジェクトに対する操作を検出する検出部と、前記操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定する特定部と、を備え、前記制御部は、特定された前記候補が複数存在する場合に、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御する、情報処理装置。
【選択図】図4

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
PC(Personal Computer)、スマートフォン、及びタブレット端末等のような所謂情報処理装置(もしくは、当該情報処理装置を含む情報処理システム)を操作するためのUI(User Interface)として、多様な方式のものが提案されている。特に、近年では、マウスやタッチパネル等のデバイスを利用した入力インタフェースに限らず、各種解析技術や各種認識技術を利用することで多様な入力インタフェースが提案されている。
例えば、特許文献1には、ユーザの視線を検出する技術の一例が開示されている。このような技術を応用することで、例えば、視覚的に視認可能に提示された各種情報に対する、ユーザからの視線により指定を受けて、当該ユーザと情報処理装置との間のインタラクションを実現するインタフェースも検討されている。
特開2012−70081号公報
一方で、視覚的に視認可能に提示された対象に対して操作を行う方式の入力インタフェースにより、複数の対象に対して選択的に操作を行う状況下において、情報処理装置が、ユーザにより指定された操作対象を択一的に特定することが困難となる場合がある。このような場合には、情報処理装置は、ユーザの意図をより的確にくみ取ることが困難となり、ひいては、当該ユーザの所望するサービスを提供することが困難となる場合がある。
このような問題に対して、情報処理装置が、再度ユーザに対して同様の入力を改めて求めることで、ユーザにより指定された対象の特定を再度試みる場合がある。しなしながら、従前の入力時と同じような状況下で同様の入力が再度行われたとしても、情報処理装置は、当該入力に基づき指定された操作対象を択一的に特定できるとは限らず、操作が煩雑になり、ユーザとの間のインタラクションが非連続的となる場合もある。
そこで、本開示では、視覚的に視認可能に提示された複数の対象に対して選択的に操作を行うような状況下においても、より好適な態様でユーザとの間のインタラクションを実現することが可能な、情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、所定の出力部に1以上の表示情報を表示させる制御部と、視覚的に視認可能なオブジェクトに対する操作を検出する検出部と、前記操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定する特定部と、を備え、前記制御部は、特定された前記候補が複数存在する場合に、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御する、情報処理装置が提供される。
また、本開示によれば、コンピュータシステムが、所定の出力部に1以上の表示情報を表示させることと、視覚的に視認可能なオブジェクトに対する操作を検出することと、
前記操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定することと、特定された前記候補が複数存在する場合に、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御することと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータシステムに、所定の出力部に1以上の表示情報を表示させることと、視覚的に視認可能なオブジェクトに対する操作を検出することと、前記操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定することと、特定された前記候補が複数存在する場合に、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御することと、を実行させる、プログラムが提供される。
以上説明したように本開示によれば、視覚的に視認可能に提示された複数の対象に対して選択的に操作を行うような状況下においても、より好適な態様でユーザとの間のインタラクションを実現することが可能な、情報処理装置、情報処理方法、及びプログラムが提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明するための説明図である。 同実施形態に係る入出力装置の概略的な構成の一例について説明するための説明図である。 情報処理システムとユーザとの間のインタラクションの一例について説明するための説明図である。 同実施形態に係る情報処理システムの動作の基本原理について説明するための説明図である。 視線分解能について説明するための説明図である。 同実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。 同実施形態に係る情報処理システムの一連の処理の流れの一例を示したフローチャートである。 変形例3に係る情報処理システムの概要について説明するための説明図である。 変形例3に係る情報処理システムの概要について説明するための説明図である。 変形例4に係る情報処理システムの概要について説明するための説明図である。 変形例4に係る情報処理システムの他の一態様について説明するための説明図である。 変形例5に係る情報処理システムの概要について説明するための説明図である。 変形例5に係る情報処理システムの他の一態様について説明するための説明図である。 変形例5に係る情報処理システムの他の一態様について説明するための説明図である。 変形例5に係る情報処理システムの他の一態様について説明するための説明図である。 変形例6に係る情報処理システムの概要について説明するための説明図である。 同実施形態に係る情報処理システムの第1の適用例について説明するための説明図である。 同実施形態に係る情報処理システムの第2の適用例について説明するための説明図である。 同実施形態に係る情報処理システムの第2の適用例について説明するための説明図である。 同実施形態に係る情報処理システムの第3の適用例について説明するための説明図である。 同実施形態に係る情報処理システムの第3の適用例の他の一態様について説明するための説明図である。 同実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一例を示す機能ブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
1.1.概略構成
1.2.入出力装置の構成
1.3.自己位置推定の原理
2.インタラクションに関する検討
3.技術的特徴
3.1.基本原理
3.2.機能構成
3.3.処理
4.変形例
4.1.変形例1:表示対象の特性に応じた表示制御の一例
4.2.変形例2:システムの特性に応じた表示制御の一例
4.3.変形例3:視線を誘導する位置の制御例
4.4.変形例4:候補以外の表示情報の表示制御の一例
4.5.変形例5:視線を誘導するための制御の一例
4.6.変形例6:優先度に応じた制御の一例
4.7.変形例7:状態や状況に応じた制御の一例
5.適用例
5.1.適用例1:スマートフォンやタブレット端末への適用例
5.2.適用例2:テーブルトップシステムへの適用例
5.3.適用例3:タッチ操作を採用する場合の制御の一例
6.ハードウェア構成
7.むすび
<<1.概要>>
<1.1.概略構成>
まず、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明する。図1は、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明するための説明図である。図1において、参照符号M11は、実空間上に位置する物体(即ち、実オブジェクト)を模式的に示している。また、参照符号V131及びV135は、実空間上に重畳するように提示される仮想的なコンテンツ(即ち、仮想オブジェクト)を模式的に示している。即ち、本実施形態に係る情報処理システム1は、所謂AR技術に基づき、例えば、実オブジェクトM111等の実空間上の物体に対して、仮想オブジェクトを重畳してユーザに提示する。なお、図1では、本実施形態に係る情報処理システムの特徴をよりわかりやすくするために、実オブジェクトと仮想オブジェクトとの双方をあわせて提示している。
図1に示すように、本実施形態に係る情報処理システム1は、情報処理装置10と、入出力装置20とを含む。情報処理装置10と入出力装置20とは、所定のネットワークを介して互いに情報を送受信可能に構成されている。なお、情報処理装置10と入出力装置20とを接続するネットワークの種別は特に限定されない。具体的な一例として、当該ネットワークは、Wi−Fi(登録商標)規格に基づくネットワークのような、所謂無線のネットワークにより構成されていてもよい。また、他の一例として、当該ネットワークは、インターネット、専用線、LAN(Local Area Network)、または、WAN(Wide Area Network)等により構成されていてもよい。また、当該ネットワークは、複数のネットワークを含んでもよく、一部が有線のネットワークとして構成されていてもよい。
入出力装置20は、各種入力情報の取得や、当該入出力装置20を保持するユーザに対して各種出力情報を提示を行うための構成である。また、入出力装置20による出力情報の提示は、情報処理装置10により、当該入出力装置20により取得された入力情報に基づき制御される。例えば、入出力装置20は、実オブジェクトM111を認識するための情報(例えば、撮像された実空間の画像)を入力情報として取得し、取得した情報を情報処理装置10に出力する。情報処理装置10は、入出力装置20から取得した情報に基づき、実空間上における実オブジェクトM111の位置を認識し、当該認識結果に基づき、入出力装置20に仮想オブジェクトV131及びV135を提示させる。このような制御により、入出力装置20は、所謂AR技術に基づき、実オブジェクトM111に対して仮想オブジェクトV131及びV135が重畳するように、当該仮想オブジェクトV131及びV135をユーザに提示することが可能となる。
また、入出力装置20は、例えば、ユーザが頭部の少なくとも一部に装着して使用する、所謂頭部装着型デバイスとして構成されており、当該ユーザの視線を検出可能に構成されている。このような構成に基づき、情報処理装置10は、例えば、入出力装置20によるユーザの視線の検出結果に基づき、当該ユーザが所望の対象(例えば、実オブジェクトM111や、仮想オブジェクトV131及びV135等)を注視していることを認識した場合に、当該対象を操作対象として特定してもよい。また、情報処理装置10は、入出力装置20に対する所定の操作をトリガとして、ユーザの視線が向けられている対象を操作対象として特定してもよい。以上のようにして、情報処理装置10は、操作対象を特定し、当該操作対象に関連付けられた処理を実行することで、入出力装置20を介して各種サービスをユーザに提供してもよい。
なお、図1では、入出力装置20と情報処理装置10とが互いに異なる装置として示されているが、入出力装置20及び情報処理装置10は一体的に構成されていてもよい。また、入出力装置20及び情報処理装置10の構成及び処理の詳細については別途後述する。
以上、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明した。
<1.2.入出力装置の構成>
続いて、図2を参照して、図1に示した本実施形態に係る入出力装置20の概略的な構成の一例について説明する。図2は、本実施形態に係る入出力装置の概略的な構成の一例について説明するための説明図である。
前述したように、本実施形態に係る入出力装置20は、ユーザが頭部の少なくとも一部に装着して使用する、所謂頭部装着型デバイスとして構成されている。例えば、図2に示す例では、入出力装置20は、所謂アイウェア型(メガネ型)のデバイスとして構成されており、レンズ293a及び293bのうち少なくともいずれかが透過型のディスプレイ(出力部211)として構成されている。また、入出力装置20は、第1撮像部201a及び201bと、第2撮像部203a及び203bと、操作部207と、メガネのフレームに相当する保持部291とを備える。保持部291は、入出力装置20がユーザの頭部に装着されたときに、出力部211と、第1撮像部201a及び201bと、第2撮像部203a及び203bと、操作部207とを、当該ユーザの頭部に対して所定の位置関係となるように保持する。また、図2には図示していないが、入出力装置20は、ユーザの音声を集音するための集音部を備えていてもよい。
ここで、入出力装置20のより具体的な構成について説明する。例えば、図2に示す例では、レンズ293aが、右眼側のレンズに相当し、レンズ293bが、左眼側のレンズに相当する。即ち、保持部291は、入出力装置20が装着された場合に、出力部211(換言すると、レンズ293a及び293b)がユーザの眼前に位置するように、当該出力部211を保持する。
第1撮像部201a及び201bは、所謂ステレオカメラとして構成されており、入出力装置20がユーザの頭部に装着されたときに、当該ユーザの頭部が向いた方向(即ち、ユーザの前方)を向くように、保持部291によりそれぞれ保持される。このとき、第1撮像部201aが、ユーザの右眼の近傍に保持され、第1撮像部201bが、当該ユーザの左眼の近傍に保持される。このような構成に基づき、第1撮像部201a及び201bは、入出力装置20の前方に位置する被写体(換言すると、実空間に位置する実オブジェクト)を互いに異なる位置から撮像する。これにより、入出力装置20は、ユーザの前方に位置する被写体の画像を取得するとともに、第1撮像部201a及び201bそれぞれにより撮像された画像間の視差に基づき、当該入出力装置20から、当該被写体までの距離を算出することが可能となる。
なお、入出力装置20と被写体との間の距離を測定可能であれば、その構成や方法は特に限定されない。具体的な一例として、マルチカメラステレオ、移動視差、TOF(Time Of Flight)、Structured Light等の方式に基づき、入出力装置20と被写体との間の距離が測定されてもよい。ここで、TOFとは、被写体に対して赤外線等の光を投光し、投稿した光が当該被写体で反射して戻るまでの時間を画素ごとに測定することで、当該測定結果に基づき被写体までの距離(深度)を含めた画像(所謂距離画像)を得る方式である。また、Structured Lightは、被写体に対して赤外線等の光によりパターンを照射しそれを撮像することで、撮像結果から得られる当該パターンの変化に基づき、被写体までの距離(深度)を含めた距離画像を得る方式である。また、移動視差とは、所謂単眼カメラにおいても、視差に基づき被写体までの距離を測定する方法である。具体的には、カメラを移動させることで、被写体を互いに異なる視点から撮像し、撮像された画像間の視差に基づき被写体までの距離を測定する。なお、このとき各種センサによりカメラの移動距離及び移動方向を認識することで、被写体までの距離をより精度良く測定することが可能となる。なお、距離の測定方法に応じて、撮像部の構成(例えば、単眼カメラ、ステレオカメラ等)を変更してもよい。
また、第2撮像部203a及び203bは、入出力装置20がユーザの頭部に装着されたときに、それぞれの撮像範囲内に当該ユーザの眼球が位置するように、保持部291によりそれぞれ保持される。具体的な一例として、第2撮像部203aは、撮像範囲内にユーザの右眼が位置するように保持される。このような構成に基づき、第2撮像部203aにより撮像された右眼の眼球の画像と、当該第2撮像部203aと当該右眼との間の位置関係と、に基づき、当該右眼の視線が向いている方向を認識することが可能となる。同様に、第2撮像部203bは、撮像範囲内に当該ユーザの左眼が位置するように保持される。即ち、第2撮像部203bにより撮像された左眼の眼球の画像と、当該第2撮像部203bと当該左眼との間の位置関係と、に基づき、当該左眼の視線が向いている方向を認識することが可能となる。なお、図2に示す例では、入出力装置20が第2撮像部203a及び203bの双方を含む構成について示しているが、第2撮像部203a及び203bのうちいずれかのみが設けられていてもよい。
操作部207は、入出力装置20に対するユーザからの操作を受け付けるための構成である。操作部207は、例えば、タッチパネルやボタン等のような入力デバイスにより構成されていてもよい。操作部207は、保持部291により、入出力装置20の所定の位置に保持されている。例えば、図2に示す例では、操作部207は、メガネのテンプルに相当する位置に保持されている。
また、本実施形態に係る入出力装置20は、例えば、加速度センサや、角速度センサ(ジャイロセンサ)が設けられ、当該入出力装置20を装着したユーザの頭部の動き(換言すると、入出力装置20自体の動き)を検出可能に構成されていてもよい。具体的な一例として、入出力装置20は、ユーザの頭部の動きとして、ヨー(yaw)方向、ピッチ(pitch)方向、及びロール(roll)方向それぞれの成分を検出することで、当該ユーザの頭部の位置及び姿勢のうち少なくともいずれかの変化を認識してもよい。
以上のような構成に基づき、本実施形態に係る入出力装置20は、ユーザの頭部の動きに応じた、実空間上における自身の位置や姿勢の変化を認識することが可能となる。また、このとき入出力装置20は、所謂AR技術に基づき、実空間に位置する実オブジェクトに対して、仮想的なコンテンツ(即ち、仮想オブジェクト)が重畳するように、出力部211に当該コンテンツを提示することも可能となる。なお、入出力装置20が、実空間上における自身の位置及び姿勢を推定するための方法(即ち、自己位置推定)の一例については、詳細を別途後述する。
なお、入出力装置20として適用可能な頭部装着型の表示装置(HMD:Head Mounted Display)の一例としては、例えば、シースルー型HMD、ビデオシースルー型HMD、及び網膜投射型HMDが挙げられる。
シースルー型HMDは、例えば、ハーフミラーや透明な導光板を用いて、透明な導光部等からなる虚像光学系をユーザの眼前に保持し、当該虚像光学系の内側に画像を表示させる。そのため、シースルー型HMDを装着したユーザは、虚像光学系の内側に表示された画像を視聴している間も、外部の風景を視野に入れることが可能となる。このような構成により、シースルー型HMDは、例えば、AR技術に基づき、当該シースルー型HMDの位置及び姿勢のうち少なくともいずれかの認識結果に応じて、実空間に位置する実オブジェクトの光学像に対して仮想オブジェクトの画像を重畳させることも可能となる。なお、シースルー型HMDの具体的な一例として、メガネのレンズに相当する部分を虚像光学系として構成した、所謂メガネ型のウェアラブルデバイスが挙げられる。例えば、図2に示した入出力装置20は、シースルー型HMDの一例に相当する。
ビデオシースルー型HMDは、ユーザの頭部または顔部に装着された場合に、ユーザの眼を覆うように装着され、ユーザの眼前にディスプレイ等の表示部が保持される。また、ビデオシースルー型HMDは、周囲の風景を撮像するための撮像部を有し、当該撮像部により撮像されたユーザの前方の風景の画像を表示部に表示させる。このような構成により、ビデオシースルー型HMDを装着したユーザは、外部の風景を直接視野に入れることは困難ではあるが、表示部に表示された画像により、外部の風景を確認することが可能となる。また、このときビデオシースルー型HMDは、例えば、AR技術に基づき、当該ビデオシースルー型HMDの位置及び姿勢のうち少なくともいずれかの認識結果に応じて、外部の風景の画像に対して仮想オブジェクトを重畳させてもよい。
網膜投射型HMDは、ユーザの眼前に投影部が保持されており、当該投影部からユーザの眼に向けて、外部の風景に対して画像が重畳するように当該画像が投影される。より具体的には、網膜投射型HMDでは、ユーザの眼の網膜に対して、投影部から画像が直接投射され、当該画像が網膜上で結像する。このような構成により、近視や遠視のユーザの場合においても、より鮮明な映像を視聴することが可能となる。また、網膜投射型HMDを装着したユーザは、投影部から投影される画像を視聴している間も、外部の風景を視野に入れることが可能となる。このような構成により、網膜投射型HMDは、例えば、AR技術に基づき、当該網膜投射型HMDの位置や姿勢のうち少なくともいずれかの認識結果に応じて、実空間に位置する実オブジェクトの光学像に対して仮想オブジェクトの画像を重畳させることも可能となる。
なお、参考として、上記に説明した例以外にも、没入型HMDと呼ばれるHMDが挙げられる。没入型HMDは、ビデオシースルー型HMDと同様に、ユーザの眼を覆うように装着され、ユーザの眼前にディスプレイ等の表示部が保持される。そのため、没入型HMDを装着したユーザは、外部の風景(即ち、現実世界の風景)を直接視野に入れることが困難であり、表示部に表示された映像のみが視界に入ることとなる。このような構成により、没入型HMDは、画像を視聴しているユーザに対して没入感を与えることが可能となる。
以上、図2を参照して、本開示の一実施形態に係る入出力装置の概略的な構成の一例について説明した。
<1.3.自己位置推定の原理>
次いで、入出力装置20が、実オブジェクトに対して仮想オブジェクトを重畳させる際に、実空間上における自身の位置及び姿勢を推定するための手法(即ち、自己位置推定)の原理の一例について説明する。
自己位置推定の具体的な一例として、入出力装置20は、実空間上の実オブジェクト上に提示されたサイズが既知のマーカ等を、自身に設けられたカメラ等の撮像部により撮像する。そして、入出力装置20は、撮像された画像を解析することで、マーカ(ひいては、当該マーカが提示された実オブジェクト)に対する自身の相対的な位置及び姿勢のうち少なくともいずれかを推定する。なお、以降の説明では、入出力装置20が自身の位置及び姿勢を推定する場合に着目して説明するが、当該入出力装置20は、自身の位置及び姿勢のうちいずれかのみを推定してもよい。
具体的には、画像中に撮像されたマーカの向き(例えば、マーカの模様等の向き)に応じて、当該マーカに対する撮像部(ひいては、当該撮像部を備える入出力装置20)の相対的な方向を推定することが可能である。また、マーカのサイズが既知の場合には、画像中におけるマーカのサイズに応じて、当該マーカと撮像部(即ち、当該撮像部を備える入出力装置20)との間の距離を推定することが可能である。より具体的には、マーカをより遠くから撮像すると、当該マーカは、より小さく撮像されることとなる。また、このとき画像中に撮像される実空間上の範囲は、撮像部の画角に基づき推定することが可能である。以上の特性を利用することで、画像中に撮像されたマーカの大きさ(換言すると、画角内においてマーカが占める割合)に応じて、当該マーカと撮像部との間の距離を逆算することが可能である。以上のような構成により、入出力装置20は、マーカに対する自身の相対的な位置及び姿勢を推定することが可能となる。
また、所謂SLAM(simultaneous localization and mapping)と称される技術が、入出力装置20の自己位置推定に利用されてもよい。SLAMとは、カメラ等の撮像部、各種センサ、エンコーダ等を利用することにより、自己位置推定と環境地図の作成とを並行して行う技術である。より具体的な一例として、SLAM(特に、Visual SLAM)では、撮像部により撮像された動画像に基づき、撮像されたシーン(または、被写体)の3次元形状を逐次的に復元する。そして、撮像されたシーンの復元結果を、撮像部の位置及び姿勢の検出結果と関連付けることで、周囲の環境の地図の作成と、当該環境における撮像部(ひいては、入出力装置20)の位置及び姿勢の推定とが行われる。なお、撮像部の位置及び姿勢については、例えば、入出力装置20に加速度センサや角速度センサ等の各種センサを設けることで、当該センサの検出結果に基づき相対的な変化を示す情報として推定することが可能である。もちろん、撮像部の位置及び姿勢を推定可能であれば、その方法は、必ずしも加速度センサや角速度センサ等の各種センサの検知結果に基づく方法のみには限定されない。
以上のような構成のもとで、例えば、撮像部による既知のマーカの撮像結果に基づく、当該マーカに対する入出力装置20の相対的な位置及び姿勢の推定結果が、上述したSLAMにおける初期化処理や位置補正に利用されてもよい。このような構成により、入出力装置20は、マーカが撮像部の画角内に含まれない状況下においても、従前に実行された初期化や位置補正の結果を受けたSLAMに基づく自己位置推定により、当該マーカ(ひいては、当該マーカが提示された実オブジェクト)に対する自身の位置及び姿勢を推定することが可能となる。
以上、入出力装置20が、実オブジェクトに対して仮想オブジェクトを重畳させる際に、実空間上における自身の位置及び姿勢を推定するための手法(即ち、自己位置推定)の原理の一例について説明した。なお、以降においては、例えば、上述した原理に基づき、実空間上の物体(実オブジェクト)に対する入出力装置20の位置及び姿勢を推定することが可能であるものして説明する。
<<2.インタラクションに関する検討>>
続いて、情報処理システムとユーザとの間のインタラクションの一例について、特に、視覚的に視認可能に提示された対象(例えば、実オブジェクトや仮想オブジェクト等)に対して操作を行う場合に着目して説明したうえで、本実施形態に係る情報処理システムの課題について整理する。
例えば、図3は、情報処理システムとユーザとの間のインタラクションの一例について説明するための説明図であり、AR技術に基づき実空間上に重畳された仮想オブジェクトを、ユーザが視線により操作対象として指定する場合の一例を示している。図3に示す例では、複数の仮想オブジェクトV135及びV137が実空間上に重畳するように提示されている。なお、図3では、本実施形態に係る情報処理システムの特徴をよりわかりやすくするために、各仮想オブジェクトが実際に実空間上に位置するように提示されている。なお、図3において、参照符号Uaは、ユーザの頭部の位置(換言すると、視点の位置)を模式的に示しており、参照符号R111は、当該ユーザの視線を模式的に示している。また、参照符号R113は、視線R111が向けられている実空間上の領域を模式的に示している。
図3に示す例では、情報処理システムは、例えば、視線R111の検出結果に基づき、当該視線R111が向けられている実空間上の領域R113中に位置する各種オブジェクト(例えば、仮想オブジェクト)を操作の対象として認識する。
一方で、図3に示す例では、仮想オブジェクトV135及びV137が互いに近傍に位置するように提示されており、ユーザは、当該仮想オブジェクトV135及びV137が重畳された位置に視線R111を向けている。即ち、当該視線R111が向けられている領域R113中には、仮想オブジェクトV135及びV137それぞれの少なくともいずれかの部分が含まれている。そのため、図3に示すような状況下では、情報処理システムは、視線R111が向けられた仮想オブジェクトV135及びV137のうち、ユーザが指定している対象を択一的に特定することが困難な場合がある。このような場合には、情報処理システムは、ユーザの意図をより的確にくみ取ることが困難となる。そのため、例えば、情報処理システムは、ユーザの意図をくみ取れずに、サービスを提供することが困難となる場合もある。また、他の一例として、情報処理システムは、ユーザの意図を誤ってくみ取ることで、ユーザの意図とは異なるサービスを提供する場合も想定され得る。
このような問題に対して、情報処理システムが、ユーザの意図をより的確にくみ取ることが困難な場合において、当該ユーザに対して同様の入力を求めることで、ユーザにより指定された対象の特定を再度試みる場合がある。しかしながら、従前の入力時と同じような状況下で同様の入力が再度行われたとしても、情報処理システムは、当該入力に基づき指定された操作対象を択一的に特定できるとは限らない。このような状況下では、情報処理システムにより、ユーザに対する再入力の要求が複数回行われる場合も想定され、結果として操作が煩雑になる可能性がある。また、ユーザに対して同様の入力を複数回連続して要求することにより、情報処理システムとユーザとの間のインタラクションが非連続的となる場合も想定され得る。
このような状況を鑑み、本開示では、視覚的に視認可能に提示された複数の対象に対して選択的に操作が行われるような状況下において、ユーザの操作を誘導することで、当該ユーザとの間のインタラクションをより好適な態様で実現するための仕組みを提案する。
<<3.技術的特徴>>
以下に、本実施形態に係る情報処理システムの技術的特徴について説明する。
<3.1.基本原理>
まず、図4を参照して、本実施形態に係る情報処理システム1が、視覚的に視認可能に提示された複数の対象に対して選択的に操作が行われるような状況下において、ユーザにより指定された対象をより精度良く特定するための動作の代表的な一例について基本原理を説明する。図4は、本実施形態に係る情報処理システムの動作の基本原理について説明するための説明図である。なお、図4に示す例では、図3に示す例と同様に、AR技術に基づき実空間上に重畳された仮想オブジェクトを、ユーザが視線により操作対象として指定する場合の一例を示している。
図4における参照符号Ua、R111、及びR113は、図3において同様の符号が付された対象をそれぞれ示している。即ち、図4は、図3に示す例と同様に、互いに近傍に位置するように提示された仮想オブジェクトV135及びV137が重畳された位置に対して、ユーザが視線R111を向けている状況を示している。なお、参照符号V135a及びV137aは、ユーザが視線を向けたタイミングにおいて、仮想オブジェクトV135及びV137が重畳された実空間上の位置それぞれを模式的に示している。即ち、このタイミングにおいて、情報処理システム1は、操作の対象となる仮想オブジェクトの候補として、仮想オブジェクトV135及びV137を特定することとなる。
本実施形態に係る情報処理システム1は、上述したように、操作の対象となる仮想オブジェクトの候補を複数特定した場合には、特定した複数の候補が互いに離間するように、当該候補のうち少なくともいずれかの表示位置を制御する。例えば、図4に示す例では、情報処理システム1は、仮想オブジェクトV135が位置V135aからV135bに移動し、仮想オブジェクトV137が位置V137aからV137bに移動するように、当該仮想オブジェクトV135及びV137の表示位置を制御している。
上述した制御により、ユーザが仮想オブジェクトV135及びV137のいずれかを注視していた場合には、当該ユーザの視線R111が、注視していた対象の移動にあわせて誘導されることが期待される。具体的な一例として、ユーザが仮想オブジェクトV137を注視していた場合には、当該ユーザの視線R111は、位置V137aから位置V137bに向けて誘導されることが期待される。即ち、情報処理システム1は、視線誘導の結果として、仮想オブジェクトV135及びV137のうち、本来ユーザが操作対象として指定していた仮想オブジェクトを特定することが可能となる。
また、対象となる複数の仮想オブジェクトを互いに離間させる距離は、情報処理システム1が、視線の検出結果に基づき対象を特定するための分解能(以降では、「視線分解能」とも称する)に応じて決定されてもよい。そこで、視線分解能について、以下により詳しく説明する。
視線分解能は、情報処理システム1による視線の検出精度に応じて変化し得る。具体的には、視線R111の検出精度がより低いほど、当該視線R111の検出(特に、視線R111が向けられた方向の検出)に係る誤差は大きくなり、当該視線R111が向けられている可能性がある実空間上の領域R113(換言すると、実空間が撮像された画像中の対応する領域)はより広くなる。そのため、視線R111の検出精度が低い場合には、当該視線R111が示している実空間上の位置の分解能(即ち、視線分解能)はより低くなる傾向にある。一方で、視線R111の検出精度が高いほど、当該視線のR111の検出に係る誤差は小さくなるため、当該視線R111が向けられている可能性がある実空間上の領域R113はより狭くなる。そのため、視線R111の検出精度が高い場合には、視線分解能はより高くなる傾向にある。
また、視線分解能は、視点と、視線が向けられている対象との間の距離によっても異なる。例えば、図5は、視線分解能について説明するための説明図である。図5において、参照符号V141〜V147のそれぞれは、実空間上に重畳するように提示された仮想オブジェクトを示している。即ち、図5に示す例では、仮想オブジェクトV145及びV147は、仮想オブジェクトV141及びV143に比べて、視点Uaのより近傍に位置するように提示されている。なお、仮想オブジェクトV141及びV143それぞれが重畳される実空間上の位置の間の距離と、仮想オブジェクトV145及びV147それぞれが重畳される実空間上の位置の間の距離とは略等しいものとする。また、参照符号R117a及びR117bは、視点Uaから仮想オブジェクトV141及びV143の双方を参照する場合の視野角を模式的に示している。同様に、参照符号R119a及びR119bは、視点Uaから仮想オブジェクトV145及びV147の双方を参照する場合の視野角を模式的に示している。
図5に示すように、仮想オブジェクトV145及びV147の双方を参照する場合の視野角は、視点Uaからより離間して提示される仮想オブジェクトV141及びV143の双方を参照する場合の視野角よりも広くなる。即ち、視点Uaから、仮想オブジェクトV145及びV147を参照した場合には、当該仮想オブジェクトV145及びV147は、仮想オブジェクトV141及びV143に比べて相対的により離間しているようにユーザに視認される。そのため、視点に対してより近傍に位置する対象を参照する場合には、視点に対してより遠方に位置する対象を参照する場合に比べて、視線分解能が相対的により高くなる傾向にある。
以上のような特性に基づき、情報処理システム1は、例えば、図4に示すように、仮想オブジェクトV135及びV137が互いに離間し、かつ、視点Uaのより近傍に位置するように、当該仮想オブジェクトV135及びV137の表示位置を制御してもよい。
以上、図4及び図5を参照して、本実施形態に係る情報処理システム1の動作の代表的な一例について基本原理を説明した。
<3.2.機能構成>
続いて、図6を参照して、本実施形態に係る情報処理システム1の機能構成の一例について説明する。図6は、本実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。
図6に示すように、本実施形態に係る情報処理システム1は、入出力装置20と、情報処理装置10と、記憶部151とを含む。なお、図6に示す入出力装置20及び情報処理装置10は、図1を参照して説明した入出力装置20及び情報処理装置10に相当する。
まず、入出力装置20の構成に着目する。図6に示すように、入出力装置20は、撮像部201と、検知部251と、入力部253と、出力部211とを含む。なお、出力部211は、図2における出力部211に対応している。
撮像部201は、図2においてステレオカメラとして構成された第1撮像部201a及び201bに相当する。即ち、撮像部201は、実空間上の物体(被写体)の画像を撮像し、撮像した当該画像を情報処理装置10に出力する。
検知部251は、入出力装置20を装着したユーザの頭部の動きや、当該ユーザの視線が向けられている方向(以降では、「視線方向」とも称する)を検出するための情報の取得に係る構成を模式的に示している。具体的には、検知部251は、加速度センサや角速度センサ等のような各種センサを含み、当該センサによる検知結果を、入出力装置20の位置や姿勢の変化(ひいては、当該入出力装置20を装着したユーザの頭部の動き)を検出するための情報として取得してもよい。また、検知部251は、図2を参照して説明した第2撮像部203a及び203bを含み、当該撮像部により撮像されたユーザの眼球の画像を、当該ユーザの視線を検出するための情報として取得してもよい。そして、検知部251は、取得した情報を情報処理装置10に出力する。
入力部253は、入出力装置20に対してユーザから入力された情報を取得するための構成である。具体的には、入力部253は、図2を参照して説明した操作部207を含んでもよい。また、入力部253は、ユーザの音声を集音するための集音部を含み、当該集音部に対して入力されたユーザの音声を、当該ユーザから入力された情報として取得してもよい。なお、上記に説明した例はあくまで一例であり、入出力装置20に対してユーザが情報を入力することが可能であれば、入力部253に含まれる構成(例えば、入力デバイス)の種別は特に限定されない。そして、入力部253は、取得した情報を情報処理装置10に出力する。
次いで、情報処理装置10の構成に着目する。図6に示すように、情報処理装置10は、認識部101と、視線検出部103と、トリガ検出部105と、対象特定部107と、処理実行部109と、表示制御部111とを含む。
認識部101は、撮像部201から撮像された画像を取得し、取得した画像に対して解析処理を施すことで、当該画像に撮像された実空間上の物体(被写体)を認識する。具体的な一例として、認識部101は、ステレオカメラとして構成された撮像部201から、互いに異なる複数の視点から撮像された画像(以降では、「ステレオ画像」とも称する)を取得し、取得した画像間の視差に基づき、画像中に撮像された物体までの距離を、当該画像の画素ごとに測定する。これにより、認識部101は、当該画像が撮像されたタイミングにおける、撮像部201(ひいては、入出力装置20)と、当該画像に撮像された各物体との間の、実空間上における相対的な位置関係(特に、奥行き方向の位置関係)を推定または認識することが可能となる。
また、認識部101は、SLAMに基づき自己位置推定と環境地図の作成とを行うことで、入出力装置20と、画像中に撮像された物体との間の、実空間上における位置関係を認識してもよい。この場合には、例えば、認識部101は、検知部251から入出力装置20の位置及び姿勢の変化を示す情報を取得し、当該情報をSLAMに基づく自己位置推定に利用してもよい。
以上のようにして、認識部101は、画像中に撮像された各物体の実空間上における位置を認識し、認識結果を示す情報を対象特定部107に出力する。
視線検出部103は、入出力装置20を装着したユーザの視線を検出するための構成である。具体的には、視線検出部103は、検知部251から、入出力装置20の位置や姿勢の変化の検知結果を示す情報を取得し、取得した情報に基づき当該入出力装置20を装着したユーザの頭部の動き(即ち、頭部の位置や向き)を推定する。
また、視線検出部103は、検知部251から、入出力装置20を装着したユーザの眼球が撮像された画像を取得し、取得した画像に対して画像解析を施すことで、画像中に撮像された眼球が向いている方向を認識してもよい。この場合には、例えば、視線検出部103は、画像中に撮像された眼球が向いている方向の認識結果と、当該画像を撮像した撮像部と当該眼球との間の位置関係と、に基づき、実空間上において当該眼球が向いている方向、即ち、視線が向けられている方向(以降では「視線方向」とも称する)を検出する。なお、眼球の画像を撮像する撮像部と当該眼球との間の位置関係については、想定される入出力装置20の装着状態に基づきあらかじめ認識または推定することが可能であることは言うまでもない。また、このとき検出される視線方向は、入出力装置20の位置及び姿勢(ひいては、当該入出力装置20を装着したユーザの頭部の位置及び姿勢)を基準とした相対的な方向に相当する。
なお、上記では、入出力装置20の検知部251により取得された情報に基づきユーザの視線を推定または検出する例について説明したが、ユーザの視線を推定または検出できれば、構成や手法は必ずしも上記に説明した例には限定されない。具体的な一例として、視線検出部103は、入出力装置20とは異なる外部装置として設けられた撮像部により撮像されたユーザの頭部や眼の画像に基づき、当該ユーザの頭部の位置及び姿勢や、当該ユーザの視線を推定または検出してもよい。
そして、視線検出部103は、ユーザの頭部の動きの推定結果と、視線方向の検出結果とに基づき、実空間に向けられたユーザの視線の位置及び向きを推定(または検出)し、当該推定結果を示す情報を対象特定部107に出力する。
トリガ検出部105は、入力部253を介してユーザから入力された情報(以降では、「ユーザ入力」とも称する)を、当該入力部253から取得する。そして、トリガ検出部105は、取得したユーザ入力が所定の操作内容を示す場合に、当該ユーザ入力をトリガとして、対象特定部107に対して当該操作内容に関連付けられた指示を行う。具体的な一例として、トリガ検出部105は、取得したユーザ入力が、図4を参照して説明した操作の対象となる候補の特定を示す場合には、当該ユーザ入力をトリガとして、対象特定部107に対して操作の対象となる候補の特定を指示する。
具体的な一例として、図2に示すような操作部207に対して操作が行われた場合には、トリガ検出部105は、入力部253(即ち、操作部207)から、操作内容を示す制御情報を取得する。この場合には、トリガ検出部105は、取得した制御情報が、操作の対象となる候補を特定するための操作を示す場合に、当該操作をトリガとして、対象特定部107に対して操作の対象となる候補の特定を指示する。より具体的な一例として、トリガ検出部105は、取得した制御情報が所定のタッチパネルに対するタッチ操作を示す場合に、当該タッチ操作をトリガとして、対象特定部107に対して操作の対象となる候補の特定を指示してもよい。
また、他の一例として、音声入力により操作が行われた場合には、トリガ検出部105は、入力部253(即ち、集音部)から、集音結果に基づく音響信号を取得する。この場合には、トリガ検出部105は、取得した音響信号に対して所謂音声認識処理や自然言語処理に基づく各種解析処理を施すことで、ユーザが発話した内容を認識する。そして、トリガ検出部105は、ユーザが発話した内容が、操作の対象となる候補を特定するための操作を示す場合に、当該発話内容の認識結果をトリガとして、対象特定部107に対して操作の対象となる候補の特定を指示する。
もちろん、トリガとなる操作の種別は上述した例には限定されない。具体的な一例として、トリガ検出部105は、ユーザが所定のジェスチャを実行した場合に、当該ジェスチャの検出を上記トリガとしてもよい。この場合には、トリガ検出部105は、例えば、ウェアラブル端末等に設けられた加速度センサ等による所定の部位の位置や姿勢の変化の検出結果に基づき、当該ジェスチャを検出してもよい。また、トリガ検出部105は、外部に設けられた撮像部により撮像されたユーザの動画像に基づき、当該ユーザにより実行された当該ジェスチャを検出してもよい。
また、他の一例として、トリガ検出部105は、GPS(Global Positioning System)等により取得されたユーザの位置情報を、上記トリガの検出に利用してもよい。具体的な一例として、トリガ検出部105は、取得されたユーザの位置情報に基づき、当該ユーザが所定の位置に近接したことを認識した場合や、所定の位置を通過したことを認識した場合に、当該認識結果を上記トリガとして利用してもよい。
また、他の一例として、トリガ検出部105は、所定の撮像部(例えば、撮像部201)により撮像された実空間の画像に基づき、ユーザの移動を認識し、当該認識結果を上記トリガの検出に利用してもよい。具体的な一例として、トリガ検出部105は、当該撮像部により撮像された画像に基づき、ユーザが実空間上の所定の物体(実オブジェクト)に近接したことを認識した場合に、当該認識結果を上記トリガとして利用してもよい。また、他の一例として、トリガ検出部105は、当該撮像部により撮像された画像に基づき、ユーザが実空間上の所定の位置(ポイント)を通過したことを認識した場合に、当該認識結果を上記トリガとして利用してもよい。
対象特定部107は、認識部101から、撮像部201により画像中に撮像された各物体(実オブジェクト)の実空間上における位置の認識結果を示す情報を取得する。また、対象特定部107は、視線検出部103から、実空間に向けられたユーザの視線の位置及び向きの推定結果を示す情報を取得する。また、対象特定部107は、後述する表示制御部111から、出力部211を介してユーザに提示された表示情報(例えば、実空間に重畳するように提示された仮想オブジェクト等)の表示位置を示す情報を取得する。
そして、対象特定部107は、認識部101、視線検出部103、及び表示制御部111それぞれから取得した上記各種情報に基づき、ユーザの視点及び視線と、実空間上の物体(実オブジェクト)と、表示情報が重畳された実空間上の位置との間の位置関係を認識する。
次いで、対象特定部107は、トリガ検出部105から、操作の対象となる候補の特定に係る指示を受けると、ユーザの視点及び視線と、実空間上の物体(実オブジェクト)と、表示情報が重畳された実空間上の位置との間の位置関係に基づき、当該視線が向けられている対象(例えば、実オブジェクトや仮想オブジェクト)の候補を特定する。なお、このとき対象特定部107は、視線の検出に係る精度に応じた視線分解能に基づき、当該視線が向けられている実空間上の領域を推定し、当該領域中に位置する対象を、当該視線が向けられている対象の候補として特定してもよい。
また、対象特定部107は、視線が向けられている対象の候補に応じて、操作対象となる表示情報の候補を特定する。具体的な一例として、対象特定部107は、ユーザの視線が仮想オブジェクト等の表示情報に向けられている場合には、当該表示情報を操作対象の候補として特定する。また、他の一例として、対象特定部107は、ユーザの視線が実オブジェクトに向けられている場合には、当該実オブジェクトに関連付けられた表示情報(例えば、当該実オブジェクトを操作するための表示情報等)を操作対象の候補として特定してもよい。なお、対象特定部107は、ユーザの視線が向けられている実オブジェクトに対して表示情報が関連付けられていない場合には、当該実オブジェクトを、視線が向けられている対象の候補から除外してもよい。
そして、対象特定部107は、操作対象の候補を択一的に特定した場合には、当該候補となる表示情報に関連付けられた処理の実行を、後述する処理実行部109に指示する。一方で、対象特定部107は、操作対象の候補を1つに限定することが困難な場合(即ち、当該候補が複数存在する場合)には、当該候補となる表示情報の表示位置の制御を、表示制御部111に指示する。
処理実行部109は、情報処理装置10(ひいては、情報処理システム1)が提供する各種機能(例えば、アプリケーション)を実行するための構成である。処理実行部109は、例えば、対象特定部107からの指示を受けて、対応するアプリケーションを所定の記憶部(例えば、後述する記憶部151)から抽出し、抽出したアプリケーションを実行してもよい。また、処理実行部109は、各種アプリケーションの実行結果を示す情報を表示制御部111に出力してもよい。
表示制御部111は、出力対象となる各種表示情報を出力部211に出力させることで、当該表示情報をユーザに提示する。
具体的には、表示制御部111は、AR技術に基づき実空間上に仮想オブジェクトが重畳するように、当該仮想オブジェクトを出力部211に出力させてもよい。なお、この場合には、表示制御部111は、認識部101または対象特定部107から、撮像部201により画像中に撮像された各物体(実オブジェクト)の実空間上における位置の認識結果を示す情報を取得してもよい。これにより、表示制御部111は、実空間上における実オブジェクトの位置を認識し、当該認識結果に基づき、実空間上の所望の位置に仮想オブジェクトが重畳するように、当該仮想オブジェクトの表示位置を制御することが可能となる。
また、表示制御部111は、出力部211を介してユーザに提示された表示情報の表示位置を示す情報を対象特定部107に出力する。これにより、対象特定部107は、当該情報に基づき、当該表示情報が重畳された実空間上の位置を推定することが可能となる。
また、表示制御部111は、対象特定部107から、操作対象の候補となる複数の表示情報それぞれの表示位置の制御に関する指示を受ける場合がある。この場合には、表示制御部111は、対象特定部107から操作対象の候補として指定された複数の表示情報が互いに離間して提示されるように、当該複数の表示情報のうち少なくともいずれかの表示位置を制御する。このような制御により、操作対象の候補となる複数の表示情報のうち、本来ユーザが操作対象として視線を向けていた候補に、当該ユーザの視線を誘導することが可能となるため、上記対象特定部107は、当該候補を択一的に特定することが可能となる。
また、表示制御部111は、各種アプリケーションの実行結果を示す情報を処理実行部109から取得する場合がある。この場合には、表示制御部111は、当該アプリケーションの実行結果を示す情報を出力部211に出力させることで、当該情報をユーザに提示してもよい。
記憶部151は、各種データを、一時的または恒常的に記憶するための記憶領域である。例えば、記憶部151には、情報処理装置10が各種機能を実行するためのデータが記憶されていてもよい。より具体的な一例として、記憶部151には、各種アプリケーションを実行するためのデータ(例えば、ライブラリ)や各種設定等を管理するための管理データ等が記憶されていてもよい。
なお、図6に示した情報処理システム1の機能構成はあくまで一例であり、上述した各構成の処理を実現することが可能であれば、情報処理システム1の機能構成は必ずしも図6に示す例のみには限定されない。具体的な一例として、入出力装置20と情報処理装置10とが一体的に構成されていてもよい。また、他の一例として、記憶部151が、情報処理装置10に含まれていてもよい。また、他の一例として、情報処理装置10の各構成のうち、一部の構成が情報処理装置10の外部(例えば、サーバ等)に設けられていてもよい。
以上、図6を参照して、本実施形態に係る情報処理システム1の機能構成の一例について説明した。
<3.3.処理>
続いて、図7を参照して、本実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に情報処理装置10の処理に着目して説明する。図7は、本実施形態に係る情報処理システムの一連の処理の流れの一例を示したフローチャートである。
図7に示すように、情報処理装置10は、まずユーザが注目している対象を特定する(S101)。具体的には、情報処理装置10(認識部101)は、入出力装置20の撮像部201により撮像された実空間の画像に基づき、当該画像に撮像された実空間上の物体(実オブジェクト)を認識する。また、情報処理装置10(視線検出部103)は、入出力装置20の検知部251により取得された各種情報に基づき、当該入出力装置20を装着したユーザの視線を検出する。なお、実空間上の物体を認識する方法や、ユーザの視線を検出する方法については既に前述しているため、詳細な説明は省略する。そして、情報処理装置10は、実空間上の物体の認識結果と、ユーザの視線の検出結果とに基づき、当該ユーザの視点及び視線と、実空間上の物体(実オブジェクト)と、表示情報(例えば、仮想オブジェクト)が重畳された実空間上の位置との間の位置関係を認識する。これにより、情報処理装置10は、ユーザの視線が向けられている対象(即ち、実オブジェクトや仮想オブジェクト)を特定することが可能となる。
次いで、情報処理装置10(対象特定部107)は、トリガとなる所定の操作が検出されると(S103)、そのタイミングにおいてユーザの視線が向けられている対象の候補を特定する。また、情報処理装置10は、視線が向けられている対象の候補に応じて、操作対象となる表示情報の候補を特定する(S105)。
ここで、情報処理装置10は、操作対象の候補を1つに限定することが困難な場合には(S105、NO)、当該候補として特定された複数の表示情報うち少なくともいずれかの表示を制御することで、ユーザとの間のインタラクションを誘発する(S107)。具体的には、情報処理装置10(表示制御部111)は、操作対象の候補として特定された複数の表示情報が互いに離間して提示されるように、当該複数の表示情報のうち少なくともいずれかの表示位置を制御する。このような制御により、情報処理装置10は、実際にユーザが操作対象として視線を向けていた候補(即ち、ユーザが操作対象として指定していた候補)に、当該ユーザの視線を誘導し、視線が誘導された候補を操作対象として特定する(S105)。
そして、情報処理装置10は、操作対象の候補を1つに限定可能な場合には(S105、YES)、当該操作対象に対するインタラクションを発生させる(S109)。具体的な一例として、情報処理装置10(処理実行部109)は、操作対象として特定された表示情報に関連付けられている処理(例えば、アプリケーション)を実行してもよい。
以上、図7を参照して、本実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に情報処理装置10の処理に着目して説明した。
<<4.変形例>>
続いて、本実施形態に係る情報処理システムの変形例について説明する。
<4.1.変形例1:表示対象の特性に応じた表示制御の一例>
まず、変形例1として、情報処理システム1が、操作対象の候補として特定した表示情報の表示制御の一例について、特に、操作対象の候補として特定した表示情報の特性に応じた制御に着目して説明する。本実施形態に係る情報処理システム1は、操作対象の候補として特定された複数の表示情報を互いに離間させることで、ユーザが実際に操作対象として指定していた表示情報に、当該ユーザの視線を誘導することで、当該表示情報を特定する。そのため、情報処理システム1は、操作対象の候補として特定した表示情報の特性や、当該表示情報の表示位置を制御してもよい。
例えば、情報処理システム1は、操作対象の候補として特定した複数の表示情報それぞれの大きさに応じて、互いに離間させる当該複数の表示情報間の距離を制御してもよい。具体的な一例として、情報処理システム1は、操作対象の候補として特定した複数の表示情報それぞれがより大きいほど、当該複数の表示情報がより離間するように、当該表示情報の表示位置を制御してもよい。
また、他の一例として、情報処理システム1は、操作対象の候補として特定した複数の表示情報それぞれの間の位置関係に応じて、当該複数の表示情報それぞれを移動させる方向を制御してもよい。例えば、情報処理システム1は、特定した複数の表示情報それぞれの前後関係や重なりを考慮して、当該複数の表示情報それぞれを移動させる方向を制御してもよい。
また、情報処理システム1は、操作対象の候補として特定した複数の表示情報それぞれと視点(即ち、ユーザ)との間の位置関係に応じて、当該複数の表示情報それぞれを移動させる方向や移動させる距離を制御してもよい。例えば、情報処理システム1は、特定した複数の表示情報それぞれと視点との間の距離に応じて、互いに離間させる当該複数の表示情報間の距離を制御してもよい。
以上、変形例1として、情報処理システム1が、操作対象の候補として特定した表示情報の表示制御の一例について、特に、操作対象の候補として特定した表示情報の特性に応じた制御に着目して説明した。
<4.2.変形例2:システムの特性に応じた表示制御の一例>
続いて、変形例2として、情報処理システム1が、操作対象の候補として特定した表示情報の表示制御の一例について、特に、当該情報処理システム1を構成する各デバイスの特性に応じた制御に着目して説明する。
例えば、情報処理システム1は、視線分解能に応じて、互いに離間させる複数の表示情報間の距離を制御してもよい。具体的には、情報処理システム1は、視線検出の精度がより低いほど、視線分解能がより低くなる傾向にある。そのため、情報処理システム1は、例えば、視線検出の精度がより低いほど、操作対象の候補として特定した複数の表示情報がより離間するように、当該表示情報の表示位置を制御してもよい。
また、前述したように、視点に対してより近傍に位置する対象を参照する場合には、視点に対してより遠方に位置する対象を参照する場合に比べて、視線分解能が相対的により高くなる傾向にある。そのため、情報処理システム1は、視線検出の精度がより低いほど、操作対象の候補として特定した複数の表示情報が、互いに離間し、かつ、より視点(即ち、ユーザ)の近傍に位置するように、当該表示情報の表示位置を制御してもよい。
以上、変形例2として、情報処理システム1が、操作対象の候補として特定した表示情報の表示制御の一例について、特に、当該情報処理システム1を構成する各デバイスの特性に応じた制御に着目して説明した。
<4.3.変形例3:視線を誘導する位置の制御例>
続いて、変形例3として、周囲の環境や状況に応じて視線を誘導する位置を制御する場合の一例について説明する。
例えば、情報処理システム1は、周囲の環境の検出結果に応じて、視線を誘導する位置を制限してもよい。具体的な一例として、情報処理システム1は、実空間を撮像する撮像部により撮像された画像に基づき、逆光になる位置を検出し、検出した当該位置を表示情報の移動先から除外してもよい。
また、他の一例として、情報処理システム1は、操作対象の候補として特定した表示情報が、ユーザがより選択しやすい位置に移動するように、当該表示情報の表示位置を制御してもよい。例えば、図8及び図9は、変形例3に係る情報処理システムの概要について説明するための説明図である。
例えば、図8は、ユーザが、自身の正面に相当する方向(即ち、頭部が向いている方向であり、以降では「正面方向」とも称する)とは異なる方向に位置する仮想オブジェクトV171及びV173を、正面方向から横方向に視線をずらすことで注視している状況を模式的に示している。このような状況下において、図8に示す例では、情報処理システム1は、視線が向けられた仮想オブジェクトV171及びV173を単に左右に移動させることで、当該仮想オブジェクトV171及びV173を互いに離間させている。なお、参照符号V171a及びV173aは、仮想オブジェクトV171及びV173に対してユーザが視線を向けたタイミングにおいて、当該仮想オブジェクトV171及びV173が重畳された実空間上の位置それぞれを模式的に示している。また、参照符号V171b及びV173bは、表示位置の制御後における、仮想オブジェクトV171及びV173が重畳された実空間上の位置それぞれを模式的に示している。
図8を参照するとわかるように、単に、仮想オブジェクトV171及びV173を左右に移動させることで互いに離間させた場合には、正面方向からより離れた方向に位置する仮想オブジェクトV173は、更に正面方向から離れた位置に移動することとなる。そのため、図8に示す例では、仮想オブジェクトV171及びV173の表示位置の制御に伴い、ユーザは、仮想オブジェクトV173を選択するために、首を振る等のような視線を更に外側に移動させるための動作が必要となり、視線移動に伴うユーザへの負荷が大きくなる傾向にある。
これに対して、図9に示す例では、情報処理システム1は、図8に示す例と同様の状況下で視線が向けられた仮想オブジェクトV171及びV173を、ユーザの正面方向に位置し、かつ、互いに左右に離間するように移動させている。なお、図9において、参照符号V171a及びV173aは、図8における参照符号V171a及びV173aと同様である。また、参照符号V171c及びV173cは、表示位置の制御後における、仮想オブジェクトV171及びV173が重畳された実空間上の位置それぞれを模式的に示している。
図9に示すように、仮想オブジェクトV171及びV173の表示位置を制御することで、例えば、ユーザは、仮想オブジェクトV173を選択する場合においても、ずらした視線を正面方向側に戻すことで、当該仮想オブジェクトV173を選択することが可能となる。以上、図8及び図9を比較するとわかるように、操作対象の候補として特定された複数の表示情報が、ユーザの正面に位置するように、当該表示情報の表示位置を制御することで、当該表示情報の選択に係るユーザへの負荷(即ち、視線移動に伴うユーザへの負荷)を軽減することが可能となる。
また、他の一例として、一般的には人間の視野は横に広い傾向にあるため、横方向よりも縦方向の方が視線分解能が高い場合がある。このような状況を鑑み、情報処理システム1は、操作対象の候補として特定された複数の表示情報が、上下方向に離間するように、当該表示情報の表示位置を制御してもよい。
以上、変形例3として、周囲の環境や状況に応じて視線を誘導する位置を制御する場合の一例について説明する。
<4.4.変形例4:候補以外の表示情報の表示制御の一例>
続いて、変形例4として、操作対象の候補として特定された表示情報とは異なる他の表示情報の表示を制御する場合の一例について説明する。
例えば、図10は、変形例4に係る情報処理システムの概要について説明するための説明図である。図10は、ユーザが、正面方向とは異なる方向に位置する仮想オブジェクトV181及びV183を、正面方向から横方向に視線をずらすことで注視している状況を模式的に示している。図10において、参照符号R131は、ユーザが正面方向を向いている場合の当該ユーザの視野を示す領域を模式的に示している。即ち、図10に示す例では、情報処理システム1は、視線が向けられた仮想オブジェクトV181及びV183を、ユーザが正面方向を向いた場合の視野を示す領域R131内に位置し、かつ、互いに左右に離間するように移動させている。なお、参照符号V181a及びV183aは、仮想オブジェクトV181及びV183に対してユーザが視線を向けたタイミングにおいて、当該仮想オブジェクトV181及びV183が重畳された実空間上の位置それぞれを模式的に示している。また、参照符号V181b及びV183bは、表示位置の制御後における、仮想オブジェクトV181及びV183が重畳された実空間上の位置それぞれを模式的に示している。
一方で、図10に示す例では、ユーザが仮想オブジェクトV181及びV183に対して視線を向けたタイミングにおいて、領域R131内には仮想オブジェクトV185及びV187が位置している。なお、参照符号V185a及びV187aは、仮想オブジェクトV181及びV183に対してユーザが視線を向けたタイミングにおいて、仮想オブジェクトV185及びV187が重畳された実空間上の位置それぞれを模式的に示している。このような状況下では、操作対象の候補として特定された仮想オブジェクトV181及びV183を領域R131内に移動させたとしても、当該仮想オブジェクトV181及びV183が、仮想オブジェクトV185及びV187により遮蔽される場合がある。
このような状況を鑑み、情報処理システム1は、操作対象の候補として特定した表示情報の移動先に、当該候補とは異なる他の表示情報が位置する場合に、当該他の表示情報を、当該候補とは異なる位置に移動させてもよい。例えば、図10に示す例では、情報処理システム1は、領域R131内に位置する仮想オブジェクトV185を、当該領域R131外の位置V185bに移動させ、仮想オブジェクトV187を、当該領域R131外の位置V187bに移動させている。このような制御により、本来ユーザが操作対象として視線を向けていた候補に、当該ユーザの視線を誘導する際に、当該候補が他の表示情報により遮蔽される等により当該候補の選択が阻害される事態の発生を防止することが可能となる。
また、他の一例として、情報処理システム1は、操作対象の候補として特定した表示情報の移動先に、当該候補とは異なる他の表示情報が位置する場合に、当該他の表示情報が一時的に非表示となるように制御してもよい。例えば、図11は、変形例4に係る情報処理システムの他の一態様について説明するための説明図である。なお、図11では、図10と同様の対象に対して同様の符号を付している。
即ち、図11に示す例では、情報処理システム1は、図10に示す例と同様に、視線が向けられた仮想オブジェクトV181及びV183を、ユーザが正面方向を向いた場合の視野を示す領域R131内に位置し、かつ、互いに左右に離間するように移動させている。一方で、図11に示す例では、情報処理システム1は、領域R131内に位置する仮想オブジェクトV185及びV187が、一時的に非表示となるように、当該仮想オブジェクトV185及びV187の表示を制御している。このような制御により、図10に示した例と同様に、本来ユーザが操作対象として視線を向けていた候補に、当該ユーザの視線を誘導する際に、当該候補が他の表示情報により遮蔽される等により当該候補の選択が阻害される事態の発生を防止することが可能となる。
以上、変形例4として、操作対象の候補として特定された表示情報とは異なる他の表示情報の表示を制御する場合の一例について説明した。
<4.5.変形例5:視線を誘導するための制御の一例>
続いて、変形例5として、ユーザの視線をより好適な態様で誘導するための制御の一例について説明する。
例えば、ユーザは、動く対象に向けて視線を向けている状況下では、当該対象の動きを予測して視線を動かしている場合がある。そのため、例えば、表示情報の表示位置を制御する場合に、ユーザが期待する動きにあわせて、当該表示情報を動かすことで、より自然な態様でユーザの視線を誘導できる場合がある。
具体的な一例として、情報処理システム1は、表示情報の属性に応じて、当該表示情報の動きを制御してもよい。より具体的には、情報処理システム1は、対象となる仮想オブジェクトが鳥のように空を飛ぶキャラクターを模している場合には、例えば、当該仮想オブジェクトが飛ぶように動作させてもよい。また、他の一例として、情報処理システム1は、対象となる仮想オブジェクトが犬等の空を飛ばないキャラクターを模している場合には、例えば、当該仮想オブジェクトが平面状を移動するように動作させてもよい。
また、他の一例として、情報処理システム1は、物理的な制約にあわせて、表示情報の動きを制御してもよい。
例えば、図12は、変形例5に係る情報処理システムの概要について説明するための説明図であり、物理的な制約にあわせて表示情報の動きを制御する場合の一例を示している。なお、図12において、参照符号Ua、R111、及びR113は、図3及び図4において同様の符号が付された対象をそれぞれ示している。即ち、図12に示す例では、情報処理システム1は、ユーザの視線R111が向けられた仮想オブジェクトV191及びV193が、互いに離間するように当該仮想オブジェクトV191及びV193の表示位置を制御している。具体的には、情報処理システム1は、仮想オブジェクトV191を位置V191aから位置V191bに移動させ、仮想オブジェクトV193を位置V193aから位置V193bに移動させている。
一方で、図12に示す例では、位置V193aと位置V193bとの間には、実オブジェクトM195が介在している。そのため、図12に示す例では、情報処理システム1は、位置V193aに位置する仮想オブジェクトV193が、実オブジェクトM195を避けてV193bに移動するように、当該仮想オブジェクトV193の動きを制御している。
以上のような制御により、表示情報の動きが、ユーザの期待する動きと略一致する可能性が高くなり、ひいては、より自然な態様でユーザの視線を誘導することが可能となる。
また、情報処理システム1は、視線が向けられた対象の候補として動くものと動かないものと特定された場合には、動くものを動かすことでユーザの視線を誘導してもよい。
例えば、図13は、変形例5に係る情報処理システムの他の一態様について説明するための説明図である。図13において、参照符号Ua、R111、及びR113は、図12において同様の符号が付された対象をそれぞれ示している。具体的には、図13は、実オブジェクトM197と、当該実オブジェクトM197の近傍に重畳された仮想オブジェクV199とに、ユーザの視線R111が向けられている状況を示している。なお、図13においては、実オブジェクトM197が「動かないもの」に相当し、仮想オブジェクトV199が「動くもの」に相当する。そのため、図13に示す例では、情報処理システム1は、実オブジェクトM197と仮想オブジェクトV199とが離間するように、動き得る仮想オブジェクトV199側を、位置V199aから位置V199bに移動させている。
その一方で、視線が向けられた対象の候補がいずれも「動かないもの」である場合も想定される。例えば、図14は、変形例5に係る情報処理システムの他の一態様について説明するための説明図であり、互いに近傍に位置するように設置された実オブジェクトM213及びM215に対して視線が向けられている場合の一例を示している。図14において、参照符号R211は、ユーザの視線が向けられた実空間上の領域を模式的に示している。即ち、図14に示す例では、情報処理システム1は、視線が向けられた対象の候補として、実オブジェクトM213及びM215を特定することとなる。
図14に示すように、視線が向けられた対象の候補として実オブジェクトのみが特定されたような状況下では、当該実オブジェクトの位置を制御できるとは限らない。このような場合には、例えば、情報処理システム1は、各実オブジェクトの代替となる表示情報を提示し、当該表示情報の表示位置を制御してもよい。例えば、図14に示す例では、情報処理システム1は、実オブジェクトM213の代替となる表示情報として、当該実オブジェクトM213を指定するためのアイコンとして構成された仮想オブジェクトV217を当該実オブジェクトM213に関連付けて提示している。同様に、情報処理システム1は、実オブジェクトM215の代替となる表示情報として、当該実オブジェクトM215を指定するためのアイコンとして構成された仮想オブジェクトV219を当該実オブジェクトM215に関連付けて提示している。また、このとき、情報処理システム1は、仮想オブジェクトV217及びV219が互いに離間して提示されるように、当該仮想オブジェクトV217及びV219それぞれの表示位置を制御している。
なお、実オブジェクトの代替として提示される表示情報の種別は特に限定されない。例えば、図15は、変形例5に係る情報処理システムの他の一態様について説明するための説明図であり、実オブジェクトの代替として提示される表示情報の一例を示している。具体的には、図15に示す例では、情報処理システム1は、実オブジェクトM213の代替となる表示情報として、実オブジェクトM213を操作するための操作メニューとして構成された仮想オブジェクトV221を、当該実オブジェクトM213に関連付けて提示している。
以上、変形例5として、ユーザの視線をより好適な態様で誘導するための制御の一例について説明した。
<4.6.変形例6:優先度に応じた制御の一例>
続いて、変形例6として、各種状態や状況に応じて選択対象に対して優先度を設定し(即ち、重み付けを行い)、当該優先度を利用することで、ユーザとの間のインタラクションをより好適な態様で実現するための制御の一例について説明する。
例えば、情報処理システム1は、操作対象の候補として特定した複数の表示情報を互いに離間させる際に、当該複数の表示情報間に設定された優先度に応じて、当該複数の表示情報のうち少なくともいずれかの表示を制御してもよい。なお、優先度の設定方法の一例については別途後述する。
具体的な一例として、情報処理システム1は、特定された複数の表示情報のうち、より優先度の高い表示情報を移動させることで、当該複数の表示情報を互いに離間させてもよい。このように、ユーザが選択する可能性の高い対象(即ち、より優先度の高い表示情報)を動かし、ユーザの視線を能動的に誘導することで、本来ユーザが操作対象として視線を向けていた対象を速やかに特定することが可能となる。また、他の一例として、特定された複数の表示情報のうち、より優先度の低い表示情報を移動させることで、当該複数の表示情報を互いに離間させてもよい。このように、ユーザが選択する可能性の低い対象(即ち、より優先度の低い表示情報)を動かすことで、対象を選択するための視線の移動を最小限に抑えることが可能となる。なお、優先度の高い表示情報と、優先度の低い表示情報とのいずれを動かすかについては、例えば、ユースケースや利用シーンに応じて適宜変更してもよい。
なお、優先度の設定方法は特に限定されない。例えば、利用頻度のより高い対象ほど、より優先度が高くなるように設定されてもよい。また、操作対象の候補として選択される表示情報が、他のユーザとコミュニケーションをとるための仮想オブジェクト(例えば、アバター等)の場合には、コミュニケーションの頻度がより高いユーザに対応する表示情報の優先度がより高くなるように設定されてもよい。また、ユーザ間の関係に応じて優先度が設定されてもよい。例えば、友人や家族として設定されているユーザに対応する表示情報は、それ以外のユーザに対応する表示情報よりも優先度が高く設定されていてもよい。
また、優先度の設定は状況や過去の履歴に応じて動的に設定または変更されてもよい。例えば、情報処理システム1は、所謂機械学習に基づき、時間帯、場所、状況等に応じたユーザの行動をデータとして蓄積し、蓄積した当該データに基づき、操作対象の候補として特定した複数の表示情報間に優先度を設定してもよい。このような構成により、情報処理システム1は、ユーザのクセや、ユーザが選択する対象の傾向に応じて複数の表示情報間に優先度を設定し、より優先度の高い表示情報をユーザがより選択しやすくなるように提示することも可能となる。
また、操作対象の候補が特定された状況に応じて、当該操作対象の候補として特定された複数の表示情報間に優先度が設定されてもよい。例えば、図16は、変形例6に係る情報処理システムの概要について説明するための説明図である。図16において、参照符号R419は、ユーザの視線が向けられた実空間上の位置を模式的に示している。即ち、図16は、仮想オブジェクトV411及びV413に向けてユーザが視線を向けている状況を示しており、この場合には、情報処理システム1は、操作対象の候補として当該仮想オブジェクトV411及びV413を特定する。
このとき、情報処理システム1は、視線が向けられた位置R416と、候補として特定された仮想オブジェクトV411及びV413それぞれとの間の距離に応じて、当該仮想オブジェクトV411及びV413間に優先度を設定してもよい。例えば、参照符号R415は、視線が向けられた位置R416と仮想オブジェクトV411との間の距離を測定する場合における、当該仮想オブジェクトV411の基準となる位置(以降では、「インタラクションポイント」とも称する)を模式的に示している。同様に、参照符号R417は、仮想オブジェクトV413のインタラクションポイントを示している。
図16に示す例では、仮想オブジェクトV411のインタラクションポイントR415が、仮想オブジェクトV413のインタラクションポイントR417よりも、視線が向けられた位置R416のより近傍に位置する。そのため、情報処理システム1は、仮想オブジェクトV411の優先度を、仮想オブジェクトV413の優先度よりも高く設定している。
なお、インタラクションポイントは、各仮想オブジェクトの中心や重心に基づき設定されてもよい。また、他の一例として、インタラクションポイントは、仮想オブジェクトの各部分のうち、ユーザの視線をより集めやすい位置に設定されてもよい。例えば、図16に示す例では、仮想オブジェクトV411及びV413は、キャラクターを模したアバターとして提示されるため、当該キャラクターの顔に相当する部分にインタラクションポイントが設定されている。また、インタラクションポイントの設定方法は、各種状態や状況に応じて動的に設定または変更されてもよい。
また、他の一例として、情報処理システム1は、操作対象の候補として特定した複数の表示情報のうち、優先度のより低い表示情報を、当該操作対象の候補から除外してもよい。この場合には、例えば、情報処理システム1は、機械学習に基づき、時間帯、場所、状況等に応じてユーザが選択しなかった選択肢のデータを蓄積し、蓄積した当該データに基づき、操作対象の候補として特定した複数の表示情報間に優先度を設定すればよい。このような構成により、例えば、情報処理システム1は、操作対象の候補として特定した複数の表示情報のうち、優先度が閾値よりも低い表示情報(即ち、ユーザが選択する可能性がより低い表示情報)を、当該操作対象の候補から除外することも可能となる。
例えば、情報処理システム1は、時間帯に応じて、当該時間帯で選択される可能性が低い選択肢を除外してもよい。具体的には、情報処理システム1は、業務時間中においては、ゲーム等のアプリケーションが関連付けられた表示情報を、操作対象の候補から除外してもよい。また、他の一例として、情報処理システム1は、直前に選択された選択肢と同様の種別の選択肢を除外してもよい。具体的には、情報処理システム1は、「レストラン」が関連付けられた表示情報が選択された直後には、同様に「レストラン」が関連付けられた他の表示情報が選択される可能性は低いものと認識し、当該他の表示情報を操作対象の候補から除外してもよい。
以上、変形例6として、各種状態や状況に応じて選択対象に対して優先度を設定し、当該優先度を利用することで、ユーザとの間のインタラクションをより好適な態様で実現するための制御の一例について説明した。
<4.7.変形例7:状態や状況に応じた制御の一例>
上記において一部の例としても説明したように、本実施形態に係る情報処理システム1は、各種状態や状況に応じて制御を切り替えてもよい。そこで、変形例7として、各種状態や状況に応じた制御の他の一例について以下に説明する。
例えば、情報処理システム1は、操作対象の候補として特定した複数の表示情報を互いに離間させる際に、各種センサ等の検知結果に基づきユーザの状態や行動を認識し、認識結果に応じて当該表示情報の表示を制御してもよい。
具体的な一例として、情報処理システム1は、候補として特定した表示情報が重畳された実空間上の位置に向けてユーザが移動していることを認識した場合には、当該表示情報の移動速度がより遅くなるように制御してもよい。
また、他の一例として、情報処理システム1は、ユーザの状態や行動の認識結果に応じて、当該ユーザとの間のインタラクションのタイミングを制御してもよい。この場合には、情報処理システム1は、より好適なタイミングでインタラクションが行われるように、操作対象の候補として特定した複数の表示情報を移動させるタイミングや、当該表示情報の動作(例えば、移動速度等)を制御してもよい。
また、他の一例として、情報処理システム1は、ユーザが次に行うアクションを予測し、予測結果に応じて、操作対象の候補として特定した表示情報の動きを制御してもよい。
具体的な一例として、情報処理システム1は、ユーザがアバターとして構成された仮想オブジェクトを介して他のユーザとコミュニケーションをとることを予測した場合には、当該仮想オブジェクトを、ユーザのより近傍に移動させてもよい。このような制御により、情報処理システム1は、コミュニケーションの対象(仮想オブジェクト)の選択に係る操作から、選択した対象を介した他のユーザとのコミュニケーションに、ユーザをより自然な態様で誘導することが可能となる。
また、他の一例として、特定された複数の候補の中からいずれかを単に選択するような状況も想定され得る。このような場合には、情報処理システム1は、操作対象の候補として特定した複数の表示情報が単に左右に離間するように、当該表示情報の表示位置を制御してもよい。このような制御により、情報処理システム1は、本来ユーザが操作対象として視線を向けていた候補をより速やかに認識することが可能となるため、ユーザとの間のインタラクションのスピードを向上させることが可能となる。
なお、ユーザが次に行うアクションを予測することが可能であれば、その方法は特に限定されない。例えば、情報処理システム1は、実行中の機能(例えば、アプリケーション)に応じて、ユーザが次に行うアクションを予測してもよい。具体的には、他のユーザとコミュニケーションを行うためのアプリケーションを実行中の状況下では、ユーザが、アバター等の仮想オブジェクトに対して話しかけるというアクションを行うことを予測することが可能である。
また、他の一例として、情報処理システム1は、選択された操作対象の候補の属性や、当該候補に関連付けられた処理に応じて、ユーザが次に行うアクションを予測してもよい。具体的には、各種設定を変更するためのメニューやアイコン等の表示情報が操作対象の候補として選択されている状況下では、当該表示情報に対してコミュニケーションのためのアクションが行われる可能性は低く、当該表示情報を選択するためのアクションが行われる可能性が高い。そのため、例えば、各種設定を変更するためのメニューやアイコン等であることを示す属性に応じて、ユーザが、タッチ操作等のように、対象となる表示情報を明示的に選択するためのアクションを行うことを予測することが可能である。また、他の一例として、アバター等の仮想オブジェクトが操作対象の候補として選択されている状況下では、当該仮想オブジェクトに対してコミュニケーションのためのアクションが行われる可能性が高い。そのため、例えば、アバター等の仮想オブジェクトであることを示す属性に応じて、ユーザが、話しかける等のコミュニケーションのためのアクションを行うことを予測することが可能である。
もちろん、上記に示す例はあくまで一例であり、必ずしも上記に示す例には限定されない。また、情報処理システム1は、複数の条件を組み合わせることで、ユーザが次に行うアクションを予測してもよいことは言うまでもない。
以上、変形例7として、各種状態や状況に応じた制御の他の一例について以下に説明した。
<<5.適用例>>
続いて、本実施形態に係る情報処理システム1の適用例について説明する。
<5.1.適用例1:スマートフォンやタブレット端末への適用例>
まず、適用例1として、図17を参照して、本実施形態に係る情報処理システムを、所謂スマートフォンやタブレット端末等のように、画面に表示された表示情報に対するタッチ操作によりユーザ入力を行う装置に適用した場合の一例について説明する。図17は、本実施形態に係る情報処理システムの第1の適用例について説明するための説明図であり、上述した本実施形態に係る情報処理システムによるユーザとの間のインタラクションをスマートフォンに適用した場合の一例を示している。
例えば、図17は、スマートフォンとして構成された情報処理装置30の表示部301(例えば、ディスプレイ)に表示された表示情報に対して、指等の操作体Ubによりタッチ操作を行うことで、当該情報処理装置30を操作する場合の一例を示している。また、図17は、互いに近傍に位置するように表示部301に表示された表示情報V551及びV553のいずれかに対して、ユーザが、操作体Ubによりタッチ操作を行っている状況を模式的に示している。
図17に示す例では、情報処理装置30は、操作対象の候補として表示情報V551及びV553を特定し、特定した表示情報V551及びV553が互いに離間するように、当該表示情報V551及びV553の表示位置を制御している。
具体的には、情報処理装置30は、表示部303の画面上に設けられたタッチパネルの検出結果に基づき、表示情報V551及びV553が提示された位置への操作体Ubの近接を検知することで、当該表示情報V551及びV553を操作対象の候補として特定してもよい。
また、他の一例として、情報処理装置30は、ユーザの視線を検出することで、当該視線が示す表示部303の画面上の位置に応じて、操作対象の候補を特定してもよい。例えば、図17に示す例では、ユーザの視線R515は、表示部303の画面上のうち、参照符号R517で示した位置に向けられている。この場合には、情報処理装置30は、視線R515を検出することで、当該視線R515が画面上の位置R517に向けられていることを認識し、当該位置R517の近傍に位置する表示情報V551及びV553を操作対象の候補として特定すればよい。
なお、ユーザの視線を検出する方法については特に限定されない。具体的な一例として、情報処理装置30のうち、表示部301が設けられた面に対して、当該表示部301の画面に対向するユーザの画像を撮像する撮像部を設けてもよい。このような構成とすることで、情報処理装置30は、当該撮像部により撮像されたユーザの顔の画像(ひいては、ユーザの眼の画像)を解析することにより、当該ユーザの視線R515を検出することが可能となる。
以上、適用例1として、図17を参照して、本実施形態に係る情報処理システムを、所謂スマートフォンやタブレット端末等のように、画面に表示された表示情報に対するタッチ操作によりユーザ入力を行う装置に適用した場合の一例について説明した。
<5.2.適用例2:テーブルトップシステムへの適用例>
続いて、適用例2として、図18及び図19を参照して本実施形態に係る情報処理システムを、所謂テーブルトップシステムに適用した場合の一例について説明する。図18及び図19は、本実施形態に係る情報処理システムの第2の適用例について説明するための説明図である。なお、以降の説明では、適用例2に係る情報処理システムを、前述した実施形態に係る情報処理システム1と区別するために、「情報処理システム3」と称する場合がある。
まず、図18を参照して、テーブルトップシステムとして構成された情報処理システム3の概略的な構成の一例について説明する。図18に示すように、適用例2に係る情報処理システム3は、センサボックス420と、表示情報を提示するための出力部430と、情報処理システム3の各種動作を制御する制御部が設けられた本体410とを含む。
図18に示す例では、情報処理システム3は、例えば、テーブル440等の上方に、当該テーブル440の天面側を向くように設置される。情報処理システム3は、テーブル440の天面を投影面として、出力部430に表示情報を投影させることで、ユーザに対して当該表示情報を提示し、投影された表示情報に対する、情報処理システム3を使用するユーザからの操作を受け付ける。なお、参照符号R521は、出力部430により情報(即ち、表示情報)が投影される領域(即ち、投影面)を示している。
センサボックス420は、情報処理システム3を使用するユーザの操作内容や、テーブル440に置かれている物体の形状や模様などを認識するための検知部421を備える。例えば、図18に示す例では、検知部421は、テーブル440の上方から当該テーブル440の天面上に向けて検知範囲が形成されるように設置される。すなわち、検知部421は、情報が表示される対象となるテーブル440とは離隔して設けられる。
また、センサボックス420は、所謂マイクロフォンのような、ユーザが発する音声や、情報処理システム3が置かれている環境の環境音等の音響情報を集音するための集音部423を備えてもよい。なお、当該集音部423は、例えば、所謂マイクロフォンのような集音デバイスにより構成され得る。
検知部421は、例えば、測距センサ等により構成され得る。また、他の一例として、検知部421は、例えば1つの撮像光学系(例えば、一連のレンズ群)でテーブル440を撮像するカメラや、複数の撮像光学系でテーブル440を撮像して奥行き方向の情報を記録することが可能なステレオカメラにより構成されてもよい。なお、本説明では、検知部421は、所謂ステレオカメラとして構成されているものとして説明する。
検知部421としてステレオカメラが用いられる場合には、そのステレオカメラには、例えば可視光カメラや赤外線カメラ等が適用され得る。検知部421してステレオカメラが用いられることで、検知部421は、当該検知部421からの距離を示す情報(以降では、「深度情報」とも称する)を取得することが可能となる。検知部421が、深度情報を取得することで、情報処理システム3は、例えばテーブル440の上に置かれた手や物体等の実オブジェクトを検出することが可能となる。また検知部421が、深度情報を取得することで、情報処理システム3は、テーブル440へのユーザの手のような操作体の接触及び近接や、テーブル440からの操作体の離脱を検出することが可能となる。
このような構成により、情報処理システム3は、テーブル440の天面上の領域R521に投影された表示情報に対して、ユーザが手等の操作体による操作を認識し、当該操作の内容に応じて各種機能を実行することが可能となる。
また、情報処理システム3は、上記に説明した検知部421による検知結果に基づき、領域R521に投影された表示情報を操作するために、検知部421の検知領域R123内を動作する手や腕等のような部位の位置や向きを認識することが可能である。
また、情報処理システム3は、テーブル440の天面上の領域R521に投影された表示情報に対して操作を行うユーザの視線を検出可能に構成されていてもよい。この場合には、例えば、情報処理システム3に対して、テーブル440の周辺を撮像する撮像部を設けるとよい。このような構成により、情報処理システム3は、当該撮像部により撮像された画像を解析することで、テーブル440の周辺に位置するユーザの頭部の位置や姿勢を認識し、当該認識結果に基づき、当該ユーザの視線を検出することが可能となる。
また、他の一例として、情報処理システム3は、前述した実施形態に係る入出力装置20と連携可能に構成されていてもよい。この場合には、情報処理システム3は、入出力装置20の位置や姿勢することで、当該入出力装置20を装着するユーザの頭部の位置や姿勢を認識してもよい。また、情報処理システム3は、入出力装置20により撮像された当該ユーザの眼球の画像を解析することで、当該ユーザの視線を検出してもよい。
続いて、図19を参照して、適用例2に係る情報処理システム3の動作の一例について説明する。図19は、適用例2に係る情報処理システム3の概要について説明するための説明図であり、テーブル440の天面を鉛直方向の上部から見下ろした場合における、領域R521とユーザとの間の位置関係の一例を示している。また、図19は、互いに近傍に位置するように領域R521に投影された表示情報V555及びV557のいずれかに対して、ユーザUcが、自身の手や指等の操作体によりタッチ操作を行っている状況を模式的に示している。
図19に示す例では、情報処理システム3は、操作対象の候補として表示情報V555及びV557を特定し、特定した表示情報V555及びV557が互いに離間するように、当該表示情報V555及びV557を投影する位置を制御している。
具体的には、情報処理システム3は、テーブル440の天面上の領域R521中の表示情報V555及びV557が投影された位置への、ユーザUcの手や指等の近接を検知することで、当該表示情報V555及びV557を操作対象の候補として特定してもよい。
また、他の一例として、情報処理システム3は、ユーザの視線を検出することで、テーブル440の天面上の領域R521中の当該視線が示す位置に応じて、操作対象の候補を特定してもよい。例えば、図19に示す例では、ユーザの視線R525は、テーブル440の天面上の領域R521のうち、参照符号R527で示した位置に向けられている。この場合には、情報処理システム3は、視線R525を検出することで、当該視線R525が領域R521中の位置R527に向けられていることを認識し、当該位置R527の近傍に位置する表示情報V555及びV557を操作対象の候補として特定すればよい。
以上、適用例2として、図18及び図19を参照して本実施形態に係る情報処理システムを、テーブルトップシステムに適用した場合の一例について説明した。
<5.3.適用例3:タッチ操作を採用する場合の制御の一例>
続いて、適用例3として、図20及び図21を参照して、前述した適用例1及び2のように、ユーザが情報を入力するための手段としてタッチ操作を採用する場合における制御の一例について説明する。
例えば、図20は、本実施形態に係る情報処理システムの第3の適用例について説明するための説明図であり、視線による対象の指定と、対象に対するタッチ操作とを併用したインタラクションの一例を示している。まず、図20の左側の図は、互いに近傍に位置するように提示されたオブジェクトV611及びV613のいずれかに対して、ユーザが、操作体Udによりタッチ操作を行っている状況を模式的に示している。なお、参照符号R615は、ユーザの視線を示しており、参照符号R617は、視線R615が向けられた位置を示している。即ち、図20の左側の図に示す状況下では、情報処理システムは、オブジェクトV611及びV613を、視線R615が向けられた対象の候補として特定する。
次いで、情報処理システムは、図20の中央の図に示すように、操作対象の候補として特定したオブジェクトV611及びV613それぞれに対して、当該オブジェクトの代替となる表示情報V621及びV623を関連付けて提示する。また、このとき情報処理システムは、表示情報V621及びV623が互いに離間するように、当該表示情報V621及びV623が提示される位置を制御することで、ユーザの視線R615を誘導する。例えば、図20の中央の図では、本来ユーザが操作対象として視線R615を向けていたオブジェクトV613に関連付けられた表示情報V623に、当該視線R615が誘導されている。
図20の中央の図に示すように視線R615が誘導されることで、情報処理システムは、図20の右側の図に示すように、当該視線R615が誘導された表示情報V623を操作対象として決定する。なお、このとき情報処理システムは、図20の右側の図に示すように、表示情報V623を提示するとともに、操作対象として選択されなかった表示情報V621の表示を制限してもよい。
また、図21は、本実施形態に係る情報処理システムの第3の適用例の他の一態様について説明するための説明図であり、視線による対象の指定と、対象に対するタッチ操作とを併用したインタラクションの一例を示している。具体的には、図21は、スマートフォンとして構成された情報処理装置50の表示部501(例えば、ディスプレイ)に表示された表示情報に対して、指等の操作体Ueによりタッチ操作を行うことで、当該情報処理装置50を操作する場合の一例を示している。
図21に示すような状況下では、例えば、ユーザが指で画面をタッチする際に、当該ユーザの手の他の部分が画面に接触し、当該他の部分の画面への接触がタッチ操作として誤認識される場合がある。このような状況を鑑み、図21に示す例では、情報処理システムは、ユーザの視線により操作対象を特定することで、タッチ操作を受け付ける領域を制限し、上述したような誤認識を防止している。
具体的には、図21において、参照符号R631は、表示部501の画面上のうち、ユーザの視線が向けられた位置を模式的に示している。また、参照符号R633は、ユーザが右手Ueの親指により表示部501の画面上の位置R631の近傍に対してタッチ操作を行った際に、当該右手Ueの他の部分が接触した、当該画面上の他の位置を模式的に示している。
このような状況下においても、図21に示す例では、情報処理システムは、表示部501の画面上のうち視線が向けられた位置R631の近傍の領域に対するタッチ操作を受け付け、その他の領域に対するタッチ操作を制限する。そのため、図21に示す例のように、表示部501の画面上の位置R633に対して、ユーザの右手Ueの一部が接触したとしても、情報処理システムは、当該接触をタッチ操作として認識しないこととなる。即ち、以上のような制御により、情報処理システムは、ユーザの意図しないタッチ操作による誤操作の発生を防止することが可能となる。
以上、適用例3として、図20及び図21を参照して、前述した適用例1及び2のように、ユーザが情報を入力するための手段としてタッチ操作を採用する場合における制御の一例について説明した。
<<6.ハードウェア構成>>
次に、図22を参照しながら、前述した情報処理装置10及び入出力装置20のように、本実施形態に係る情報処理システム1を構成する情報処理装置900のハードウェア構成について、詳細に説明する。図22は、本開示の一実施形態に係る情報処理システム1を構成する情報処理装置900のハードウェア構成の一例を示す機能ブロック図である。
本実施形態に係る情報処理システム1を構成する情報処理装置900は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置900は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インタフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。なお、図6を参照して前述した、認識部101、視線検出部103、トリガ検出部105、対象特定部107、処理実行部109、及び表示制御部111は、例えば、CPU901により実現され得る。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インタフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、図6を参照して前述した入力部253は、例えば、出力装置917により実現され得る。
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。なお、図6を参照して前述した出力部211は、例えば、出力装置917により実現され得る。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ等を格納する。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア又はBlu−ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。なお、図6を参照して前述した記憶部151は、例えば、RAM905及びストレージ装置919の少なくともいずれかにより実現され得る。
接続ポート923は、情報処理装置900に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インタフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
以上、本開示の実施形態に係る情報処理システム1を構成する情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図22では図示しないが、本実施形態に係る情報処理システム1を構成する情報処理装置900に対応する各種の構成を当然備える。
なお、上述のような本実施形態に係る情報処理システム1を構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。なお、単数のコンピュータ、または、複数のコンピュータが連携するものを、「コンピュータシステム」とも称する。
<<7.むすび>>
以上説明したように、本実施形態に情報処理システム1において、情報処理装置10は、所定の出力部211に1以上の表示情報(例えば、仮想オブジェクト)を表示させ、視覚的に視認可能なオブジェクト(例えば、実オブジェクトや仮想オブジェクト)に対する操作を検出する。また、情報処理装置10は、操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定し、特定された候補が複数存在する場合には、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御する。このような構成に基づき、本実施形態に係る情報処理システム1は、操作対象の候補として特定した複数の表示情報のうち、本来ユーザが操作対象として指定していた表示情報に、当該ユーザの操作を誘導する。これにより、情報処理システム1は、視覚的に視認可能に提示された複数の対象に対して選択的に操作を行うような状況下においても、より自然な態様で、ユーザとの間のインタラクションを実現することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
所定の出力部に1以上の表示情報を表示させる制御部と、
視覚的に視認可能なオブジェクトに対する操作を検出する検出部と、
前記操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定する特定部と、
を備え、
前記制御部は、特定された前記候補が複数存在する場合に、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御する、
情報処理装置。
(2)
前記制御部は、前記候補の特定に関する所定の条件に基づき、特定された前記複数の候補のうち、少なくともいずれかの候補の表示位置を制御する、前記(1)に記載の情報処理装置。
(3)
前記検出部は、ユーザの視線に基づく操作を検出し、
前記特定部は、検出された前記視線が示す位置に応じて、前記操作の対象となる前記表示情報の候補を特定する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記制御部は、特定された前記複数の候補が、前記ユーザに対して所定の方向に位置するように、当該複数の候補のうちすくなくともいずれかの候補の表示位置を制御する、前記(3)に記載の情報処理装置。
(5)
前記検出部は、前記視線に基づく第1の操作と、当該第1の操作とは異なる第2の操作とを検出し、
前記特定部は、前記第2の操作の検出をトリガとして、前記第1の操作の検出結果に応じて、前記操作の対象となる前記表示情報の候補を特定する、
前記(3)または(4)に記載の情報処理装置。
(6)
以降に入力される操作を予測する予測部を備え、
前記制御部は、前記操作の予測結果に応じて、特定された前記複数の候補のうち、少なくともいずれかの候補の表示位置を制御する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記予測部は、特定された前記複数の候補のうち、少なくともいずれかの候補に関連付けられた処理に応じて、以降に入力される操作を予測する、前記(6)に記載の情報処理装置。
(8)
前記制御部は、特定された前記複数の候補間に設定された優先度に応じて、当該複数の候補のうちすくなくともいずれかの候補の表示位置を制御する、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記制御部は、特定された前記複数の候補から、前記優先度のより低い少なくとも一部の候補を除外する、前記(8)に記載の情報処理装置。
(10)
前記優先度は、前記操作により指定された位置と、前記オブジェクトまたは当該オブジェクトに関連付けられた前記表示情報との間の位置関係に応じて設定される、前記(8)または(9)に記載の情報処理装置。
(11)
前記優先度は、前記オブジェクトまたは当該オブジェクトに関連付けられた前記表示情報に対する操作の頻度に応じて設定される、前記(8)または(9)に記載の情報処理装置。
(12)
前記オブジェクトは、実空間上に位置する実オブジェクトであり、
前記制御部は、前記表示情報が前記実オブジェクトに対して重畳するように、当該表示情報を前記出力部に表示させる、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記実オブジェクトを認識する認識部を備え、
前記制御部は、前記実オブジェクトの認識結果に応じて、特定された前記複数の候補のうち、少なくともいずれかの候補の表示位置を制御する、
前記(12)に記載の情報処理装置。
(14)
前記制御部は、前記操作の対象として特定された前記候補の表示位置に応じて、当該操作の対象以外の他の候補の表示を制御する、前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記制御部は、前記操作の対象として特定された前記候補の表示位置に応じて、前記他の候補の表示位置を制御する、前記(14)に記載の情報処理装置。
(16)
前記制御部は、前記他の候補の表示を制限する、前記(14)に記載の情報処理装置。
(17)
前記制御部は、特定された前記複数の候補のうち、少なくともいずれかの候補に設定された属性に応じて、当該候補の表示位置を制御する、前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記制御部は、ユーザの状態に応じて、特定された前記複数の候補のうち、少なくともいずれかの候補の表示位置を制御する、前記(1)〜(17)のいずれか一項に記載の情報処理装置。
(19)
コンピュータシステムが、
所定の出力部に1以上の表示情報を表示させることと、
視覚的に視認可能なオブジェクトに対する操作を検出することと、
前記操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定することと、
特定された前記候補が複数存在する場合に、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御することと、
を含む、情報処理方法。
(20)
コンピュータシステムに、
所定の出力部に1以上の表示情報を表示させることと、
視覚的に視認可能なオブジェクトに対する操作を検出することと、
前記操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定することと、
特定された前記候補が複数存在する場合に、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御することと、
を実行させる、プログラム。
1 情報処理システム
10 情報処理装置
20 入出力装置
101 認識部
103 視線検出部
105 トリガ検出部
107 対象特定部
109 処理実行部
111 表示制御部
151 記憶部
201 撮像部
211 出力部
251 検知部
253 入力部

Claims (20)

  1. 所定の出力部に1以上の表示情報を表示させる制御部と、
    視覚的に視認可能なオブジェクトに対する操作を検出する検出部と、
    前記操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定する特定部と、
    を備え、
    前記制御部は、特定された前記候補が複数存在する場合に、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御する、
    情報処理装置。
  2. 前記制御部は、前記候補の特定に関する所定の条件に基づき、特定された前記複数の候補のうち、少なくともいずれかの候補の表示位置を制御する、請求項1に記載の情報処理装置。
  3. 前記検出部は、ユーザの視線に基づく操作を検出し、
    前記特定部は、検出された前記視線が示す位置に応じて、前記操作の対象となる前記表示情報の候補を特定する、
    請求項1に記載の情報処理装置。
  4. 前記制御部は、特定された前記複数の候補が、前記ユーザに対して所定の方向に位置するように、当該複数の候補のうちすくなくともいずれかの候補の表示位置を制御する、請求項3に記載の情報処理装置。
  5. 前記検出部は、前記視線に基づく第1の操作と、当該第1の操作とは異なる第2の操作とを検出し、
    前記特定部は、前記第2の操作の検出をトリガとして、前記第1の操作の検出結果に応じて、前記操作の対象となる前記表示情報の候補を特定する、
    請求項3に記載の情報処理装置。
  6. 以降に入力される操作を予測する予測部を備え、
    前記制御部は、前記操作の予測結果に応じて、特定された前記複数の候補のうち、少なくともいずれかの候補の表示位置を制御する、
    請求項1に記載の情報処理装置。
  7. 前記予測部は、特定された前記複数の候補のうち、少なくともいずれかの候補に関連付けられた処理に応じて、以降に入力される操作を予測する、請求項6に記載の情報処理装置。
  8. 前記制御部は、特定された前記複数の候補間に設定された優先度に応じて、当該複数の候補のうちすくなくともいずれかの候補の表示位置を制御する、請求項1に記載の情報処理装置。
  9. 前記制御部は、特定された前記複数の候補から、前記優先度のより低い少なくとも一部の候補を除外する、請求項8に記載の情報処理装置。
  10. 前記優先度は、前記操作により指定された位置と、前記オブジェクトまたは当該オブジェクトに関連付けられた前記表示情報との間の位置関係に応じて設定される、請求項8に記載の情報処理装置。
  11. 前記優先度は、前記オブジェクトまたは当該オブジェクトに関連付けられた前記表示情報に対する操作の頻度に応じて設定される、請求項8に記載の情報処理装置。
  12. 前記オブジェクトは、実空間上に位置する実オブジェクトであり、
    前記制御部は、前記表示情報が前記実オブジェクトに対して重畳するように、当該表示情報を前記出力部に表示させる、請求項1に記載の情報処理装置。
  13. 前記実オブジェクトを認識する認識部を備え、
    前記制御部は、前記実オブジェクトの認識結果に応じて、特定された前記複数の候補のうち、少なくともいずれかの候補の表示位置を制御する、
    請求項12に記載の情報処理装置。
  14. 前記制御部は、前記操作の対象として特定された前記候補の表示位置に応じて、当該操作の対象以外の他の候補の表示を制御する、請求項1に記載の情報処理装置。
  15. 前記制御部は、前記操作の対象として特定された前記候補の表示位置に応じて、前記他の候補の表示位置を制御する、請求項14に記載の情報処理装置。
  16. 前記制御部は、前記他の候補の表示を制限する、請求項14に記載の情報処理装置。
  17. 前記制御部は、特定された前記複数の候補のうち、少なくともいずれかの候補に設定された属性に応じて、当該候補の表示位置を制御する、請求項1に記載の情報処理装置。
  18. 前記制御部は、ユーザの状態に応じて、特定された前記複数の候補のうち、少なくともいずれかの候補の表示位置を制御する、請求項1に記載の情報処理装置。
  19. コンピュータシステムが、
    所定の出力部に1以上の表示情報を表示させることと、
    視覚的に視認可能なオブジェクトに対する操作を検出することと、
    前記操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定することと、
    特定された前記候補が複数存在する場合に、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御することと、
    を含む、情報処理方法。
  20. コンピュータシステムに、
    所定の出力部に1以上の表示情報を表示させることと、
    視覚的に視認可能なオブジェクトに対する操作を検出することと、
    前記操作の検出結果に応じて、当該操作の対象となる表示情報の候補を特定することと、
    特定された前記候補が複数存在する場合に、当該複数の候補が互いに離間するように、少なくともいずれかの候補の表示位置を制御することと、
    を実行させる、プログラム。
JP2018514127A 2016-04-26 2017-02-08 情報処理装置、情報処理方法、及びプログラム Active JP7092028B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016088361 2016-04-26
JP2016088361 2016-04-26
PCT/JP2017/004475 WO2017187708A1 (ja) 2016-04-26 2017-02-08 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2017187708A1 true JPWO2017187708A1 (ja) 2019-02-28
JP7092028B2 JP7092028B2 (ja) 2022-06-28

Family

ID=60160228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018514127A Active JP7092028B2 (ja) 2016-04-26 2017-02-08 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US11017257B2 (ja)
EP (1) EP3451135A4 (ja)
JP (1) JP7092028B2 (ja)
CN (1) CN109074212B (ja)
WO (1) WO2017187708A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6607149B2 (ja) * 2016-06-29 2019-11-20 カシオ計算機株式会社 経営支援装置及びプログラム
CN107995478B (zh) * 2017-12-13 2019-08-27 歌尔股份有限公司 投影方法及投影设备
JP6453501B1 (ja) * 2018-02-01 2019-01-16 株式会社Cygames 複合現実システム、プログラム、方法、及び携帯端末装置
JP2021140195A (ja) 2018-05-31 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JP7293039B2 (ja) * 2019-08-16 2023-06-19 キヤノン株式会社 撮像装置およびその制御方法
FR3105440A1 (fr) * 2019-12-20 2021-06-25 Orange Assistant et procédé d’assistance de recherche d’un élément dans une zone
JP2023068212A (ja) * 2020-03-31 2023-05-17 株式会社Nttドコモ 情報処理システム
CN114003123A (zh) * 2020-07-28 2022-02-01 华为技术有限公司 控件移动方法和电子设备
JP2022131777A (ja) * 2021-02-26 2022-09-07 キヤノン株式会社 情報処理装置、それを含むシステム、情報処理方法およびプログラム
JP2022171084A (ja) * 2021-04-30 2022-11-11 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
WO2022242854A1 (en) * 2021-05-19 2022-11-24 Telefonaktiebolaget Lm Ericsson (Publ) Prioritizing rendering by extended reality rendering device responsive to rendering prioritization rules
US11759711B2 (en) * 2021-09-28 2023-09-19 Sony Group Corporation Method for quasi-random placement of virtual items in an extended reality (XR) space

Citations (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082751A (ja) * 2000-09-08 2002-03-22 Mitsubishi Electric Corp 仮想空間とのインタラクション装置およびこれを応用した仮想空間システム
JP2006126936A (ja) * 2004-10-26 2006-05-18 Canon Inc 画像処理方法、画像処理装置
JP2006178842A (ja) * 2004-12-24 2006-07-06 Matsushita Electric Ind Co Ltd 情報提示装置
JP2007233511A (ja) * 2006-02-28 2007-09-13 Konami Digital Entertainment:Kk オブジェクト表示装置、オブジェクト配置方法、および、プログラム
WO2009016736A1 (ja) * 2007-07-31 2009-02-05 Xanavi Informatics Corporation 地図表示装置
JP2011509480A (ja) * 2008-01-10 2011-03-24 ソニー エリクソン モバイル コミュニケーションズ, エービー 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法
JP2011175470A (ja) * 2010-02-24 2011-09-08 Brother Industries Ltd データ入力装置
JP2011191811A (ja) * 2010-03-11 2011-09-29 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2012022632A (ja) * 2010-07-16 2012-02-02 Canon Inc 情報処理装置およびその制御方法
US20120229381A1 (en) * 2011-03-10 2012-09-13 Microsoft Corporation Push personalization of interface controls
JP2012217101A (ja) * 2011-04-01 2012-11-08 Canon Inc 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
JP2013524390A (ja) * 2010-04-16 2013-06-17 クアルコム,インコーポレイテッド 仮想キーボード寸法をユーザの指のサイズに動的に相関させるための装置および方法
JP2014504413A (ja) * 2010-12-16 2014-02-20 マイクロソフト コーポレーション 理解および意図に基づく拡張現実表示用コンテンツ
JP2014086063A (ja) * 2012-10-29 2014-05-12 Kyocera Corp 電子機器、視線入力プログラムおよび視線入力方法
JP2014126997A (ja) * 2012-12-26 2014-07-07 Denso Corp 操作装置、及び操作検出方法
JP2014142882A (ja) * 2013-01-25 2014-08-07 Nikon Corp 視線入力装置
JP2014164572A (ja) * 2013-02-26 2014-09-08 Sharp Corp 情報処理装置およびプログラム
WO2014188565A1 (ja) * 2013-05-23 2014-11-27 パイオニア株式会社 表示制御装置
WO2014207971A1 (ja) * 2013-06-26 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置及び表示オブジェクト操作方法
JP2015503162A (ja) * 2011-12-06 2015-01-29 トムソン ライセンシングThomson Licensing 3次元で表示されるオブジェクトのユーザの選択ジェスチャに応答する方法およびシステム
JP2015114757A (ja) * 2013-12-10 2015-06-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2015159550A1 (ja) * 2014-04-18 2015-10-22 日本電気株式会社 情報処理システム、制御方法、及びプログラム記録媒体
JP2016018252A (ja) * 2014-07-04 2016-02-01 三菱電機株式会社 情報処理装置及び情報処理方法及びプログラム
JP2016509705A (ja) * 2012-12-19 2016-03-31 クアルコム,インコーポレイテッド 視線追跡を使用して拡張現実を可能にする
JP2016218981A (ja) * 2015-05-26 2016-12-22 ソニー株式会社 表示装置、情報処理システム及び制御方法
JP2017027206A (ja) * 2015-07-17 2017-02-02 キヤノン株式会社 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5104679B2 (ja) * 2008-09-11 2012-12-19 ブラザー工業株式会社 ヘッドマウントディスプレイ
EP2395420B1 (en) * 2009-02-05 2018-07-11 Panasonic Intellectual Property Corporation of America Information display device and information display method
JP5315111B2 (ja) * 2009-03-31 2013-10-16 株式会社エヌ・ティ・ティ・ドコモ 端末装置、情報提示システム及び端末画面表示方法
AU2009251135B2 (en) * 2009-12-23 2013-03-21 Canon Kabushiki Kaisha Method of interfacing with multi-point display device
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US9335120B2 (en) * 2010-08-19 2016-05-10 Evrio, Inc. Display indicating aiming point relative to target size indicator
JP2012070081A (ja) 2010-09-21 2012-04-05 Fuji Xerox Co Ltd 画像表示装置、画像表示プログラム及び画像表示システム
JP5723149B2 (ja) * 2010-12-29 2015-05-27 任天堂株式会社 画像処理システム、画像処理プログラム、画像処理方法及び画像処理装置
JP5724543B2 (ja) * 2011-03-31 2015-05-27 ソニー株式会社 端末装置、オブジェクト制御方法及びプログラム
WO2013049248A2 (en) * 2011-09-26 2013-04-04 Osterhout Group, Inc. Video display modification based on sensor input for a see-through near-to-eye display
US9405463B2 (en) * 2011-11-25 2016-08-02 Samsung Electronics Co., Ltd. Device and method for gesturally changing object attributes
CN103472909B (zh) * 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
GB201303707D0 (en) * 2013-03-01 2013-04-17 Tosas Bautista Martin System and method of interaction for mobile devices
US9619020B2 (en) * 2013-03-01 2017-04-11 Tobii Ab Delay warp gaze interaction
US20150062164A1 (en) * 2013-09-05 2015-03-05 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, computer program, image display system, and information processing apparatus
GB201414609D0 (en) 2014-08-18 2014-10-01 Tosas Bautista Martin Systems and methods for dealing with augmented reality overlay issues
US20170180680A1 (en) * 2015-12-21 2017-06-22 Hai Yu Object following view presentation method and system

Patent Citations (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082751A (ja) * 2000-09-08 2002-03-22 Mitsubishi Electric Corp 仮想空間とのインタラクション装置およびこれを応用した仮想空間システム
JP2006126936A (ja) * 2004-10-26 2006-05-18 Canon Inc 画像処理方法、画像処理装置
JP2006178842A (ja) * 2004-12-24 2006-07-06 Matsushita Electric Ind Co Ltd 情報提示装置
JP2007233511A (ja) * 2006-02-28 2007-09-13 Konami Digital Entertainment:Kk オブジェクト表示装置、オブジェクト配置方法、および、プログラム
WO2009016736A1 (ja) * 2007-07-31 2009-02-05 Xanavi Informatics Corporation 地図表示装置
JP2011509480A (ja) * 2008-01-10 2011-03-24 ソニー エリクソン モバイル コミュニケーションズ, エービー 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法
JP2011175470A (ja) * 2010-02-24 2011-09-08 Brother Industries Ltd データ入力装置
JP2011191811A (ja) * 2010-03-11 2011-09-29 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2013524390A (ja) * 2010-04-16 2013-06-17 クアルコム,インコーポレイテッド 仮想キーボード寸法をユーザの指のサイズに動的に相関させるための装置および方法
JP2012022632A (ja) * 2010-07-16 2012-02-02 Canon Inc 情報処理装置およびその制御方法
JP2014504413A (ja) * 2010-12-16 2014-02-20 マイクロソフト コーポレーション 理解および意図に基づく拡張現実表示用コンテンツ
US20120229381A1 (en) * 2011-03-10 2012-09-13 Microsoft Corporation Push personalization of interface controls
JP2012217101A (ja) * 2011-04-01 2012-11-08 Canon Inc 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
JP2015503162A (ja) * 2011-12-06 2015-01-29 トムソン ライセンシングThomson Licensing 3次元で表示されるオブジェクトのユーザの選択ジェスチャに応答する方法およびシステム
JP2014086063A (ja) * 2012-10-29 2014-05-12 Kyocera Corp 電子機器、視線入力プログラムおよび視線入力方法
JP2016509705A (ja) * 2012-12-19 2016-03-31 クアルコム,インコーポレイテッド 視線追跡を使用して拡張現実を可能にする
JP2014126997A (ja) * 2012-12-26 2014-07-07 Denso Corp 操作装置、及び操作検出方法
JP2014142882A (ja) * 2013-01-25 2014-08-07 Nikon Corp 視線入力装置
JP2014164572A (ja) * 2013-02-26 2014-09-08 Sharp Corp 情報処理装置およびプログラム
WO2014188565A1 (ja) * 2013-05-23 2014-11-27 パイオニア株式会社 表示制御装置
WO2014207971A1 (ja) * 2013-06-26 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置及び表示オブジェクト操作方法
JP2015114757A (ja) * 2013-12-10 2015-06-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2015159550A1 (ja) * 2014-04-18 2015-10-22 日本電気株式会社 情報処理システム、制御方法、及びプログラム記録媒体
JP2016018252A (ja) * 2014-07-04 2016-02-01 三菱電機株式会社 情報処理装置及び情報処理方法及びプログラム
JP2016218981A (ja) * 2015-05-26 2016-12-22 ソニー株式会社 表示装置、情報処理システム及び制御方法
JP2017027206A (ja) * 2015-07-17 2017-02-02 キヤノン株式会社 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
伊藤 和幸 他: "注視点の仮想拡大表示による視線入力補助方法", 日本バーチャルリアリティ学会論文誌, vol. 第6巻 第3号, JPN6021043064, 2001, JP, pages 185 - 191, ISSN: 0004630685 *
伊藤 和幸 他: "重度肢体不自由者向けの視線入力コミュニケーション装置", 電子情報通信学会論文誌 D[オンライン], vol. 83, no. 5, JPN6021043062, May 2000 (2000-05-01), JP, pages 495 - 503, ISSN: 0004630687 *
蜂巣 健一: "ディスプレイユーザインタフェース[第2回]", 映像情報メディア学会誌, vol. 第68巻 、第8号, JPN6021043063, 2014, JP, pages 636 - 42, ISSN: 0004630686 *

Also Published As

Publication number Publication date
WO2017187708A1 (ja) 2017-11-02
CN109074212A (zh) 2018-12-21
US11017257B2 (en) 2021-05-25
EP3451135A1 (en) 2019-03-06
EP3451135A4 (en) 2019-04-24
JP7092028B2 (ja) 2022-06-28
US20190026589A1 (en) 2019-01-24
CN109074212B (zh) 2021-12-31

Similar Documents

Publication Publication Date Title
WO2017187708A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11093045B2 (en) Systems and methods to augment user interaction with the environment outside of a vehicle
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
KR102473259B1 (ko) 시선 타겟 애플리케이션 런처
JPWO2017104207A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019187487A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017129904A (ja) 情報処理装置、情報処理方法、及び記録媒体
US11803233B2 (en) IMU for touch detection
US11151804B2 (en) Information processing device, information processing method, and program
CN109844600B (zh) 信息处理设备、信息处理方法和程序
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
WO2019142560A1 (ja) 視線を誘導する情報処理装置
WO2018179661A1 (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2018146922A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230086766A1 (en) Attention tracking to augment focus transitions
US20230222738A1 (en) Information processing apparatus, information processing method, and program
WO2019054037A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3851939A1 (en) Positioning a user-controlled spatial selector based on extremity tracking information and eye tracking information
WO2020184317A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20210232219A1 (en) Information processing apparatus, information processing method, and program
WO2019138682A1 (ja) 情報処理装置、情報処理方法及びプログラム
US11768535B1 (en) Presenting computer-generated content based on extremity tracking
EP4220355A1 (en) Information processing device, information processing method, and program
EP2886173B1 (en) Augmented reality overlay for control devices
WO2023069591A1 (en) Object-based dual cursor input and guiding system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R151 Written notification of patent or utility model registration

Ref document number: 7092028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151