WO2019244670A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2019244670A1
WO2019244670A1 PCT/JP2019/022698 JP2019022698W WO2019244670A1 WO 2019244670 A1 WO2019244670 A1 WO 2019244670A1 JP 2019022698 W JP2019022698 W JP 2019022698W WO 2019244670 A1 WO2019244670 A1 WO 2019244670A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual object
display
user
visibility
information processing
Prior art date
Application number
PCT/JP2019/022698
Other languages
English (en)
French (fr)
Inventor
野田 卓郎
慧 新田
横山 正幸
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2019244670A1 publication Critical patent/WO2019244670A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Definitions

  • FIG. 2 is a diagram illustrating a state in which the user visually recognizes the real space via the display device D1 and a state of the user's gaze at that time.
  • the virtual object K1 is displayed in the display area.
  • the user U visually recognizes the displayed virtual object K1 and starts watching the virtual object K1.
  • the gaze determination unit 124 determines whether to gaze or to perform free vision, and can further determine whether fixation or tracking is performed even during gaze.
  • the gaze determination unit 124 outputs the result of the gaze determination to the display control unit 126.
  • a display mode (third display mode) having a transmittance higher than 0% and lower than 50% can be expressed.
  • the display device 200 has a third transmittance having a transmittance larger than that of the first display mode of 0% and smaller than that of the second display mode of 50%.
  • the display mode may be displayed again.
  • the transmittance of the display mode is changed from 50% (first display mode) to 30% (second display mode), and the transmittance is again changed to 50% (first display mode). It goes without saying that the visibility may be lowered and raised by returning.
  • the display device when a display device is used in an automobile, the display device may be a projector that projects an image on a front window, a rear window, or the like.
  • a projector When an image is projected by a projector, it is not necessary to provide an electronic circuit configuration in a display area (for example, a rear window itself or a front window itself). That is, since it is not necessary to separately provide a complicated circuit or a light guide plate in the display area, even when the technology of the present disclosure is applied, parts corresponding to the display area can be easily replaced.
  • the CPU 901, the ROM 902, and the RAM 903 are interconnected by a host bus 904a including a CPU bus and the like.
  • the host bus 904a is connected via a bridge 904 to an external bus 904b such as a PCI (Peripheral Component Interconnect / Interface) bus.
  • PCI Peripheral Component Interconnect / Interface
  • the host bus 904a, the bridge 904, and the external bus 904b do not necessarily need to be separately configured, and these functions may be mounted on one bus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ユーザの周囲への注意力を高めつつ、移動端末の使用上の快適性を高める。移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置(200)を制御し、かつ、低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部(126)、を備える情報処理装置(100)を提供する。これにより、ユーザの周囲への注意力を高めつつ、移動端末の使用上の快適性を高めることができる。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
 近年、現実空間(以下、実空間と称す。)に、付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれるAR重畳技術が開発されている。重畳される付加的な情報は、テキスト、アイコンまたはアニメーションなど様々な種類の仮想オブジェクトがユーザに呈示されることで可視化され得る。
 特許文献1では、ユーザの頭部の動きを検出して表示等を出力制御する技術が開示されている。例えば、特許文献1に開示の技術では、階段を昇降する等のユーザの行動を検出し、該階段に仮想オブジェクトが重畳されないように表示が制御されている。
国際公開第2015/068440号
 しかし、ユーザの所定の身体的な動作に応じて仮想オブジェクトの表示を一律に制限してしまうと、仮想オブジェクトに関連付けられたコンテンツの利用が必要以上に制限される可能性がある。
 上記事情に鑑みれば、ユーザの周囲への注意力を高めつつ、移動端末の使用上の快適性を高めることが望ましい。
 本開示によれば、移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部、を備える情報処理装置が提供される。
 また、本開示によれば、プロセッサが、移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御すること、を含む情報処理方法が提供される。
 また、本開示によれば、コンピュータを、移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部として機能させるための、プログラムが提供される。
 本開示によれば、ユーザに対する注視判定に基づいて、仮想オブジェクトの視認性を低下させることにより、ユーザの注意を仮想オブジェクト以外の周囲へ移行させることができる。また、本開示によれば、ユーザの注意を仮想オブジェクト以外の周囲へ移行させた後、低下させた仮想オブジェクトの視認性を上昇させることができる。
 本開示によれば、ユーザの周囲への注意力を高めつつ、移動端末の使用上の快適性を高めることができる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の技術を適用した表示装置の一例を示す図である。 本開示の技術を適用した表示装置の一例を示す図である。 本開示の技術の概要を説明する図である。 本開示の技術の一実施形態に係る情報処理装置のシステム構成を示すブロック図である。 同実施形態に係る情報処理装置の情報処理フローを説明するフローチャートである。 同実施形態に係る情報処理装置の制御の一例を示す図である。 同実施形態に係る情報処理装置の制御の一例を示す図である。 同実施形態に係る情報処理装置の制御の一例を示す図である。 同実施形態に係る情報処理装置の制御の一例を示す図である。 同実施形態に係る情報処理装置の制御の一例を示す図である。 同実施形態に係る情報処理装置の制御の一例を示す図である。 同実施形態に係る情報処理装置の制御の一例を示す図である。 同実施形態に係る情報処理装置の制御の一例を示す図である。 同実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の技術概要
  1.1.本開示の技術が使用される際に用いられる表示装置の一例
  1.2.技術概要
 2.システム構成
 3.動作フロー
 4.視認性低下の具体例
 5.変形例
 6.ハードウェア構成
 (1.本開示の技術概要)
 (1.1.本開示の技術が使用される際に用いられる表示装置の一例)
 まず、図1A及び図1Bを参照して、本開示の技術が適用される情報処理システムに関して説明を行う。該情報処理システムでは、移動端末の表示領域に表示される仮想オブジェクトの視認性を制御する。図1Aは、情報処理システムとしてヘッドマウントディスプレイ(HMD:Head Mounted Display)の一例を示した図であり、図1Bは情報処理システムがスマートフォンに適用された一例を示した図である。
 図1Aに示す表示装置D1は、例えばユーザの頭部を周回するようなフレーム構造の装着ユニットd10を持ち、装着ユニットd10によりユーザの頭に固定される。そしてこの表示装置D1には、ユーザの眼前に、左眼用と右眼用の一対の表示部d20a及びd20b(以下、両眼の表示部を示す場合、d20と称す。)が配置される。
 この表示部d20には、例えば透過型のディスプレイが用いられ、表示装置D1は透過型のディスプレイの透過率を制御することで、表示部d20をスルー状態(即ち透明)または半透明の状態に制御することができる。表示部d20がスルー状態とされることで、表示装置D1を眼鏡のように使用できるため、ユーザが表示装置D1を常時装着していても通常の生活には支障がない。
 表示部d20は、透明または半透明の状態のまま、テキストや図等の画像を表示することで、実空間の風景に仮想オブジェクトを重畳表示することができる。即ち、表示装置D1は、透過型のHMDとして実現され得る。なお、透過型のHMDにおいては、装着ユニットd10により表示装置D1がユーザの頭に固定されて、ユーザの両眼と表示部d20との相対的な位置関係が固定化され得る。
 また、表示部d20は、非透過型の表示装置として構成されてもよい。表示部d20では、カメラ等で撮像された実空間の撮像画像を表示しつつ、当該実空間の撮像画像に仮想オブジェクトを重畳表示することが可能である。また、表示部d20は、カメラ等であたかも実空間を撮像したかのような仮想空間の画像を表示しつつ、当該仮想空間の画像に仮想オブジェクトを重畳表示することも可能である。言い換えると、表示装置D1は、没入型(ビデオシースルー型)のHMDとして実現されてもよい。
 他にも、表示部d20は、ユーザの網膜に直接的に画像を投影するLED(Light Emitting Diode)光源等として実現されてもよい。即ち、表示装置D1は、プロジェクション型のHMDとして実現されてもよい。
 表示部d20には、多様なコンテンツが仮想オブジェクトとして表示され得る。コンテンツは、例えば、ユーザが他のユーザから受信したテキスト内容、ユーザが作成するテキストの入力画面、実オブジェクトに対応する付加的な情報、映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像された静止画コンテンツ、電子書籍等のデータであってもよい。また、かかるコンテンツは、ユーザがパーソナルコンピュータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、ゲームプログラムに基づくゲーム画像など、表示対象となるあらゆるデータが想定される。
 また、図1Aでは図示していないが、表示装置D1は、スピーカ又はイヤホンスピーカ等の音声出力機能を有していてもよい。また、表示装置D1は、外部音声を取得するマイクロフォンを有していてもよい。
 なお、図1に示す表示装置D1の外観は一例であり、表示装置D1をユーザが装着するための構造は多様に考えられる。表示装置D1は、一般に眼鏡型、あるいは帽子型とされる装着ユニットで形成されればよく、本実施の形態としては、少なくともユーザの眼前に近接して表示部d20が設けられていればよい。また、表示部d20は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
 また、スピーカ又はイヤホンスピーカも、左右の耳に対応して2つ設けられてもよいし、片方の耳に対応して1つ設けられてもよい。また、マイクロフォンも、1つ以上設けられてもよい。スピーカ又はイヤホンスピーカ、及びマイクロフォンの配置位置は任意である。
 図1Aでは、表示装置D1の表示領域を通して、ユーザUが実空間を視認した様子も合わせて示している。ユーザUが視認する実空間には、歩行者V1が存在し、歩行者V1に重畳されて、仮想オブジェクトK1が表示されている。
 本開示の技術は、移動端末の表示領域に仮想オブジェクトを表示し、実空間に重畳表示する、表示装置D1のような表示装置を制御する際に適用され得る。ただし、本開示の技術は、かかる例に限定されない。本開示の技術は、例えば図1Bに示すようなスマートフォンD2などの移動端末を通して、実空間に仮想オブジェクトを重畳表示させる表示装置を制御する際に適用されてもよい。図1Bでは、ユーザUがスマートフォンD2越しに、実空間を視認する様子を示している。この時、ユーザUがスマートフォン越しに視認する実空間には、歩行者V1が存在し、歩行者V1に重畳されて、仮想オブジェクトK1が表示されている。
 (1.2.技術概要)
 以上までで、移動端末、及び表示装置の例を説明した。本開示の技術は、上記のような仮想オブジェクトを表示する表示領域を有した移動端末をユーザが使用して、移動しながら表示領域を視認する最中に使用され得る。ユーザが表示領域を有する移動端末にて仮想オブジェクトを注視すると、多くの場合ユーザの意識が仮想オブジェクトに向いてしまう。この場合、ユーザは、仮想オブジェクト以外の物体、例えば、実空間の環境に対して払う注意がおろそかになってしまうことがある。本開示の技術では、注視判定により予想される仮想オブジェクトに向かったユーザの注意を該仮想オブジェクトから逸らし、ユーザが周囲に注意を払うよう補助を行う。
 図2を参照して、仮想オブジェクトへの注視を抑制する具体的な例を説明する。図2は、ユーザが表示装置D1を介して実空間を視認した様子とそのときのユーザの視線状況を示した図である。表示領域には、仮想オブジェクトK1が表示されている。この時、ユーザUは、表示された仮想オブジェクトK1を視認し、仮想オブジェクトK1を注視し始める。
 ユーザUが仮想オブジェクトを注視している場合、ユーザUが仮想オブジェクト以外、例えば、周囲に対して注意を払っていない場合が考えられるため、ユーザの注意力が低下する。本開示の技術では、移動端末の表示領域に表示された仮想オブジェクトK1をユーザが注視していると判定された場合、該仮想オブジェクトの視認性を低下させる。
 例えば、図2では、注視が判定され、表示領域から仮想オブジェクトK1が消去されることで、仮想オブジェクトの視認性が低下させられている。これにより、ユーザが仮想オブジェクトK1を注視することにより、ユーザの周囲への注意力が低下していたが、該仮想オブジェクトK1の視認性が低下することにより、該注意力を向上させることができる。
 図2では、消去された仮想オブジェクトK1に対応する領域K10を示している。この領域K10は、図2に示すように矩形の領域としてユーザUに提示されても良い。これにより、ユーザUは仮想オブジェクトに関するコンテンツが一時的に非表示となっているものの、依然として起動中であることを認識することが出来る。もちろん、図5の実施例等のように、仮想オブジェクトに対応する領域は表示されなくても良い。
 そして、図2においては、ユーザが注視を解除して、自由視になったと判定された場合に、仮想オブジェクトK1が再表示されている。すなわち、本開示の技術では、低下させた該仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう表示装置を制御することができる。これにより、ユーザは再操作等の必要なく、仮想オブジェクトを再確認することができ、ユーザが移動端末を使用する上での快適性を高めることができる。
 以上の様に、本開示の技術は、仮想オブジェクトの視認性を低下させた後、上昇させるように表示装置を制御することで、ユーザの周囲への注意力を高めつつ、移動端末の使用上の快適性を高めることができる。
 (2.システム構成)
 ここでは、情報処理システム1000に関して、図3を参照して説明する。図3は、同実施形態に係る情報処理システム1000の構成の一例を示すブロック図である。
 情報処理システム1000は、検出部110と制御部120と、を備える。情報処理システム1000は、検出部110から検出された検出情報に基づいて、制御部120にてユーザの注視判定を行い、注視判定結果に応じて、表示装置の制御を行う機能を有する。
 検出部110は、外環境検出部112と、視線検出部114と、ユーザ行動検出部116と、を備える。検出部110は、後述するハードウェア構成におけるカメラ915、センサ917等から、注視判定に基づいて表示装置を制御する上で使用する情報を検出する機能を有する。
 (外環境検出部112)
 外環境検出部112は、カメラまたはセンサ等から取得した外環境情報に基づいて、実空間に存在する物体を検出し、外環境検出情報を取得する機能を有する。外環境検出情報とは実空間に存在する物体に関する情報と崖または穴等の地理的な情報とを含み得る。実空間に存在する物体とは、動体または不動体であってよい。さらには、ユーザが移動するにあたり接近する物体であってもよく、ユーザに向かって接近してくる物体であってもよい。物体は、人、動物、車等を含む。また、実空間に存在する物体はユーザに対して障害物となり得る物体であってよい。
 すなわち、本開示における外環境検出情報とは、ユーザが移動している際にユーザの安全に悪影響を及ぼす外環境のファクターに関する情報と見做されてもよい。なお、カメラで取得された撮像画像は、画像解析処理が行われ得る。それらの画像解析の結果等から、外環境検出部112では、例えば、注視判定に使用される外環境検出情報が検出され、制御部120に出力される。
 (視線検出部114)
 視線検出部114は、移動端末の表示領域を通して実空間を視認するユーザの視線を検出し、その視線情報を、制御部120に出力する機能を有する。視線情報は、眼球運動の検出、瞳孔検出、または視線検出により取得された情報である。視線情報は、例えば、カメラ等によりユーザの眼を撮像し、画像処理を行うことで取得され得る。
 視線検出に用いられる手法としては、例えば、光源の光が角膜において反射された角膜反射像を用いる角膜反射法を利用する方法がある。この角膜反射法を利用して、視線情報を取得する場合には、例えば、光源からの光が照射される眼を撮像することが可能な任意の撮像デバイスにより撮像された画像を用いて、視線情報が取得される。光源は、表示装置に備えられる光源であってもよいし、表示装置に依存しない独立の光源であってもよい。光源は、光源にて発生させた光がユーザの眼に照射される位置に設けられればよい。
 視線情報は、眼電位により取得した眼球運動に関する情報であってもよい。眼電位により視線情報を取得するには、ユーザの頭部又は顔部に接触して眼電位を検出する眼電センサを用いてもよい。眼球運動のばらつき(分散値)に関する情報であってもよい。このような視線検出により、ユーザの注視判定を行うことに関する説明は後述する。
 (ユーザ行動検出部116)
 ユーザ行動検出部116は、ユーザの行動に関する情報を取得して、制御部120に出力する機能を有する。ユーザの行動に関する情報とは、ユーザの移動状態、またはユーザと他のユーザとのコミュニケーション状態に関する情報を含む。ユーザの移動状態とは、例えば、歩行中、停止中等のユーザ状態を挙げることができる。
 ユーザの行動に関する情報は、外環境検出部112と同様にカメラ、各種センサ等により取得可能である。使用されるセンサとしては、例えば、加速度センサやジャイロセンサが挙げられる。このような各種センサは、ユーザに装着されたり、ユーザが装着するHMD等に搭載されたりしてもよい。
 また、ユーザの行動に関する情報は、マイクロフォンを用いてユーザの音声等を検出することにより取得されてもよい。例えば、ユーザが装着するHMD等にマイクロフォンが搭載されることで、周囲の環境音、ユーザ及び他人の話声を検出して、ユーザの行動に関する情報は取得されてもよい。
 (制御部120)
 次に、制御部120に関して説明する。制御部120は、検出情報取得部122と、注視判定部124と表示制御部126とを備える。制御部120は、検出部110から取得した検出情報を用いて、ユーザが注視状態にあるかを判定し、判定結果に応じて、表示装置200を制御する機能を有する。
 検出情報取得部122は、検出部110にて取得された検出情報を取得して、注視判定部124に出力する機能を有する。
 (注視判定部124)
 注視判定部124は、検出情報取得部122から取得した情報に基づいて、ユーザの注視状態を判定し、判定結果を表示制御部126に出力する機能を有する。以下では、ユーザの注視に関して説明を行う。
 注視とは、表示領域及び実空間を視認している最中に、表示領域及び実空間における任意の場所、物体を固視する状態、または、表示領域に表示される仮想オブジェクト等及び実空間に存在する物体等を追跡している状態を示す。また、注視以外の視線状態を自由視と称す。
 [注視判定手法]
 注視の判定方法として、大まかに3つの手法に分別することができる。まず、第一の手法は、視線の移動速度または移動距離が所定の閾値よりも低い場合に注視と判定する方法である。視線の移動速度または移動距離が低いほど、ユーザは、より狭い範囲に対して視認をしている状態であるため、注視を行っている可能性が高い。所定の閾値は、ユーザの設定、外環境、表示装置の種類等に応じて適宜決定され得る。例えば、具体的には、視線の移動速度が20°/secよりも低ければ、注視とみなしてもよく、より注視とみなす範囲を広範囲としたい場合には、100°/secよりも低ければ、注視とみなしてもよい。
 第2の手法は、複数の視点同士の距離が所定の距離よりも近い場合に、注視と判定する方法である。この手法では、まず、任意の時間における視線範囲の視点同士をグルーピングする。ここで、該任意の時間における視線範囲内の視点の分布範囲を注視判断の基準とする。次に、視点の最小全域木を構成し、他の視点同士よりも距離が短い視点同士をクラスタリングすることで注視判定を行う。
 第3の手法は、視点が予め定義された注目領域内にあれば注視とみなす方法である。第3の手法は、第1及び第2の手法よりも精度よく注視判定を行うことができる。この手法では、ユーザの視点が注目領域内に存在する時間が所定の時間を経過した場合に注視とみなす。
 以上の様に、種々の方法を用いて、注視判定が行われてよい。一方で、これまでには、静止画の撮像画像を画像解析することにより、注視判定が行われることが多かったが、近年は、動画の撮像画像を画像解析することにより、注視のうち追跡視に関する注視判定をさらに行うことが増加している。
 注視の中でも、特に追跡視の判定に対応した手法を説明する。まず第1の手法として、I-VDTと称される手法が挙げられる。この手法では、注視の内で固視であるか、追跡視であるかの判定が、視線位置及び視線速度を用いて行われる。この手法では、まず注視であるか、自由視であるかの判定が行われ、注視と判定された視点群から追跡視を判定する。具体的には、視点の移動速度が所定の閾値以上であるグループから、移動距離が所定の閾値以下の視点群を抽出することで追跡視を判定する。
 第2の手法として、I-BDTと称される任意の時間内で視点速度がゼロ以外の視点数を用いて、追跡視の尤度算出指標とする方法がある。注視または自由視の尤度は、それぞれ注視または自由視にて規定した所定の視点速度範囲内における視点数から求めることができる。
 第3の手法として、視点に関する情報と、視点周囲の画像情報と、を用いて注視判定する手法が挙げられる。視点に関する情報とは、視点位置、視点速度、視点の加速度、視線変化率等に関する情報を含む。これらの情報に基づいて、注視点を抽出する。次に、該注視点の周囲の画像をデータ処理することにより、注視判定を行う。この手法は、視点の周囲の画像データを使用し、追跡先に存在する物体等と照合して、注視判定が可能であるため、注視判定をより精度よく行うことができる。
 以上の様に、注視判定部124では、注視及び自由視の判定を行い、更には注視の中でも固視及び追跡視が判定できる。そして、注視判定部124は、注視判定の結果を表示制御部126に出力する。
 (表示制御部126)
 表示制御部126は、注視判定部124から注視判定結果を取得し、該注視判定結果に基づいて、表示装置200を制御する機能を有する。具体的には、表示領域に表示された仮想オブジェクトの視認性を低下させるよう表示装置200を制御し、かつ、低下させた仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう表示装置200を制御する。
 例えば、仮想オブジェクトの視認性の低下は、該仮想オブジェクトが移動することにより行われてもよい。例えば、表示制御部126は、仮想オブジェクトをユーザの注視点から外れるように移動させることで、ユーザの仮想オブジェクトに対する視認性を低下させ得る。
 また、例えば、仮想オブジェクトの視認性の低下は、仮想オブジェクトの表示態様が変化することで行われてもよい。例えば、表示制御部126は、仮想オブジェクトの表示態様を、第1の視認性を有する第1の表示態様から第1の視認性よりも小さい第2の視認性を有する第2の表示態様に変化させることで、仮想オブジェクトの視認性を低下させるよう表示装置200を制御してもよい。仮想オブジェクトの表示態様の変化とは、仮想オブジェクトの消去および再表示、仮想オブジェクトの透過度の変化等が挙げられる。なお、特段の言及が無い限り、本開示において“消去”は、不完全な“消去”と、完全な“消去”を含み得る点に留意されたい。
 仮想オブジェクトの視認性を低下又は上昇させることができれば、表示装置200の制御は表示領域上の表示態様の変化に関する制御に限定されない。例えば、表示装置200がスピーカ等の出力装置を有する場合には、出力装置を制御することにより、仮想オブジェクトに対する視認性を低下させ、かつ、低下させた仮想オブジェクトの視認性を、所定の条件に基づいて上昇させてもよい。具体的には、ある仮想オブジェクトをユーザが注視していると判定した場合に、スピーカ等からアラームを鳴らすことにより、ユーザに対して仮想オブジェクトへの注視を解除するよう促してもよい。このときに所定の条件に基づいて、アラームを消すことにより、ユーザは注視を再開し、ユーザの仮想オブジェクトへの視認性は向上する。
 一方で、仮想オブジェクトの視認性を上昇させる所定の条件は、ユーザが仮想オブジェクトへの注視を解除したと判定されることであってよい。表示制御部126は、ユーザが仮想オブジェクトへの注視を解除したと判定されると、仮想オブジェクトの視認性を上昇させてよい。
 また、仮想オブジェクトの視認性を上昇させる所定の条件は、他には、仮想オブジェクトの視認性を低下させてから所定の時間が経過することであってよい。所定の時間は、ユーザ設定、使用シーン等に応じて適宜決定されてよい。
 表示制御部126は、上述の2項目の所定条件に加えて、実空間に存在する物体の検出に関する情報である外環境検出情報にさらに基づいて、仮想オブジェクトの視認性を上昇させてもよい。これにより、表示制御部126は、仮想オブジェクトへの注視が解除されていても、ユーザにとって依然として外環境に注意を払うべき場合に、視認性を低下させて、ユーザへの注意喚起を維持することができる。
 例えば、表示制御部126は、ユーザの移動状態、又はユーザと他のユーザとのコミュニケーション状態に関するユーザ情報にさらに基づいて、仮想オブジェクトの視認性を上昇させるよう表示装置200を制御してもよい。これにより、例えば、注視は解除されて、仮想オブジェクトの視認性を上昇させる場合に、表示制御部126は、ユーザが歩行中であるか、停止中であるか等に応じて、仮想オブジェクトの視認性を上昇させることができる。例えば、ユーザが歩行中であれば、表示制御部126が仮想オブジェクトの視認性を上昇させてもユーザが周囲へ注意を払える可能性が高い。一方で、ユーザが走っていれば、ユーザが周囲へ注意を払える可能性は、歩行中よりも低い。この様な場合は、ユーザが歩行中であるか、走っている最中であるか等のユーザの移動状態に応じて、表示制御部126は、仮想オブジェクトの視認性を上昇させるか否かの判断を行ってもよい。
 また、移動端末のユーザが他のユーザとコミュニケーション状態にある場合、仮想オブジェクトの視認性を上昇させると、仮想オブジェクトに視線が誘導され得ることで、ユーザが煩わしく感じてしまう可能性が高い。この様な場合には、移動端末のユーザが他のユーザとコミュニケーション状態にあるか否かに応じて、表示制御部126は、仮想オブジェクトの視認性を上昇させるか否かの判断を行ってもよい。
 (3.動作フロー)
 以上までで、情報処理システム1000における各構成に関して説明を行った。次に、図4を参照して、情報処理システム1000の動作フローの説明を行う。図4は、本実施形態による表示装置の制御処理を示すフローチャートである。
 まず、表示領域を有する移動端末が移動中であるか否かを判断する(S102)。移動端末が移動中と判断されたら(S102/Yes)、次処理へ進み、移動端末が移動中でないと判断されたら(S102/No)、移動端末が移動中であるか否かが再度判断される。移動端末の移動判定は、常時繰り返し行われてもよい。なお、ステップS102において、移動判定とともに外環境条件の判定を行い、ユーザの安全に影響を及ぼすファクターが外環境に存在する場合にのみ、次処理へ進んでもよい。このように構成することで、移動中であっても、ユーザの安全が確保されている間は、ユーザがコンテンツを楽しむことができるため、ユーザビリティを向上させることができる。外環境条件の判定は、後述するステップS116の判定と同様に行われてよい。
 なお、移動端末の移動判断は、ユーザの行動検出結果により判断されてよく、更には、ユーザの行動検出結果だけでなく、ユーザの位置情報等を併用して判断されてよい。これにより、例えば、ユーザが移動体に乗っている場合に、移動端末の移動が、移動体起因の移動であるか、ユーザ起因の移動であるのかを判断することができ、より精度よく移動端末が移動中であるか否かの判断を行うことができる。これにより例えば、移動端末を装着したユーザが列車などの移動体に乗車中に、ユーザが座席に座っているにも関わらず、情報処理装置が移動端末を移動中と判断するような誤判定を防止することができる。
 次に、ユーザの視線の動きが計測される(S104)。ユーザの視線の動きは、眼球運動の検出、瞳孔検出、または視線検出により把握される。
 次に、ユーザの注視判定が開始し、計測された視線の動きから、ユーザが仮想オブジェクトに対して固視しているか否かが判断される(S106)。ユーザが固視していると判断されなかった場合(S106/No)、ユーザが仮想オブジェクトに対して追跡視をしているか否かが判断される(S108)。ユーザが追跡視をしていないと判断された場合(S108/No)、表示装置の制御は終了する。すなわち、移動端末の移動中に仮想オブジェクトをユーザが注視していないと判定された場合、表示装置により表示されている仮想オブジェクトの視認性は実質的に維持されるものと見做されてよい。なお、移動端末の移動中に仮想オブジェクトをユーザが注視していないと判定された場合であっても、外光の変化に応じた仮想オブジェクトの輝度調節制御等、従来周知の視認性に関する表示制御は行われ得る点に留意されたい。
 このような表示制御により、移動中に仮想オブジェクトが一律に非表示となることが抑制される。すなわち、移動端末の移動中であっても、ユーザが瞬間的に仮想オブジェクトを視認するのみであれば、仮想オブジェクトの表示は維持される。したがって、仮想オブジェクトに関連するコンテンツの利用シーンを適応的に拡張することが可能となる。
 一方、ユーザの注視判定にて、ユーザが固視をしている(S106/Yes)、またはユーザが追跡視をしている(S108/Yes)と判断された場合、次処理へ移行する。すなわち、移動端末の表示領域に表示された仮想オブジェクトを移動端末の移動中にユーザが注視していると判定された場合、次処理へ移行する。なお、注視判定に要する時間は、ユーザ設定または、ユーザの移動状態、外環境検出情報等に応じて適宜決定され得る。例えば、ユーザの移動速度が速い程、周囲に注意を払う必要があるため、注視判定に要する時間設定を短縮させてもよい。また、例えば、ユーザの安全に悪影響を及ぼす外環境のファクターが多いほど、注視判定に要する時間設定を短縮させてもよい。
 次処理では、情報処理装置100により、仮想オブジェクトの視認性が低下される(S110)。ここでは、移動端末の表示領域における仮想オブジェクトへのユーザの注視が抑制できれば、仮想オブジェクトの視認性を低下させる方法は限定されない。視認性の低下方法として、表示領域における仮想オブジェクトの表示態様の変更による方法、表示装置がスピーカ等を有していれば、音声等を出力する方法等を採用してもよい。
 次に、仮想オブジェクトの視認性が低下されてから、所定の時間が経過したか否かが判断される(S112)。所定の時間が経過したと判断された場合(S112/Yes)、次処理へ移行し、所定の時間が経過していないと判断された場合(S112/No)、再度所定の時間が経過したか否かが判断される。所定の時間は、ユーザの設定または外環境等により、適宜設定されてよい。
 次に、ユーザの注視が解除されたか否かが判断される(S114)。注視が解除されたと判断された場合(S114/Yes)、次の条件の判断に移行する。注視が解除されていないと判断された場合(S114/No)、仮想オブジェクトの視認性が再度低下されたり、視認性が低下された仮想オブジェクトの表示が維持されたりする。
 次に、外環境条件を満たしているか否かが判断される(S116)。外環境条件とは、実空間に存在する物体等に関し、ユーザの足元に障害物がないか、ユーザの進行方向に危険箇所、例えば、崖等がないか等の条件であってよい。例えば、ユーザの足元に障害物等が存在する場合、視認性を上昇させるとユーザの安全性が低下するため、仮想オブジェクトの視認性を上昇させなくともよい。このように、ユーザの周囲の外環境に関する条件を満たしているか否かが判断され、該条件が満たされていない場合(S116/No)は、仮想オブジェクトの視認性は低下された状態を維持されてもよく、若しくはさらに低下されてもよい。一方、該条件が満たされた場合(S116/Yes)は、次処理へ移行する。
 次の処理では、ユーザの行動条件を満たしているか否かが判断される(S118)。ユーザの行動条件とは、例えば、ユーザが他のユーザとのコミュニケーション状態にない等の条件である。ユーザが他のユーザとコミュニケーション状態にある場合に、仮想オブジェクトの視認性を上昇させると、ユーザが煩わしく感じる。よって、このような場合には、ユーザの行動条件を満たしていないと判断され(S118/No)、仮想オブジェクトの視認性は低下状態を維持してもよく、若しくはさらに低下されてもよい。
 言い換えると、移動端末のユーザが仮想オブジェクトへの注視を解除したと判定された場合であっても、移動端末のユーザ(第1のユーザ)と対面する他のユーザ(第2のユーザ)とのコミュニケーション状態が継続している場合、仮想オブジェクトの視認性の上昇が抑制されると良い。この場合、コミュニケーション中の仮想オブジェクトの視認性の上昇によりユーザの注意が不必要に仮想オブジェクトに惹きつけられることが抑制される。これにより、本開示の表示制御のユーザビリティが更に改善し得る。
 一方、ユーザは他のユーザとコミュニケーション状態でなく、ユーザの行動条件を満たしたと判断された場合には(S118/Yes)、仮想オブジェクトの視認性は上昇される(S120)。
 以上までで、表示装置の制御フローを説明した。外環境条件及びユーザの行動条件は、常時判断されなくてもよい。また、視認性を上昇させ得る条件は、かかる例に限定されず、適宜ユーザ等に応じて決定されてよい。
 (4.視認性低下の具体例)
 次に、仮想オブジェクトの視認性を低下させる具体例を図5~図9Dを参照して説明を行う。
 図5は、歩行中のユーザが移動端末の表示領域に表示された仮想オブジェクトK2を注視する場面である。ユーザは歩行中であり、仮想オブジェクトK2を注視しているため、情報処理装置100は、表示装置200を制御し、仮想オブジェクトK2を完全に消去している。なお、ユーザの注視が解除されたら、情報処理装置100は、表示装置200を制御して、消去された仮想オブジェクトK2を再表示してもよい。
 図6は、歩行中のユーザが移動端末の表示領域に表示された仮想オブジェクトK2を注視する場面であり、さらに対面から歩行者が接近している。このとき、ユーザは仮想オブジェクトK2を注視しているため、情報処理装置100は、表示装置200を制御し仮想オブジェクトK2を完全に消去している。ユーザの注視が解除されたら、さらに外環境条件を満たすか否かが判断される。このとき、情報処理装置100は、ユーザに対して歩行者が接近している場合、仮想オブジェクトK2は、消去されたままの表示状態を維持するように表示装置200を制御してもよい。この後、情報処理装置100は、歩行者がユーザの前を過ぎ去り、外環境条件が満たされたと判断された場合に、完全に消去されていた仮想オブジェクトK2を表示装置200に再表示させてもよい。
 図7は、歩行中のユーザが、メッセージを作成する場面であり、移動端末の表示領域にメッセージ作成画面の仮想オブジェクトK3が表示された場面を示している。この場合、メッセージ作成画面が完全に消去されると、ユーザはメッセージを作成できなくなる。このため、情報処理装置100は、視認性を低下させる方法として、メッセージ作成画面(仮想オブジェクト)の透過度を変更するように表示装置200を制御してもよい。仮想オブジェクトの透過度が高くなるほど、ユーザは仮想オブジェクトが重畳された実空間を認識しやすくなる。そのため、情報処理システム1000は、ユーザの安全性を向上することができる。この時、ユーザの注視状態が解除された場合には、情報処理装置100が表示装置200を制御して、メッセージ作成画面の透過度を低くして、メッセージ画面の視認性を上昇させることにより、ユーザがメッセージ作成画面を見やすくなるようにしてもよい。
 図8は、歩行中のユーザが、カフェテリアの看板R1を注視している場面である。これまでの例では、情報処理装置100の注視判定の対象として仮想オブジェクトを主として説明したが、実空間に存在する実オブジェクトを注視判定の対象としてもよい。よって、本開示の技術では、注視判定の注視対象が仮想オブジェクトに限らず実オブジェクトとしてもよい。
 また、図8では、ユーザが実オブジェクトを注視する際に、実オブジェクトの視認性を低下させるために、情報処理装置100は表示装置200を制御して、仮想オブジェクトの表示態様の変更ではなく、警告音声A1による視認性の低下を行っている。このように、表示装置200が、音声などを出力する出力装置の機能を有する場合には、情報処理装置100は表示態様の変更に限らず、音声等によって、注視対象への視認性を低下させてもよい。ここでは、聴覚を用いた音声による視認性の低下と説明したが、かかる例に限定されず、視認性の低下は、触覚を用いた振動等による視認性の低下であってもよい。
 図9Aは、歩行中のユーザが、移動端末の表示領域に表示された仮想オブジェクトK4を注視している場面である。さらに、歩行者V1がユーザに接近しており、仮想オブジェクトK4に重畳されている。この時、表示装置200は、歩行者V1とは重畳されない位置に、仮想オブジェクトK4を移動することで、仮想オブジェクトK4の視認性を低下させてもよい。このように、表示態様の変更は、外環境検出情報に応じて行われてもよい。
 図9Bは、歩行中のユーザが、移動端末の表示領域に表示された仮想オブジェクトK5を注視している場面である。このとき表示装置200は、仮想オブジェクトK5が表示領域を占有する占有領域を縮小することで、ユーザが視認できる実空間の範囲を拡大させることにより、仮想オブジェクトK5の視認性を低下させてもよい。
 図9Cは、歩行中のユーザが、カフェテリアの看板R2を注視している場面である。このとき、表示装置200は、新たな仮想オブジェクトK60を表示することにより、カフェテリアの看板R2に対する視認性を低下させ、注視を抑制してもよい。特に、このような実オブジェクトに対する注視である場合には、表示装置200は、新しい仮想オブジェクトを表示して、該表示に視線を誘導することにより、注視を抑制してもよい。
 図9Dは、歩行中のユーザが、移動端末の表示領域に表示された複数の仮想オブジェクトK7a、K7bを視認している場面である。このとき、表示装置200は、ユーザの注視範囲に応じて、該複数の仮想オブジェクトK7a、K7bから一部の仮想オブジェクトK7aを選択して、消去することにより、仮想オブジェクトの視認性を低下させてもよい。なお、仮想オブジェクトK7aは、ユーザの注視範囲R3に含まれる仮想オブジェクトであり、仮想オブジェクトK7bは、ユーザの注視範囲R3に含まれない仮想オブジェクトであると見做しても良い。この場合、ユーザは注視範囲外において、より具体的には周辺視野において、仮想オブジェクトK7bを依然として認識できる状態にある。このため、ユーザは仮想オブジェクトK7aの注視が制限されていることを認識する一方で、コンテンツ自体は依然として起動状態にあることを認識することができる。
 以上までで、視認性を低下させる具体例を説明した。視認性の低下の対象となるのは、仮想オブジェクトだけに限定されず、実オブジェクトであってもよい。さらに、表示態様の変更は、外環境およびユーザの行動等の情報に基づいて変更されてもよい。なお、視認性の低下は、表示態様の変化によって行われるだけではなく、音声の出力により行われてもよく、振動を発生させることなどにより行われてもよい。
 また、視認性を低下させる場合には、所定の表示優先度に応じて、仮想オブジェクトの視認性を低下させてもよい。表示優先度が高い仮想オブジェクトとは、表示領域において、ユーザに対する重要度が高いとされる仮想オブジェクトである。表示優先度は、ユーザにより予め設定されてもよく、または機械学習等により設定されてもよい。
 ユーザに対する重要度が高い仮想オブジェクトは、例えば、ユーザの安全に関する影響度合により決定され得る。ユーザの進行方向または周囲等に事故、災害等が発生し、事故情報及び災害情報をユーザが知らないまま移動を行うと、ユーザの安全に支障が生じ得る。よって、表示優先度が高いとされる事故情報、災害情報等に関する仮想オブジェクトは、ユーザが仮想オブジェクトを注視していると判定された場合であっても視認性の低下は行われなくともよい。なお、表示優先度は、上述のように事故情報及び災害情報等のユーザに対する影響度合により、決定されてよい。つまり、表示優先度は、事故情報及び災害情報の少なくとも一方に関連付けられていてよい。
 このように、表示制御部は、仮想オブジェクトが所定の表示優先度を有する場合には、ユーザが仮想オブジェクトを移動端末の移動中に注視していると判定された場合であっても、仮想オブジェクトの視認性を維持するように表示装置を制御して良い。
 また、表示領域に複数の仮想オブジェクトが表示されている場合に、表示優先度が高い仮想オブジェクトの視認性は低下されず、表示優先度が低い仮想オブジェクトは、視認性が低下されてもよい。よって、表示優先度に応じて、表示優先度が低いとされる一部の仮想オブジェクトの視認性が低下されてもよい。
 一方、視認性が低下された仮想オブジェクトは、所定の条件に基づいて、視認性を上昇される。仮想オブジェクトの視認性の上昇は、仮想オブジェクトの表示態様を視認性の低い第2の表示態様に変化させて(実質的に)消去した後、視認性の高い第1の表示態様に戻すことで、仮想オブジェクトを再度表示することにより行われてもよい。つまり、表示制御部は、表示態様を、第1の表示態様から第2の表示態様に変化させた後、第1の表示態様に変化させることで、低下させた仮想オブジェクトの視認性を上昇させるよう表示装置を制御してもよい。
 また、表示制御部は、表示態様を視認性の低い第2の表示態様に変化させた後、第2の視認性よりも大きくかつ第1の視認性より小さい第3の視認性を有する第3の表示態様に変化させることで、低下させた仮想オブジェクトの視認性を上昇させるよう表示装置を制御してもよい。すなわち、第3の表示態様は、第1の表示態様と第2の表示態様の中間の視認性を有するものと見做されてよい。この第3の表示態様に関する例としては、例えば、図7、図9A及び図9Bに示される表示態様の変化が挙げられる。
 図7では、視認性の低下及び上昇は、透過度の変更にて行われている。透過度の変更の場合、表示態様を変化させる前の表示態様と変化させた後の表示態様との間には、透過度の異なる表示態様が表現され得る。例えば、まず視認性の低下が、透過度0%から50%に変更され、次に行われる視認性の上昇は、透過度50%から30%に変更される場合で説明する。ここで、表示態様を変化させる前の表示態様(第1の表示態様)とは、透過度0%の仮想オブジェクトであり、変化させた後の表示態様(第2の表示態様)は透過度50%の仮想オブジェクトである。これらの表示態様の間には、透過度が0%より大きく、50%より小さい透過度を有する表示態様(第3の表示態様)が表現され得る。ここで、視認性の上昇の際に、表示装置200は、透過度が0%の第1の表示態様より大きく、透過度が50%の第2の表示態様より小さい透過度を有する第3の表示態様を再表示してよい。なお、表示装置200は、表示態様の透過度が50%(第1の表示態様)から30%(第2の表示態様)に変更され、再度透過度が50%(第1の表示態様)に戻ることで視認性の低下及び上昇を行ってもよいことは言うまでもない。
 図9Aにおいて、さらに具体的に説明すると、仮想オブジェクトK4は視認性を低下させる際に、歩行者V1に重畳される表示位置から、表示領域の左下に表示位置が移動している。ここで、表示態様を変化させる前の表示態様(第1の表示態様)とは、歩行者V1に重畳された仮想オブジェクトであり、変化させた後の表示態様(第2の表示態様)は表示領域の左下に存在する仮想オブジェクトである。これらの表示態様の間には、歩行者V1に重畳された表示位置から表示領域の左下の表示位置までの表示態様(第3の表示態様)が表現され得る。ここで、例えば、視認性の上昇の際に、表示装置200は、歩行者V1に重畳された表示位置の第1の表示態様から第2の表示態様が表示された表示領域の左下までを結んだ線上の中間点において、第3の表示態様の仮想オブジェクトを再表示してよい。なお、表示装置200は、仮想オブジェクトK4が歩行者V1に重畳された第1の表示態様から、表示領域の左下、つまり歩行者V1への重畳を避けた位置で表示される第2の表示態様に変更され、再度第1の表示態様が行われていた位置に戻ることで視認性の低下及び上昇を行ってもよいことは言うまでもない。
 図9Bにおいて、図9Aと同様に具体的に説明すると、視認性の低下及び上昇は、仮想オブジェクトの表示領域上の占有領域の変更にて行われている。占有領域の変更の場合、表示態様を変化させる前の表示態様(第1の表示態様)と変化させた後の表示態様(第2の表示態様)との間には占有領域の異なる表示態様(第3の表示態様)が表現され得る。例えば、まず視認性の低下が、占有領域50%から30%に変更され、次に行われる視認性の上昇は、占有領域30%から40%に変更される場合で説明する。ここで、第1の表示態様は、占有領域50%の仮想オブジェクトであり、第2の表示態様は、透過度30%の仮想オブジェクトである。これらの表示態様の間には、占有領域が50%を示す第1の表示態様より小さく、30%を示す第2の表示態様より大きい占有領域を有する第3の表示態様が表現され得る。なお、表示装置200は、表示態様の占有領域が50%(第1の表示態様)から30%(第2の表示態様)に変更され、再度占有領域が50%(第1の表示態様)に戻ることで視認性の低下及び上昇を行ってもよいことは言うまでもない。
 (5.変形例)
 本実施形態では主に、ユーザが歩行中である場合に関して説明を行った。本開示の技術は、係る例に限定されず、変形例として自動車にも適用され得る。この場合、自動車全体を移動端末と捉えてもよい。表示装置としては、例えば、自動車のダッシュボードまたはルーフ等の内装面に設置されるヘッドアップディスプレイ(HUD:Head-Up Display)であってもよい。また、自動車においては、フロントウィンドウ、リアウィンドウ等に透過型ディスプレイを採用し、実空間の風景に重畳させて仮想オブジェクトを表示したりしてもよい。将来的には、フロントウィンドウ、リアウィンドウ等に非透過型ディスプレイを採用し、車外の風景を撮影する撮像装置が取得した撮像画像に重畳させて仮想オブジェクトを表示してもよい。
 さらに、自動車に表示装置が用いられる場合には、該表示装置はフロントウィンドウ、リアウィンドウ等に像を投影するプロジェクタであってもよい。プロジェクタにより、像を投影する場合には、表示領域(例えば、リアウィンドウ自体やフロントウィンドウ自体)に電子的な回路構成を設ける必要がない。すなわち、表示領域に別途複雑な回路や導光板を設ける必要ないため、本開示の技術を適用する場合であっても、表示領域に対応する部品の交換を用意に行うことができる。
 また、サイドミラー、バックミラー、が表示領域の機能を有していてもよい。このとき、サイドミラー及びバックミラーは、光学的に像を反射するミラーに限定されず、反射する像を撮像画像としてミラーに表示させ電子的に表示を行う、電子的なミラーであってもよい。この電子的なミラーは、従来の光学反射を撮像画像に代替して行われる。
 また、例えば、フロントウィンドウのディスプレイ(フロントディスプレイ)及びサイドミラーのディスプレイ(サイドディスプレイ)は、それぞれ単独で仮想オブジェクトの表示を行ってもよく、少なくともどちらかにて仮想オブジェクトの表示が行われてもよい。このように複数の表示領域にて仮想オブジェクトが表示される場合には、外環境等に応じて、表示領域が選択されてもよい。
 例えば、移動端末である自動車が徐行中に歩行者が接近し、フロントディスプレイの表示領域内に、歩行者が含まれる例を説明する。この時に、サイドミラーに表示される仮想オブジェクトをユーザが注視している場合、サイドミラーに表示される仮想オブジェクトを消去する等により仮想オブジェクトの視認性を低下させてもよい。サイドミラーにおける仮想オブジェクトの視認性が低下することにより、ユーザの注視が解除され、歩行者をより注意深く認識できる可能性が高まり、安全性が向上する。もちろん、サイドディスプレイの例と同様に、フロントディスプレイにおける仮想オブジェクトの視認性を低下することにより、仮想オブジェクトへのユーザの注視は抑制されてもよい。
 例えば、上記実施形態では、本開示の技術はHMD、スマートフォン、自動車に適用可能としたが、本技術はかかる例に限定されない。例えば、自動二輪車、自転車、飛行機、船舶等に、適用されてもよい。
 (6.ハードウェア構成)
 最後に、図10を参照して、図3に示した情報処理システム1000を実現し得る情報処理装置のハードウェア構成について説明する。図10は、本実施形態に係る情報処理システム1000のハードウェア構成の一例を示すブロック図である。本実施形態に係る情報処理システム1000による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
 図10に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、電気回路、DSP(Digital Signal Processor)若しくはASIC(Application Specific Integrated Circuit)等の処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図3に示す検出部110及び制御部120の機能を実行し得る。
 CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA(Personal Digital Assistant)等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、EL(electroluminescence)ディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、出力装置907は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置を用いる場合は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。出力装置907は、例えば、図3に示す表示装置200の機能を実行し得る。
 ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図3に示す制御部120に備えられ、注視判定に使用する各種パラメータ等を記憶する記憶部(図示せず。)の機能を実行し得る。
 ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
 接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
 通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、図3に示す表示制御部126が表示装置200を制御する際に通信を行う機能を実行し得る。
 カメラ915は、情報処理装置900で各種情報を取得するための撮像装置である。カメラ915としては、例えば、RGBカメラまたはサーモカメラ等の画像(静止画像又は動画像)を撮像する撮像装置が挙げられる。カメラ915は、レンズ系、駆動系、及び撮像素子を有してもよい。カメラ915は、例えば、図3に示す検出部110にて検出される外環境検出情報、視線情報、ユーザの行動に関する情報等を取得する機能を実行し得る。
 センサ917は、情報処理装置900で各種情報を取得するためのセンサ装置である。例えば、センサ917として、デプスセンサ等が挙げられる。デプスセンサは、実空間における物体の深度情報を取得する。例えば、デプスセンサは、赤外線測距装置、超音波測距装置、LiDAR(Laser Imaging Detection and Ranging)又はステレオカメラ等を含んでもよい。例えば、加速度センサやジャイロセンサ等であってもよい。センサ917は、例えば、図3に示す検出部110にて検出される外環境検出情報、視線情報、ユーザの行動に関する情報等を取得する機能を実行し得る。
 なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
 また、情報処理システム1000に内蔵されるCPU、ROM及びRAMなどのハードウェアを上述した本実施形態に係る情報処理システム1000の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記録媒体も提供される。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
 低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部、を備える情報処理装置。
(2)
 前記表示制御部は、前記仮想オブジェクトの表示態様を、第1の視認性を有する第1の表示態様から前記第1の視認性よりも小さい第2の視認性を有する第2の表示態様に変化させることで前記仮想オブジェクトの視認性を低下させるよう前記表示装置を制御する、前記(1)に記載の情報処理装置。
(3)
 前記表示制御部は、前記表示態様を前記第2の表示態様に変化させた後、前記第1の表示態様に変化させることで、低下させた前記仮想オブジェクトの視認性を上昇させるよう前記表示装置を制御する、前記(2)に記載の情報処理装置。
(4)
 前記表示制御部は、前記表示態様を前記第2の表示態様に変化させた後、前記表示態様を前記第2の視認性よりも大きくかつ前記第1の視認性より小さい第3の視認性を有する第3の表示態様に変化させることで、低下させた前記仮想オブジェクトの視認性を上昇させるよう前記表示装置を制御する、前記(2)に記載の情報処理装置。
(5)
 前記所定の条件は、前記第1のユーザが前記仮想オブジェクトへの注視を解除したと判定されることを含む、前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
 前記表示制御部は、前記第1のユーザが前記仮想オブジェクトへの注視を解除したと判定された場合であっても、前記第1のユーザと対面する第2のユーザとのコミュニケーション状態が継続している場合、前記仮想オブジェクトの視認性の上昇を抑制するよう表示装置を制御する、前記(5)に記載の情報処理装置。
(7)
 前記所定の条件は、前記仮想オブジェクトの前記視認性を低下させてから所定の時間が経過することである、前記(1)~(4)のいずれか一項に記載の情報処理装置。
(8)
 前記表示制御部は、実空間に存在する物体の検出に関する情報である外環境検出情報にさらに基づいて、前記仮想オブジェクトの視認性を上昇させるよう前記表示装置を制御する、前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
 前記第1のユーザの注視の判定に要する時間は、前記外環境検出情報に応じて変更される、前記(8)に記載の情報処理装置。
(10)
 前記表示制御部は、前記表示装置に表示された複数の仮想オブジェクトのうち、前記第1のユーザの注視範囲に含まれる一部の仮想オブジェクトの視認性のみを低下させるよう前記表示装置を制御する、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
 前記表示制御部は、前記仮想オブジェクトを前記第1のユーザが注視していないと前記移動端末の移動中に判定された場合、前記表示装置により表示されている前記仮想オブジェクトの視認性を実質的に維持するよう前記表示装置を制御する、前記(1)~(10)のいずれか一項に記載の情報処理装置。
(12)
 前記表示制御部は、前記仮想オブジェクトが所定の表示優先度を有する場合、前記第1のユーザが前記仮想オブジェクトを前記移動端末の移動中に注視していると判定された場合であっても、前記仮想オブジェクトの視認性を維持するよう前記表示装置を制御する、前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
 前記所定の表示優先度とは、前記仮想オブジェクトの前記第1のユーザの安全に関する影響度合により決定される、前記(12)に記載の情報処理装置。
(14)
 前記表示優先度は、事故情報及び災害情報の少なくとも一方に関連付けられている、前記(13)に記載の情報処理装置。
(15)
 前記表示装置は、前記仮想オブジェクトは、実空間に重畳して表示するよう構成される、前記(1)~(14)のいずれか一項に記載の情報処理装置。
(16)
 前記注視の判定は、前記第1のユーザに対する眼球運動の検出、瞳孔検出、または視線検出により取得された視線情報に基づいて行われる、前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
 前記注視とは、固視または追跡視である、前記(1)~(16)のいずれか一項に記載の情報処理装置。
(18)
 プロセッサが、
 移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
 低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御すること、を含む情報処理方法。
(19)
 コンピュータを、
 移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
 低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部として機能させるための、プログラム。
 1000 情報処理システム
 100  情報処理装置
 110  検出部
 112  外環境検出部
 114  視線検出部
 116  ユーザ行動検出部
 120  制御部
 122  検出情報取得部
 124  注視判定部
 126  表示制御部
 200  表示装置

Claims (19)

  1.  移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
     低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部、を備える情報処理装置。
  2.  前記表示制御部は、前記仮想オブジェクトの表示態様を、第1の視認性を有する第1の表示態様から前記第1の視認性よりも小さい第2の視認性を有する第2の表示態様に変化させることで前記仮想オブジェクトの視認性を低下させるよう前記表示装置を制御する、請求項1に記載の情報処理装置。
  3.  前記表示制御部は、前記表示態様を前記第2の表示態様に変化させた後、前記第1の表示態様に変化させることで、低下させた前記仮想オブジェクトの視認性を上昇させるよう前記表示装置を制御する、請求項2に記載の情報処理装置。
  4.  前記表示制御部は、前記表示態様を前記第2の表示態様に変化させた後、前記表示態様を前記第2の視認性よりも大きくかつ前記第1の視認性より小さい第3の視認性を有する第3の表示態様に変化させることで、低下させた前記仮想オブジェクトの視認性を上昇させるよう前記表示装置を制御する、請求項2に記載の情報処理装置。
  5.  前記所定の条件は、前記第1のユーザが前記仮想オブジェクトへの注視を解除したと判定されることを含む、請求項1に記載の情報処理装置。
  6.  前記表示制御部は、前記第1のユーザが前記仮想オブジェクトへの注視を解除したと判定された場合であっても、前記第1のユーザと対面する第2のユーザとのコミュニケーション状態が継続している場合、前記仮想オブジェクトの視認性の上昇を抑制するよう表示装置を制御する、請求項5に記載の情報処理装置。
  7.  前記所定の条件は、前記仮想オブジェクトの前記視認性を低下させてから所定の時間が経過することである、請求項1に記載の情報処理装置。
  8.  前記表示制御部は、実空間に存在する物体の検出に関する情報である外環境検出情報にさらに基づいて、前記仮想オブジェクトの視認性を上昇させるよう前記表示装置を制御する、請求項1に記載の情報処理装置。
  9.  前記第1のユーザの注視の判定に要する時間は、前記外環境検出情報に応じて変更される、請求項8に記載の情報処理装置。
  10.  前記表示制御部は、前記表示装置に表示された複数の仮想オブジェクトのうち、前記第1のユーザの注視範囲に含まれる一部の仮想オブジェクトの視認性のみを低下させるよう前記表示装置を制御する、請求項1に記載の情報処理装置。
  11.  前記表示制御部は、前記仮想オブジェクトを前記第1のユーザが注視していないと前記移動端末の移動中に判定された場合、前記表示装置により表示されている前記仮想オブジェクトの視認性を実質的に維持するよう前記表示装置を制御する、請求項1に記載の情報処理装置。
  12.  前記表示制御部は、前記仮想オブジェクトが所定の表示優先度を有する場合、前記第1のユーザが前記仮想オブジェクトを前記移動端末の移動中に注視していると判定された場合であっても、前記仮想オブジェクトの視認性を維持するよう前記表示装置を制御する、請求項1に記載の情報処理装置。
  13.  前記所定の表示優先度とは、前記仮想オブジェクトの前記第1のユーザの安全に関する影響度合により決定される、請求項12に記載の情報処理装置。
  14.  前記表示優先度は、事故情報及び災害情報の少なくとも一方に関連付けられている、請求項13に記載の情報処理装置。
  15.  前記表示装置は、前記仮想オブジェクトは、実空間に重畳して表示するよう構成される、請求項1に記載の情報処理装置。
  16.  前記注視の判定は、前記第1のユーザに対する眼球運動の検出、瞳孔検出、または視線検出により取得された視線情報に基づいて行われる、請求項1に記載の情報処理装置。
  17.  前記注視とは、固視または追跡視である、請求項1に記載の情報処理装置。
  18.  プロセッサが、
     移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
     低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御すること、を含む情報処理方法。
  19.  コンピュータを、
     移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
     低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部として機能させるための、プログラム。
PCT/JP2019/022698 2018-06-18 2019-06-07 情報処理装置、情報処理方法、及びプログラム WO2019244670A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-115098 2018-06-18
JP2018115098A JP2021165864A (ja) 2018-06-18 2018-06-18 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2019244670A1 true WO2019244670A1 (ja) 2019-12-26

Family

ID=68983980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/022698 WO2019244670A1 (ja) 2018-06-18 2019-06-07 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP2021165864A (ja)
WO (1) WO2019244670A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113286074A (zh) * 2020-02-19 2021-08-20 佳能株式会社 电子装置、电子装置的控制方法以及计算机可读介质
JPWO2021176555A1 (ja) * 2020-03-03 2021-09-10
CN114089920A (zh) * 2021-11-25 2022-02-25 北京字节跳动网络技术有限公司 数据存储方法、装置、可读介质及电子设备
JP2022113031A (ja) * 2021-01-22 2022-08-03 ソフトバンク株式会社 制御装置、プログラム、システム及び制御方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023199626A1 (ja) * 2022-04-14 2023-10-19 株式会社Nttドコモ 表示制御装置
WO2023218751A1 (ja) * 2022-05-11 2023-11-16 株式会社Nttドコモ 表示制御装置
WO2024157705A1 (ja) * 2023-01-23 2024-08-02 パナソニックIpマネジメント株式会社 提示システム、提示方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079121A (ja) * 2008-09-29 2010-04-08 Brother Ind Ltd シースルー型ディスプレイ装置
JP2014106445A (ja) * 2012-11-29 2014-06-09 Toshiba Corp 電子機器および表示制御方法
WO2015068440A1 (ja) * 2013-11-08 2015-05-14 ソニー株式会社 情報処理装置、制御方法およびプログラム
US20150277119A1 (en) * 2011-10-07 2015-10-01 Google Inc. Wearable computer with nearby object response
JP2017142825A (ja) * 2017-03-21 2017-08-17 Kddi株式会社 ウェアラブルデバイス
WO2017138212A1 (ja) * 2016-02-08 2017-08-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079121A (ja) * 2008-09-29 2010-04-08 Brother Ind Ltd シースルー型ディスプレイ装置
US20150277119A1 (en) * 2011-10-07 2015-10-01 Google Inc. Wearable computer with nearby object response
JP2014106445A (ja) * 2012-11-29 2014-06-09 Toshiba Corp 電子機器および表示制御方法
WO2015068440A1 (ja) * 2013-11-08 2015-05-14 ソニー株式会社 情報処理装置、制御方法およびプログラム
WO2017138212A1 (ja) * 2016-02-08 2017-08-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017142825A (ja) * 2017-03-21 2017-08-17 Kddi株式会社 ウェアラブルデバイス

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113286074A (zh) * 2020-02-19 2021-08-20 佳能株式会社 电子装置、电子装置的控制方法以及计算机可读介质
JPWO2021176555A1 (ja) * 2020-03-03 2021-09-10
JP7416204B2 (ja) 2020-03-03 2024-01-17 日本電信電話株式会社 情報提示装置、方法およびプログラム
JP2022113031A (ja) * 2021-01-22 2022-08-03 ソフトバンク株式会社 制御装置、プログラム、システム及び制御方法
CN114089920A (zh) * 2021-11-25 2022-02-25 北京字节跳动网络技术有限公司 数据存储方法、装置、可读介质及电子设备

Also Published As

Publication number Publication date
JP2021165864A (ja) 2021-10-14

Similar Documents

Publication Publication Date Title
WO2019244670A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US10891953B2 (en) Multi-mode guard for voice commands
US10613330B2 (en) Information processing device, notification state control method, and program
US20150109191A1 (en) Speech Recognition
US9547365B2 (en) Managing information display
US9164588B1 (en) Wearable computing device with gesture recognition
WO2017047178A1 (ja) 情報処理装置、情報処理方法及びプログラム
US9100732B1 (en) Hertzian dipole headphone speaker
CN109087485B (zh) 驾驶提醒方法、装置、智能眼镜及存储介质
US9274599B1 (en) Input detection
US9336779B1 (en) Dynamic image-based voice entry of unlock sequence
US20170163866A1 (en) Input System
US11170539B2 (en) Information processing device and information processing method
US20210081047A1 (en) Head-Mounted Display With Haptic Output
WO2019130708A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019092216A (ja) 情報処理装置、情報処理方法及びプログラム
WO2019150880A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11605396B2 (en) Image processing system and method
WO2020070839A1 (ja) ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム
JP6784289B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7579378B2 (ja) ヘッドマウント情報処理装置の制御方法
WO2023058451A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2024034053A1 (ja) 情報処理装置および情報処理方法
US20240329920A1 (en) Head-mountable information processing apparatus
CN118494350A (zh) 车辆侧窗显示系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19822479

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19822479

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP