JP6677239B2 - 情報処理装置、制御方法、およびプログラム - Google Patents
情報処理装置、制御方法、およびプログラム Download PDFInfo
- Publication number
- JP6677239B2 JP6677239B2 JP2017503317A JP2017503317A JP6677239B2 JP 6677239 B2 JP6677239 B2 JP 6677239B2 JP 2017503317 A JP2017503317 A JP 2017503317A JP 2017503317 A JP2017503317 A JP 2017503317A JP 6677239 B2 JP6677239 B2 JP 6677239B2
- Authority
- JP
- Japan
- Prior art keywords
- gaze
- detection
- user
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 167
- 238000000034 method Methods 0.000 title claims description 65
- 238000001514 detection method Methods 0.000 claims description 495
- 238000012545 processing Methods 0.000 claims description 99
- 230000008569 process Effects 0.000 claims description 57
- 230000004044 response Effects 0.000 claims description 5
- 210000001508 eye Anatomy 0.000 description 32
- 238000010586 diagram Methods 0.000 description 23
- 230000000007 visual effect Effects 0.000 description 17
- 238000009434 installation Methods 0.000 description 12
- 238000012937 correction Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- B60K35/10—
-
- B60K35/90—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- B60K2360/149—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
Description
1.本開示の一実施形態による視線検出キャリブレーションの概要
2.各実施形態
2−1.第1の実施形態
2−1−1.ポインタを用いた場合における視線検出キャリブレーション
2−1−2.コントローラを用いた場合における視線検出キャリブレーション
2−1−3.指先を用いた場合における視線検出キャリブレーション
2−2.第2の実施形態
2−3.第3の実施形態
2−4.第4の実施形態
2−5.第5の実施形態
2−6.第6の実施形態
3.まとめ
本開示の一実施形態による視線検出キャリブレーションは、装置本来の目的を遂行するためのユーザ操作時の注視対象の位置を認識し、認識した注視対象の位置と、操作時のユーザの視線位置とに基づいて、視線検出の調整(すなわちキャリブレーション)を行う。これにより、従来のような視線検出キャリブレーションのためだけの操作を不要とし、通常のユーザ操作の中で視線検出キャリブレーションを行うことが可能となる。
<2−1.第1の実施形態>
まず、指示体を用いたユーザ操作時における視線検出キャリブレーションについて説明する。本実施形態による情報処理装置20は、ユーザの注視対象を認識し、当該注視対象にユーザが指示体を移動させた際のユーザの視線位置を検出して、注視対象の位置と視線位置とのずれに基づいて、視線検出キャリブレーションを行う。指示体は、画面上に表示された操作対象オブジェクトの一例であるポインタ(すなわち仮想物体)であってもよいし、ユーザが把持する操作対象物体の一例であるコントローラ(すなわち実物体)であってもよいし、ジェスチャー入力が可能な場合はユーザの指先であってもよい。以下、各指示体を用いたユーザ操作時における視線検出キャリブレーションについて、図1〜図8を参照して説明する。
指示体の一例として、画面上に表示されたポインタが挙げられる。ユーザは、ポインタを所定のアイコンの表示領域に移動させることで、アイコンを選択し、アイコンに応じたアプリケーション処理を実行させる。このような状況について図1を参照して説明する。
図1は、第1の実施形態による指示体がポインタの場合における視線検出キャリブレーションについて説明する図である。図1に示すように、例えばスクリーン31に表示されたポインタ50を視線で操作するシステムにおいて、利用者であるユーザは、当該システムの利用開始操作としてポインタ50を指先やリモートコントローラ等でスクリーン31に表示されたスタートアイコン40に移動させる。ユーザの指先の位置や視線位置Pは、スクリーン31の近傍に設置されたカメラ10−1aにより撮像された撮像画像に基づいて検出される。
図2は、第1の実施形態による情報処理システム101aの構成を示す図である。図2に示すように、情報処理システム101aは、カメラ10−1a、情報処理装置20−1a、および表示装置30−1aを含む。
続いて、本実施形態による動作処理について図4を参照して説明する。図4は、第1の実施形態による指示体がポインタの場合における視線検出キャリブレーションの動作処理を示すフローチャートである。ここでは、図2および図3に示す各構成を区別する必要がない場合、情報処理装置20−1(20−1a、20−1b)、指示位置検出部21−1(21−1a、21−1b)、アプリケーション処理部22−1(22−1a、22−1b)、視線検出部23−1(23−1a、23−1b)、視線検出調整部24−1(24−1a、24−1b)と称す。
続いて、指示体としてコントローラを用いた場合における視線検出キャリブレーションについて図5〜図6を参照して説明する。
図5は、第1の実施形態による指示体がコントローラの場合における視線検出キャリブレーションについて説明する図である。ここでは、図5に示すように、表示装置30−1cの表示画面にカメラ10−1cで撮像したユーザの映像が表示され、画面に写るユーザの顔42に紐付けられて表示される検出エリア43にユーザが把持するコントローラ51を移動させることでそのユーザのログイン処理(顔認識により個人が識別できた場合は当該個人のログイン処理)を行うシステムを想定する。また、接続されたコントローラ51とログイン処理を行ったユーザとの紐付け処理も行われる。ログイン後は、ユーザの視線に応じた操作が実施され得る。
本実施形態による情報処理システムの構成は、図2、図3を参照して上述したシステム構成と同様である。すなわち、本実施形態による情報処理システム101は、カメラ10−1c(または指示位置検出用カメラ11−1cおよび視線検出用カメラ12−1c)と、情報処理装置20−1cと、表示装置30−1cを含む。情報処理装置20−1cは、図2、図3に示す場合と同様に、指示位置検出部21−1c、アプリケーション処理部22−1c、視線検出部23−1c、および視線検出調整部24−1cを有する。
図6は、第1の実施形態による指示体がコントローラの場合における視線検出キャリブレーションの動作処理を示すフローチャートである。ここでは、情報処理装置20−1(20−1c)、指示位置検出部21−1(21−1c)、アプリケーション処理部22−1(22−1c)、視線検出部23−1(23−1c)、視線検出調整部24−1(24−1c)と称す。
次に、指示体として指先を用いた場合における視線検出キャリブレーションについて図7〜図8を参照して説明する。
図7は、第1の実施形態による指示体が指先の場合における視線検出キャリブレーションについて説明する図である。ここでは、図7に示すように、スマートアイグラスにより実現される情報処理装置20−1dがユーザに装着された際にユーザの眼前に位置する表示装置30−1dに、テキストやアイコン等が表示され、ユーザは指先を前方に挙げてアイコンの表示位置と合わせることで選択することが可能なシステムを想定する。また、情報処理装置20−1dは、ユーザの視線を検出し、視線に応じた制御も可能である。
本実施形態による情報処理システムの構成は、図3を参照して上述したシステム構成と同様である。すなわち、本実施形態による情報処理システム101dは、指示位置検出用カメラ11−1dと、視線検出用カメラ12−1dと、情報処理装置20−1dと、表示装置30−1dを含む。情報処理装置20−1dは、図3に示す場合と同様に、指示位置検出部21−1d、アプリケーション処理部22−1d、視線検出部23−1d、および視線検出調整部24−1dを有する。
図8は、第1の実施形態による指示体が指先の場合における視線検出キャリブレーションの動作処理を示すフローチャートである。ここでは、情報処理装置20−1(20−1d)、指示位置検出部21−1(21−1d)、アプリケーション処理部22−1(22−1d)、視線検出部23−1(23−1d)、視線検出調整部24−1(24−1d)と称す。
続いて、第2の実施形態による情報処理システム102について、図9〜図12を参照して具体的に説明する。上述した第1の実施形態では、注視対象が表示画面上に表示されているもの(仮想物体)であったが、本開示はこれに限定されず、注視対象が実物体であってもよい。
図9は、第2の実施形態による注視対象が実物体の場合における視線検出キャリブレーションについて説明する図である。ここでは、図9に示すように、スマートアイグラスにより実現される情報処理装置20−2がユーザに装着された際にユーザの眼前に位置する表示装置30−2にテキストやアイコン等が表示され、ユーザの視線に応じた制御が可能なシステムを想定する。
図10は、第2の実施形態による情報処理システム102aの構成を示す図である。図10に示すように、情報処理システム102aは、デバイス60、デバイス検出用カメラ11−2、視線検出用カメラ12−2、情報処理装置20−2a、表示装置30−2を含む。
例えば図10に示す情報処理システム102aでは、視線検出調整部24−2aによる視線検出キャリブレーションと、アプリケーション処理部22−2aによるアプリケーション処理が同期する。すなわち、ユーザがデバイス60を視認するという動作に応じて情報処理装置20−2aにおいて何らかのアプリケーション処理が行われると共に、視線検出キャリブレーションも行われる。しかし、本実施形態はこれに限定されず、アプリケーション処理と視線検出キャリブレーションが非同期であってもよい。以下、非同期の場合におけるシステム構成について図11を参照して説明する。
続いて、本実施形態による動作処理について図12を参照して説明する。図12は、第2の実施形態による視線検出キャリブレーションの動作処理を示すフローチャートである。ここでは、図10および図11に示す各構成を区別する必要がない場合、情報処理装置20−2(20−2a、20−2b)、アプリケーション処理部22−2(22−2a、22−2b)、視線検出部23−2(23−2a、23−2b)、視線検出調整部24−2(24−2a、24−2b)、デバイス検出部25−2(25−2a、25−2b)と称す。
次に、第3の実施形態による情報処理装置20−3について、図13〜図16を参照して具体的に説明する。本実施形態では、表示画面に表示されたパスコード解除時のボタン操作という装置本来の目的を遂行するための操作の中で視線検出キャリブレーションを行う場合について説明する。
図13は、第3の実施形態による視線検出キャリブレーションについて説明する図である。ここでは、図13に示すように、例えばスマートフォンにより実現される情報処理装置20−3のタッチパネルディスプレイ32に表示されたパスコード画面48に対して、ユーザが指54でパスコード解除のためのタッチ操作(選択操作)を行い、入力されたパスコードが正しい場合はロック解除を行うシステムを想定する。
図14は、第3の実施形態による情報処理装置20−3の構成を示す図である。図14に示すように、情報処理装置20−3は、視線検出用カメラ12−3、アプリケーション処理部22−3、視線検出部23−3、視線検出調整部24−3、タッチパネルディスプレイ32を含む。なお情報処理装置20−3は、図13に示すようなスマートフォンの他、タブレット端末、スマートウォッチ等により実現されてもよい。
続いて、本実施形態による動作処理について図15および図16を参照して説明する。図15は、第3の実施形態によるパスコード解除処理を示すフローチャートである。
次に、第4の実施形態による情報処理システム104について、図17〜図19を参照して具体的に説明する。本実施形態では、頭部装着型の表示装置であるHMD(Head Mounted Display)と接続されたコントローラで、HMDの表示部に表示された複数のアイコンからいずれかを選択するといった装置本来の目的を遂行する操作の中で、視線検出キャリブレーションを行う場合について説明する。
図17は、第4の実施形態による視線検出キャリブレーションについて説明する図である。ここでは、図17に示すように、例えばHMDにより実現される情報処理装置20−4の表示部30−4に表示される複数のアイコン70−1〜70−nに対して、ユーザが情報処理装置20−4に接続されたコントローラ63を用いてアイコン70の選択操作を行い、選択されたアイコン70に対応するアプリケーション処理を行うシステムを想定する。
図18は、第4の実施形態による情報処理システム104の構成を示す図である。図18に示すように、情報処理システム104は、コントローラ63および情報処理装置20−4(HMD)を含む。
続いて、本実施形態による動作処理について図19を参照して説明する。図19は、第4の実施形態による視線検出キャリブレーションの動作処理を示すフローチャートである。
次に、第5の実施形態による情報処理システム105について、図20〜図22を参照して具体的に説明する。本実施形態では、ユーザが自動車に乗車した際にルームミラーやサイドミラーの角度を調整するという装置本来の目的を遂行するための操作の中で視線検出キャリブレーションを行う場合について説明する。
本実施形態では、自動車のフロントガラスや、メーターパネル上部に設けられたポップアップ式の透過型のディスプレイに画像を表示するHUD(Head Up Display)において、ユーザの視線に応じた表示制御を行うシステムを想定する。HUDは、走行速度、時刻、およびナビゲーション情報等、運転に必要な様々な情報を運転手の前方に表示し、運転手は視線を大きく移動することなく情報を確認することができ、自動車走行中の安全性を高めることが可能となる。
図21は、第5の実施形態による情報処理システム105の構成を示す図である。図21に示すように、情報処理システム105は、操作対象装置28、視線検出用カメラ12−5、情報処理装置20−5、および表示装置30−5を含む。
続いて、本実施形態による動作処理について図22を参照して説明する。図22は、第5の実施形態による視線検出キャリブレーションの動作処理を示すフローチャートである。
次に、第6の実施形態による情報処理システム106について、図23〜図25を参照して具体的に説明する。本実施形態では、自動車を運転するという装置本来の目的を遂行するための操作の中で視線検出キャリブレーションを行う場合について説明する。
本実施形態は、第5の実施形態と同様に、自動車のフロントガラスや、メーターパネル上部に設けられたポップアップ式の透過型のディスプレイに画像を表示するHUDにおいて、ユーザの視線に応じた表示制御を行うシステムを想定する。
図24は、第6の実施形態による情報処理システム106の構成を示す図である。図24に示すように、情報処理システム106は、視線検出用カメラ12−6、情報処理装置20−6、および表示装置30−6を含む。
続いて、本実施形態による動作処理について図25を参照して説明する。図25は、第6の実施形態による視線検出キャリブレーションの動作処理を示すフローチャートである。
上述したように、本開示の実施形態による情報処理システムでは、視線検出キャリブレーションのためだけの操作を不要とし、通常のユーザ操作の中で視線検出キャリブレーションを行うことが可能となる。
(1)
ユーザ操作に伴う注視対象の位置を認識する認識部と、
ユーザ操作時におけるユーザの視線位置を検出する視線検出部と、
前記認識された注視対象の位置と、前記視線位置とに基づいて、前記視線検出部による視線検出の調整を行う視線検出調整部と、
を備える、情報処理装置。
(2)
前記注視対象は、ユーザ操作目的の対象となる仮想物体または実物体である、前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、前記注視対象に対するユーザ操作に応じて所定のアプリケーション処理を実行するアプリケーション処理部をさらに備える、前記(2)に記載の情報処理装置。
(4)
前記注視対象は、表示部に表示される画像アイコンであって、
前記ユーザ操作は、前記画像アイコンの表示領域内に操作対象オブジェクトを移動させる操作であって、
前記視線検出調整部は、ユーザが表示画面上の操作対象オブジェクトを前記画像アイコンの表示領域内に移動させた際に検出された視線位置と、前記画像アイコンの表示位置とに基づいて、視線検出の調整を行う、前記(3)に記載の情報処理装置。
(5)
前記情報処理装置は、透過性を有する表示部を有するメガネ型のウェアラブル装置であって、
前記ユーザ操作は、前記表示部に表示される画像アイコンを指先で指す動作であって、
前記視線検出調整部は、前記メガネ型のウェアラブル装置を装着した際にユーザの視界方向を撮像した撮像画像に基づいて認識された指先が前記表示部に表示された画像アイコンの表示領域内に移動した際に検出された視線位置、および前記画像アイコンの表示位置に基づいて、視線検出の調整を行う、前記(3)に記載の情報処理装置。
(6)
前記アプリケーション処理部は、前記画像アイコンが選択された際に、当該画像アイコンに紐付けられた所定のアプリケーション処理を実行する、前記(4)または(5)に記載の情報処理装置。
(7)
前記注視対象は、ユーザの撮像画像をリアルタイムに表示する表示画面上に表示される検出エリア表示であって、
前記ユーザ操作は、前記ユーザが把持する物体を前記検出エリア表示内に移動させる動作であって、
前記視線検出調整部は、前記物体が前記検出エリア表示内に入った際に検出された視線位置と、前記検出エリア表示の表示位置とに基づいて、視線検出の調整を行う、前記(3)に記載の情報処理装置。
(8)
前記アプリケーション処理部は、前記ユーザの把持する物体が前記検出エリア表示内に入った際に所定のアプリケーション処理を実行する、前記(7)に記載の情報処理装置。
(9)
前記注視対象は、表示部に表示されるパスコード入力画面に含まれるボタン画像であって、
前記ユーザ操作は、前記パスコード入力画面に含まれるボタン画像を選択してパスコードを入力する操作であって、
前記視線検出調整部は、ユーザが前記ボタン画像を選択している際に検出された視線位置と、前記ボタン画像の表示位置とに基づいて、視線検出の調整を行う、前記(3)に記載の情報処理装置。
(10)
前記アプリケーション処理部は、前記パスコード入力画面に含まれる前記ボタン画像の選択により入力されたパスコードの正否を判断し、正しい場合にはロック解除処理を実行する、前記(9)に記載の情報処理装置。
(11)
前記情報処理装置は、ユーザの頭部に装着されるHMD;Head Mounted Displayであって、
前記注視対象は、前記HMDを装着した際に前記ユーザの眼前に位置する表示部に表示される複数の選択画像であって、
前記ユーザ操作は、前記複数の選択画像から操作対象オブジェクトにより一の選択画像を選択する操作であって、
前記視線検出調整部は、ユーザが表示画面上の操作対象オブジェクトを前記選択画像の表示領域内に移動させて選択した際に検出された視線位置と、選択された前記選択画像の表示位置とに基づいて、視線検出の調整を行う、前記(3)に記載の情報処理装置。
(12)
前記操作対象オブジェクトは、前記HMDに接続されたコントローラの動きに応じて前記表示画面上を移動する、前記(11)に記載の情報処理装置。
(13)
前記注視対象の表示位置は、表示画面上において毎回異なる場所に表示される、前記(4)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記情報処理装置は、透過性を有する表示部を有するメガネ型のウェアラブル装置であって、
前記ユーザ操作は、前記表示部を介して実物体を視認する動作であって、
前記視線検出調整部は、前記メガネ型のウェアラブル装置を装着した際にユーザの視界方向を撮像した撮像画像に基づいて認識された前記実物体が前記ユーザの視界に入っている際に検出された視線位置と、前記透過性を有する表示部を介して視認される前記実物体の前記表示部における座標位置に基づいて、視線検出の調整を行う、前記(2)に記載の情報処理装置。
(15)
前記実物体は、前記ユーザが所持するデバイスである、前記(14)に記載の情報処理装置。
(16)
前記注視対象は、自動車に設けられたミラーであって、
前記ユーザ操作は、前記ミラーの角度調整操作であって、
前記視線検出部は、車内に設けられた撮像部で撮像した撮像画像に基づいて前記ユーザの視線位置を検出し、
前記視線検出調整部は、前記ミラーの角度調整操作が行われている際に検出された視線位置と、前記ユーザが角度調整を行っているミラーの固定位置とに基づいて、視線検出の調整を行う、前記(2)に記載の情報処理装置。
(17)
前記注視対象は、自動車に設けられたミラーであって、
前記ユーザ操作は、運転中における前記ミラーの視認動作であって、
前記視線検出部は、車内に設けられ撮像部で撮像した撮像画像に基づいて前記ユーザの視線位置を検出し、
前記視線検出調整部は、前記ユーザの運転中に検出された視線位置の履歴から抽出された注視エリアの位置と、当該注視エリアに対応するミラーの固定位置とに基づいて、視線検出の調整を行う、前記(2)に記載の情報処理装置。
(18)
ユーザ操作に伴う注視対象の位置を認識することと、
ユーザ操作時におけるユーザの視線位置を検出することと、
前記認識された注視対象の位置と、前記視線位置とに基づいて、視線検出調整部により視線検出の調整を行うことと、
を含む、制御方法。
(19)
コンピュータを、
ユーザ操作に伴う注視対象の位置を認識する認識部と、
ユーザ操作時におけるユーザの視線位置を検出する視線検出部と、
前記認識された注視対象の位置と、前記視線位置とに基づいて、前記視線検出部による視線検出の調整を行う視線検出調整部と、
として機能させるための、プログラム。
10−1a、10−1c カメラ
11−1b、11−1d 指示位置検出用カメラ
11−2 デバイス検出用カメラ
12−1〜12−6 視線検出用カメラ
20−1〜20−6 情報処理装置
21−1〜21−6 指示位置検出部
22−1〜22−6 アプリケーション処理部
23−1〜23−6 視線検出部
24−1〜24−6 視線検出調整部
28 操作対象装置
28a ルームミラー
28L、28R サイドミラー
29 注視エリア抽出部
30−1、30−2、30−5、30−6 表示装置
30−4 表示部
31 スクリーン
32 タッチパネルディスプレイ
40 スタートアイコン
43 検出エリア
45 メールアイコン
49 数字ボタン
50 ポインタ
51 コントローラ
52 指先
60 デバイス
63 コントローラ
70 アイコン
72 カーソル
Claims (14)
- ユーザ操作に伴う注視対象の位置を認識する認識部と、
ユーザ操作時におけるユーザの視線位置を検出する視線検出部と、
前記認識された注視対象の位置と、前記視線位置とに基づいて、前記視線検出部による視線検出の調整を行う視線検出調整部と、
前記注視対象に対するユーザ操作に応じて所定のアプリケーション処理を実行するアプリケーション処理部と、
を備え、
前記視線検出調整部は、前記アプリケーション処理を実行させる前記ユーザ操作時の視線位置と、前記注視対象の表示位置との関係に基づいて、視線検出の調整を行い、
前記注視対象は、表示部に表示される画像アイコンであって、
前記ユーザ操作は、前記画像アイコンの表示領域内に操作対象オブジェクトを移動させる操作であって、
前記視線検出調整部は、ユーザが表示画面上の操作対象オブジェクトを前記画像アイコンの表示領域内に移動させた際に検出された視線位置と、前記画像アイコンの表示位置とに基づいて、視線検出の調整を行う、情報処理装置。 - 透過性を有する表示部を有するメガネ型の情報処理装置であって、
ユーザ操作に伴う注視対象の位置を認識する認識部と、
ユーザ操作時におけるユーザの視線位置を検出する視線検出部と、
前記認識された注視対象の位置と、前記視線位置とに基づいて、前記視線検出部による視線検出の調整を行う視線検出調整部と、
前記注視対象に対するユーザ操作に応じて所定のアプリケーション処理を実行するアプリケーション処理部と、
を備え、
前記視線検出調整部は、前記アプリケーション処理を実行させる前記ユーザ操作時の視線位置と、前記注視対象の表示位置との関係に基づいて、視線検出の調整を行い、
前記ユーザ操作は、前記表示部に表示される画像アイコンを指先で指す動作であって、
前記視線検出調整部は、前記メガネ型のウェアラブル装置を装着した際にユーザの視界方向を撮像した撮像画像に基づいて認識された指先が前記表示部に表示された画像アイコンの表示領域内に移動した際に検出された視線位置、および前記画像アイコンの表示位置に基づいて、視線検出の調整を行う、情報処理装置。 - 前記アプリケーション処理部は、前記画像アイコンが選択された際に、当該画像アイコンに紐付けられた所定のアプリケーション処理を実行する、請求項1または2に記載の情報処理装置。
- ユーザ操作に伴う注視対象の位置を認識する認識部と、
ユーザ操作時におけるユーザの視線位置を検出する視線検出部と、
前記認識された注視対象の位置と、前記視線位置とに基づいて、前記視線検出部による視線検出の調整を行う視線検出調整部と、
前記注視対象に対するユーザ操作に応じて所定のアプリケーション処理を実行するアプリケーション処理部と、
を備え、
前記視線検出調整部は、前記アプリケーション処理を実行させる前記ユーザ操作時の視線位置と、前記注視対象の表示位置との関係に基づいて、視線検出の調整を行い、
前記注視対象は、ユーザの撮像画像をリアルタイムに表示する表示画面上に表示される検出エリア表示であって、
前記ユーザ操作は、前記ユーザが把持する物体を前記検出エリア表示内に移動させる動作であって、
前記視線検出調整部は、前記物体が前記検出エリア表示内に入った際に検出された視線位置と、前記検出エリア表示の表示位置とに基づいて、視線検出の調整を行う、情報処理装置。 - 前記アプリケーション処理部は、前記ユーザの把持する物体が前記検出エリア表示内に入った際に所定のアプリケーション処理を実行する、請求項4に記載の情報処理装置。
- ユーザ操作に伴う注視対象の位置を認識する認識部と、
ユーザ操作時におけるユーザの視線位置を検出する視線検出部と、
前記認識された注視対象の位置と、前記視線位置とに基づいて、前記視線検出部による視線検出の調整を行う視線検出調整部と、
前記注視対象に対するユーザ操作に応じて所定のアプリケーション処理を実行するアプリケーション処理部と、
を備え、
前記視線検出調整部は、前記アプリケーション処理を実行させる前記ユーザ操作時の視線位置と、前記注視対象の表示位置との関係に基づいて、視線検出の調整を行い、
前記注視対象は、表示部に表示されるパスコード入力画面に含まれるボタン画像であって、
前記ユーザ操作は、前記パスコード入力画面に含まれるボタン画像を選択してパスコードを入力する操作であって、
前記視線検出調整部は、ユーザが前記ボタン画像を選択している際に検出された視線位置と、前記ボタン画像の表示位置とに基づいて、視線検出の調整を行う、情報処理装置。 - 前記アプリケーション処理部は、前記パスコード入力画面に含まれる前記ボタン画像の選択により入力されたパスコードの正否を判断し、正しい場合にはロック解除処理を実行する、請求項6に記載の情報処理装置。
- ユーザの頭部に装着されるHMD;Head Mounted Displayとして機能する情報処理装置であって、
ユーザ操作に伴う注視対象の位置を認識する認識部と、
ユーザ操作時におけるユーザの視線位置を検出する視線検出部と、
前記認識された注視対象の位置と、前記視線位置とに基づいて、前記視線検出部による視線検出の調整を行う視線検出調整部と、
前記注視対象に対するユーザ操作に応じて所定のアプリケーション処理を実行するアプリケーション処理部と、
を備え、
前記視線検出調整部は、前記アプリケーション処理を実行させる前記ユーザ操作時の視線位置と、前記注視対象の表示位置との関係に基づいて、視線検出の調整を行い、
前記注視対象は、前記情報処理装置を装着した際に前記ユーザの眼前に位置する表示部に表示される複数の選択画像であって、
前記ユーザ操作は、前記複数の選択画像から操作対象オブジェクトにより一の選択画像を選択する操作であって、
前記視線検出調整部は、ユーザが表示画面上の操作対象オブジェクトを前記選択画像の表示領域内に移動させて選択した際に検出された視線位置と、選択された前記選択画像の表示位置とに基づいて、視線検出の調整を行う、情報処理装置。 - 前記操作対象オブジェクトは、前記情報処理装置に接続されたコントローラの動きに応じて前記表示画面上を移動する、請求項8に記載の情報処理装置。
- 前記注視対象の表示位置は、表示画面上において毎回異なる場所に表示される、請求項1に記載の情報処理装置。
- ユーザ操作に伴う注視対象の位置を認識する認識部と、
ユーザ操作時におけるユーザの視線位置を検出する視線検出部と、
前記認識された注視対象の位置と、前記視線位置とに基づいて、前記視線検出部による視線検出の調整を行う視線検出調整部と、
前記注視対象に対するユーザ操作に応じて所定のアプリケーション処理を実行するアプリケーション処理部と、
を備え、
前記ユーザ操作は、透過性を有する表示部を介して実物体を視認する動作であって、
前記視線検出調整部は、前記表示部を有するメガネ型のウェアラブル装置を装着した際に前記ユーザの視界方向を撮像した撮像画像に基づいて認識された前記実物体が前記ユーザの視界に入っている際に検出された視線位置と、前記透過性を有する表示部を介して視認される前記実物体の前記表示部における座標位置に基づいて、視線検出の調整を行う、情報処理装置。 - 前記実物体は、前記ユーザが所持するデバイスである、請求項11に記載の情報処理装置。
- プロセッサが、
ユーザ操作に伴う注視対象の位置を認識することと、
ユーザ操作時におけるユーザの視線位置を検出することと、
前記認識された注視対象の位置と、前記視線位置とに基づいて、視線検出調整部により視線検出の調整を行うことと、
前記注視対象に対するユーザ操作に応じて所定のアプリケーション処理を実行することと、
を含み、
前記視線検出の調整は、前記アプリケーション処理を実行させる前記ユーザ操作時の視線位置と、前記注視対象の表示位置との関係に基づいて行い、
前記注視対象は、表示部に表示される画像アイコンであって、
前記ユーザ操作は、前記画像アイコンの表示領域内に操作対象オブジェクトを移動させる操作であって、
前記視線検出の調整は、ユーザが表示画面上の操作対象オブジェクトを前記画像アイコンの表示領域内に移動させた際に検出された視線位置と、前記画像アイコンの表示位置とに基づいて行う、制御方法。 - コンピュータを、
ユーザ操作に伴う注視対象の位置を認識する認識部と、
ユーザ操作時におけるユーザの視線位置を検出する視線検出部と、
前記認識された注視対象の位置と、前記視線位置とに基づいて、前記視線検出部による視線検出の調整を行う視線検出調整部と、
前記注視対象に対するユーザ操作に応じて所定のアプリケーション処理を実行するアプリケーション処理部と、
として機能させ、
前記視線検出調整部は、前記アプリケーション処理を実行させる前記ユーザ操作時の視線位置と、前記注視対象の表示位置との関係に基づいて、視線検出の調整を行い、
前記注視対象は、表示部に表示される画像アイコンであって、
前記ユーザ操作は、前記画像アイコンの表示領域内に操作対象オブジェクトを移動させる操作であって、
前記視線検出調整部は、ユーザが表示画面上の操作対象オブジェクトを前記画像アイコンの表示領域内に移動させた際に検出された視線位置と、前記画像アイコンの表示位置とに基づいて、視線検出の調整を行う、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015043389 | 2015-03-05 | ||
JP2015043389 | 2015-03-05 | ||
PCT/JP2015/083013 WO2016139850A1 (ja) | 2015-03-05 | 2015-11-25 | 情報処理装置、制御方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016139850A1 JPWO2016139850A1 (ja) | 2017-12-14 |
JP6677239B2 true JP6677239B2 (ja) | 2020-04-08 |
Family
ID=56848421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503317A Active JP6677239B2 (ja) | 2015-03-05 | 2015-11-25 | 情報処理装置、制御方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11023038B2 (ja) |
EP (1) | EP3267295B1 (ja) |
JP (1) | JP6677239B2 (ja) |
CN (1) | CN107407977B (ja) |
WO (1) | WO2016139850A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024076009A1 (ko) * | 2022-10-06 | 2024-04-11 | 삼성전자주식회사 | 사용자의 시선 정보를 조정하기 위한 웨어러블 장치, 방법, 및 컴퓨터 판독 가능 저장 매체 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11023038B2 (en) * | 2015-03-05 | 2021-06-01 | Sony Corporation | Line of sight detection adjustment unit and control method |
US10466780B1 (en) * | 2015-10-26 | 2019-11-05 | Pillantas | Systems and methods for eye tracking calibration, eye vergence gestures for interface control, and visual aids therefor |
JP6832061B2 (ja) * | 2015-12-29 | 2021-02-24 | 株式会社バンダイナムコエンターテインメント | ゲーム装置及びプログラム |
JP6996883B2 (ja) | 2017-07-05 | 2022-01-17 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用観察装置 |
KR102374408B1 (ko) * | 2017-09-08 | 2022-03-15 | 삼성전자주식회사 | 가상 현실에서의 포인터 제어 방법 및 전자 장치 |
US11393251B2 (en) | 2018-02-09 | 2022-07-19 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
WO2019154509A1 (en) | 2018-02-09 | 2019-08-15 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
WO2019154511A1 (en) | 2018-02-09 | 2019-08-15 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters using a neural network |
US20190324528A1 (en) * | 2018-04-20 | 2019-10-24 | Microsoft Technology Licensing, Llc | Adjusting gaze point based on determined offset adjustment |
CN109213323B (zh) * | 2018-08-28 | 2022-04-29 | 北京航空航天大学青岛研究院 | 一种基于眼动交互技术实现屏幕姿态估计的方法 |
US11537202B2 (en) | 2019-01-16 | 2022-12-27 | Pupil Labs Gmbh | Methods for generating calibration data for head-wearable devices and eye tracking system |
JP7263825B2 (ja) * | 2019-02-19 | 2023-04-25 | オムロン株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
JP6943913B2 (ja) * | 2019-03-18 | 2021-10-06 | Necプラットフォームズ株式会社 | 情報表示システムおよびウェアラブルデバイス |
CN109960412B (zh) * | 2019-03-22 | 2022-06-07 | 北京七鑫易维信息技术有限公司 | 一种基于触控调整注视区域的方法以及终端设备 |
CN109917923B (zh) * | 2019-03-22 | 2022-04-12 | 北京七鑫易维信息技术有限公司 | 基于自由运动调整注视区域的方法以及终端设备 |
WO2020209184A1 (ja) * | 2019-04-09 | 2020-10-15 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10936057B2 (en) | 2019-04-09 | 2021-03-02 | Samsung Electronics Co., Ltd. | System and method for natural three-dimensional calibration for robust eye tracking |
US11676422B2 (en) | 2019-06-05 | 2023-06-13 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
CN112148112B (zh) * | 2019-06-27 | 2024-02-06 | 北京七鑫易维科技有限公司 | 校准方法及装置、非易失性存储介质和处理器 |
WO2021153577A1 (ja) * | 2020-01-31 | 2021-08-05 | ソニーグループ株式会社 | 視線検出装置のキャリブレーション |
WO2021220867A1 (ja) * | 2020-04-28 | 2021-11-04 | 株式会社Nttドコモ | 情報処理装置 |
JP7367637B2 (ja) | 2020-08-26 | 2023-10-24 | トヨタ自動車株式会社 | 顔情報取得装置および顔情報取得方法 |
JP7031112B1 (ja) | 2020-10-13 | 2022-03-08 | 裕行 池田 | 眼鏡型端末 |
EP3985486B1 (en) | 2020-10-13 | 2024-04-17 | Hiroyuki Ikeda | Glasses-type terminal |
JP2022171084A (ja) * | 2021-04-30 | 2022-11-11 | キヤノン株式会社 | 撮像装置及びその制御方法、並びにプログラム |
CN113413594A (zh) * | 2021-06-24 | 2021-09-21 | 网易(杭州)网络有限公司 | 虚拟角色的虚拟拍照方法、装置、存储介质及计算机设备 |
CN117152411A (zh) * | 2023-11-01 | 2023-12-01 | 安徽蔚来智驾科技有限公司 | 视线校准方法、控制装置及存储介质 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5481622A (en) * | 1994-03-01 | 1996-01-02 | Rensselaer Polytechnic Institute | Eye tracking apparatus and method employing grayscale threshold values |
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
JP3785669B2 (ja) * | 1996-03-05 | 2006-06-14 | 日産自動車株式会社 | 視線方向計測装置 |
JP3796019B2 (ja) * | 1997-09-02 | 2006-07-12 | 三洋電機株式会社 | 視線検出装置 |
JP2000163196A (ja) * | 1998-09-25 | 2000-06-16 | Sanyo Electric Co Ltd | ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置 |
JP3368226B2 (ja) | 1999-03-26 | 2003-01-20 | キヤノン株式会社 | 情報処理方法及び情報処理装置 |
CN1993688B (zh) * | 2004-08-03 | 2012-01-18 | 西尔弗布鲁克研究有限公司 | 走近启动的打印 |
US7986816B1 (en) * | 2006-09-27 | 2011-07-26 | University Of Alaska | Methods and systems for multiple factor authentication using gaze tracking and iris scanning |
GB0618979D0 (en) * | 2006-09-27 | 2006-11-08 | Malvern Scient Solutions Ltd | Cursor control method |
JP4384697B2 (ja) * | 2008-03-26 | 2009-12-16 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム処理方法、ならびに、プログラム |
JP2010030361A (ja) | 2008-07-25 | 2010-02-12 | Toyota Motor Corp | 運転状態監視装置 |
TWI432172B (zh) * | 2008-10-27 | 2014-04-01 | Utechzone Co Ltd | Pupil location method, pupil positioning system and storage media |
WO2010071928A1 (en) * | 2008-12-22 | 2010-07-01 | Seeing Machines Limited | Automatic calibration of a gaze direction algorithm from user behaviour |
JP5163535B2 (ja) | 2009-02-24 | 2013-03-13 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
WO2012052061A1 (en) * | 2010-10-22 | 2012-04-26 | Institut für Rundfunktechnik GmbH | Method and system for calibrating a gaze detector system |
EP3527121B1 (en) * | 2011-02-09 | 2023-08-23 | Apple Inc. | Gesture detection in a 3d mapping environment |
JP2014531662A (ja) * | 2011-09-19 | 2014-11-27 | アイサイト モバイル テクノロジーズ リミテッド | 拡張現実システムのためのタッチフリーインターフェース |
CA2853709C (en) * | 2011-10-27 | 2020-09-01 | Tandemlaunch Technologies Inc. | System and method for calibrating eye gaze data |
CN102510480B (zh) * | 2011-11-04 | 2014-02-05 | 大连海事大学 | 驾驶员视线自动校准和跟踪系统 |
JP5630518B2 (ja) * | 2012-03-14 | 2014-11-26 | 株式会社デンソー | 運転支援装置 |
US9164580B2 (en) * | 2012-08-24 | 2015-10-20 | Microsoft Technology Licensing, Llc | Calibration of eye tracking system |
US9147248B2 (en) * | 2012-12-21 | 2015-09-29 | Tobii Technology Ab | Hardware calibration of eye tracker |
WO2014106219A1 (en) * | 2012-12-31 | 2014-07-03 | Burachas Giedrius Tomas | User centric interface for interaction with visual display that recognizes user intentions |
US20140195918A1 (en) * | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
KR20140090552A (ko) * | 2013-01-09 | 2014-07-17 | 엘지전자 주식회사 | 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법 |
US9189095B2 (en) | 2013-06-06 | 2015-11-17 | Microsoft Technology Licensing, Llc | Calibrating eye tracking system by touch input |
US10073518B2 (en) * | 2013-08-19 | 2018-09-11 | Qualcomm Incorporated | Automatic calibration of eye tracking for optical see-through head mounted display |
WO2015125243A1 (ja) * | 2014-02-19 | 2015-08-27 | 三菱電機株式会社 | 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法 |
WO2016075532A1 (en) * | 2014-11-14 | 2016-05-19 | The Eye Tribe Aps | Dynamic eye tracking calibration |
CN107106007B (zh) * | 2014-12-16 | 2020-10-02 | 皇家飞利浦有限公司 | 具有校准改进、准确度补偿和注视局部化平滑的注视跟踪系统 |
US11023038B2 (en) * | 2015-03-05 | 2021-06-01 | Sony Corporation | Line of sight detection adjustment unit and control method |
JP2017134558A (ja) * | 2016-01-27 | 2017-08-03 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体 |
-
2015
- 2015-11-25 US US15/552,551 patent/US11023038B2/en active Active
- 2015-11-25 EP EP15884016.5A patent/EP3267295B1/en active Active
- 2015-11-25 JP JP2017503317A patent/JP6677239B2/ja active Active
- 2015-11-25 WO PCT/JP2015/083013 patent/WO2016139850A1/ja active Application Filing
- 2015-11-25 CN CN201580077167.0A patent/CN107407977B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024076009A1 (ko) * | 2022-10-06 | 2024-04-11 | 삼성전자주식회사 | 사용자의 시선 정보를 조정하기 위한 웨어러블 장치, 방법, 및 컴퓨터 판독 가능 저장 매체 |
Also Published As
Publication number | Publication date |
---|---|
CN107407977B (zh) | 2020-12-08 |
WO2016139850A1 (ja) | 2016-09-09 |
EP3267295A4 (en) | 2018-10-24 |
CN107407977A (zh) | 2017-11-28 |
JPWO2016139850A1 (ja) | 2017-12-14 |
US20180032131A1 (en) | 2018-02-01 |
EP3267295A1 (en) | 2018-01-10 |
US11023038B2 (en) | 2021-06-01 |
EP3267295B1 (en) | 2021-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6677239B2 (ja) | 情報処理装置、制御方法、およびプログラム | |
US10712901B2 (en) | Gesture-based content sharing in artificial reality environments | |
US10506913B2 (en) | Apparatus operation device, apparatus operation method, and electronic apparatus system | |
KR101284797B1 (ko) | 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법 | |
US10444908B2 (en) | Virtual touchpads for wearable and portable devices | |
JP6598617B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP5412227B2 (ja) | 映像表示装置、および、その表示制御方法 | |
JP2023515525A (ja) | ウェアラブルシステムのための手のジェスチャ入力 | |
CN106066537B (zh) | 头戴式显示器和头戴式显示器的控制方法 | |
KR20140079162A (ko) | 차량 내 손가락 사이점을 이용한 사용자 인터페이스 조작 시스템 및 방법 | |
KR20150032019A (ko) | 시선 추적 기반의 사용자 인터페이스 방법 및 그 장치 | |
JP6499384B2 (ja) | 画像表示装置、画像表示方法、及び画像表示プログラム | |
JP5766957B2 (ja) | ジェスチャ入力装置 | |
CN106817913A (zh) | 头戴式显示器、移动信息终端、图像处理装置、显示控制程序、显示控制方法和显示系统 | |
US10896545B1 (en) | Near eye display interface for artificial reality applications | |
WO2012145142A2 (en) | Control of electronic device using nerve analysis | |
US20180150133A1 (en) | Glasses-type terminal and control method therefor | |
CN110520822B (zh) | 控制装置、信息处理系统、控制方法和程序 | |
EP3346368B1 (en) | Device, method and system for control of a target apparatus | |
JP2016126687A (ja) | ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム | |
CN106774912B (zh) | 一种操控vr设备的方法及装置 | |
JP2015052895A (ja) | 情報処理装置及び情報処理方法 | |
JP2013073434A (ja) | 情報入力装置、および情報入力方法 | |
JP7427937B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
EP4345584A1 (en) | Control device, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181030 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181030 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200225 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6677239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |