JP6718460B2 - ヘッドアップ・ディスプレイを介する装置対話のための方法、システム、およびコンピュータ・プログラム - Google Patents

ヘッドアップ・ディスプレイを介する装置対話のための方法、システム、およびコンピュータ・プログラム Download PDF

Info

Publication number
JP6718460B2
JP6718460B2 JP2017539426A JP2017539426A JP6718460B2 JP 6718460 B2 JP6718460 B2 JP 6718460B2 JP 2017539426 A JP2017539426 A JP 2017539426A JP 2017539426 A JP2017539426 A JP 2017539426A JP 6718460 B2 JP6718460 B2 JP 6718460B2
Authority
JP
Japan
Prior art keywords
display
head
hud
heads
displays
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017539426A
Other languages
English (en)
Other versions
JP2018509693A (ja
Inventor
グロー、ジュニア、リチャード、サルヴァトーレ
マイヤー、アンドリュー
ベデル、ジュニア、スティーヴン、リチャード
オマリア、ケーシー、マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2018509693A publication Critical patent/JP2018509693A/ja
Application granted granted Critical
Publication of JP6718460B2 publication Critical patent/JP6718460B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明の実施形態はヘッドアップ・ディスプレイ(heads-up display)に関し、より詳細には、ヘッドアップ・ディスプレイ・ユーザと少なくとも1つの他の実体(entity)とのアイ・コンタクト(eye contact)に基づいて、ヘッドアップ・ディスプレイを介して装置と対話することに関する。
ヘッドアップ・ディスプレイ(HUD)装置のユーザが対話する(例えば、一方から他方へファイルを転送する)ことを可能にするための一手法は、従来のeメール、FTP、テキスト・メッセージング、またはUSBドライブ転送を使用することである。しかしながら、これらの方法は、マウス、キーボード、タッチ・スクリーンなどの精密な入力装置がないので、精密であることが難しいインターフェースでの多くの精密な操作を必要とするため、HUDの着用者(wearer)にとっては不便であり、時間がかかる。例えば、そのような精密な入力装置を用いずにHUD上でeメールを送ることの困難を考慮されたい。近距離場通信(NFC)技法は、潜在的には、他の従来の方法よりもユーザが活動化させやすいが、物理的近接を必要とするので、ユーザにとってやはり不便であることがある。例えば、2人の個人がファイルを転送することを望む度に頭に触れることは不便なことになる。
したがって本発明の課題はアイ・コンタクトを使用するヘッドアップ・ディスプレイを介するインターフェーシングを提供することである。
本発明の実施形態によれば、ヘッドアップ・ディスプレイを介する装置対話のためのシステムが、第1のヘッドアップ・ディスプレイを利用する第1の実体の視覚エリア(area of sight)を決定し、決定した視覚エリアの、少なくとも1つの第2の装置に対する少なくとも影響を検出したことに応答して、少なくとも1つの第1の装置と第1のヘッドアップ・ディスプレイとの間の対話を確立する。本発明の実施形態の一利点は、近距離場通信で必要とされる極近接を用いない従来の手法と比較して、低速または不便な操作数を削減することによって、HUDのユーザにとっての装置と対話する速度および単純さを改善することである。
本発明の別の実施形態によれば、第1のヘッドアップ・ディスプレイは第2の装置に結合され、対話を確立することは、第1のヘッドアップ・ディスプレイ上に第1の装置のインターフェースを提示することと、第1のヘッドアップ・ディスプレイに結合された第2の装置上の第1の実体の決定した視覚エリアまたは少なくとも1つのボイス・コマンドあるいはその両方に基づいて、提示したインターフェースを操作することと、提示したインターフェースの操作に基づいて第1の装置を制御することとを含む。そのような実施形態は、装置を手に持つことが不便、困難、または不可能である状況で操作するのに手を必要としないウェアラブルHUDで、装置(例えば、ラップトップ、ワークステーション、タブレットなど)をより容易に制御する利点をもたらす。
いくつかの実施形態では、決定した視覚エリアの少なくとも影響を検出することは、(1)第1のヘッドアップ・ディスプレイに関連する、対応する装置の電磁的信号検出器で、第1の装置の少なくとも1つに関連する送信機から送信された電磁的信号を検出すること、または(2)第1の装置の少なくとも1つに関連する、対応する装置の電磁的信号検出器で、第1のヘッドアップ・ディスプレイに関連する送信機から送信された電磁的信号を検出すること、あるいはその両方を含む。
別の実施形態では、第1のヘッドアップ・ディスプレイは、第1の実体の視覚方向に沿って信号を送信するための放射源を含み、第1の装置のそれぞれが、信号を受信するための受信機を備える第2の装置のうちの対応する1つに関連付けられ、決定した視覚エリアの少なくとも影響を検出することは、第1の装置に関連する受信機で、第1のヘッドアップ・ディスプレイから送信された信号を検出することを含む。
さらに別の実施形態では、第1のヘッドアップ・ディスプレイはイメージ・キャプチャ装置をさらに含み、視覚エリアを決定することは、イメージ・キャプチャ装置を介して第1の実体の視覚エリアを追跡することと、追跡した視覚エリアの方向に信号を送信するように放射源の照準を定めることとを含む。
さらに別の実施形態では、第1の装置は、第2の実体によって利用される第2のヘッドアップ・ディスプレイを含み、少なくとも1つの第2の装置は、第1の実体および第2の実体の決定した視覚エリアの影響を受ける共通装置を含む。
本発明の実施形態は、前述とほぼ同じ方式でヘッドアップ・ディスプレイを介して装置と対話するための方法およびコンピュータ・プログラム製品をさらに含む。
一般には、様々な図中の同様の参照番号が、同様の構成要素を示すために使用される。
本発明の一実施形態の例示的環境の概略図である。 本発明の一実施形態による、アイ・コンタクトのための例示的視覚構成要素(sightcomponent)のブロック図である。 本発明の一実施形態による、視線追跡を容易にするための例示的コンタクト・レンズの概略図である。 本発明の一実施形態に従って対話する2つのヘッドアップ・ディスプレイ・システムのブロック図である。 本発明の一実施形態による、2つのヘッドアップ・ディスプレイ・システムが対話することのできる例示的方式を示す流れ図である。 本発明の一実施形態による、2つのヘッドアップ・ディスプレイ・システムの着用者間のアイ・コンタクトを確立する例示的方式を示す流れ図である。 本発明の一実施形態による、1対多関係で他のヘッドアップ・ディスプレイ・システムと対話するヘッドアップ・ディスプレイ・システムのブロック図である。 本発明の一実施形態による、ヘッドアップ・ディスプレイ・システムが1対多関係で他のヘッドアップ・ディスプレイ・システムと対話することのできる例示的方式を示す流れ図である。 本発明の一実施形態による、アイ・コンタクトを使用して中間知覚装置を介して対話するヘッドアップ・ディスプレイ・システムのブロック図である。 本発明の一実施形態による、アイ・コンタクトを使用して複数のネットワークド中間知覚装置を介して対話するヘッドアップ・ディスプレイ・システムのブロック図である。 本発明の一実施形態による、アイ・コンタクトを使用して知覚装置と1対1関係で対話するヘッドアップ・ディスプレイ・システムのブロック図である。 本発明の一実施形態による、カメラ・ベースのアイ・コンタクトを使用してヘッドアップ・ディスプレイ・システムと知覚装置との間のアイ・コンタクトを確立する例示的方式を示す流れ図である。 本発明の一実施形態による、収束放射源ベースのアイ・コンタクトを使用してヘッドアップ・ディスプレイ・システムと知覚装置との間のアイ・コンタクトを確立する例示的方式を示す流れ図である。
本発明の実施形態は、HUDユーザと少なくとも1つの他の個人または装置とのアイ・コンタクトに基づいて、ヘッドアップ・ディスプレイ(HUD)を介して装置と対話するための技法を提供する。例えば、あるHUD装置から別のHUD装置にファイルを転送するために、あるHUD装置の着用者は、ファイルを送りたいという要望を示し、別のHUD装置の着用者は、ファイルを受信したいという要望を示し、着用者間でアイ・コンタクトが行われ、結果としてファイル転送プロセスが始まる。HUD装置は、直接的に、または1つまたは複数の中間装置を介して、1つまたは複数の他のHUD装置と1対1または1対多関係で対話することができる。一シナリオでは、第1のHUDユーザが、第2のユーザのHUDに対するリモート・ネットワーク接続を有するローカル装置(例えば、同じ部屋内の装置)とアイ・コンタクトを行う(例えば、それを見る)ことによって、第1のHUDユーザから離れた(例えば、別の都市内の)第2のHUDユーザと対話することができる。さらに、HUDは、HUD以外の装置とアイ・コンタクトを介して対話することができる。例えば、HUD着用者は、装置上のセンサを見ることによって装置との対話を開始することができる。さらに、HUD着用者は、カーソルを誘導するためにHUD着用者の注視(gaze)を使用して、HUD上に提示されるポイント・アンド・クリック・インターフェースを有する装置(例えば、ラップトップ、タブレットなど)と対話することができる。
HUDを介して装置と対話する例には、HUD(例えば、ウェアラブルHUD)と装置との間の以下の関係が含まれる。ファイル転送、音声通信(例えば、マイクロフォンを含むHUDとスピーカとの間のセルフォン、インターネット呼出しなど)のための接続を開始すること、装置制御(例えば、HUDが装置を制御し、または装置がHUDを制御する)、装置ステータスを閲覧すること、装置に関連するパブリック・メッセージ(例えば、「掲示板」)を閲覧すること、クライアント−サーバ関係(ウェアラブルHUDは、クライアントまたはサーバのどちらかでよい)、ログイン/認証(例えば、記憶されたキー、バイオメトリクス(例えば、虹彩パターン)などを介する)など。
装置が、能動的または受動的にHUDユーザまたは着用者からのアイ・コンタクトを検出することができる。例えば、装置はカメラを含むことができ、カメラからのイメージ・データを能動的に解析して、個人が装置を見ていると判定することができる。あるいは、装置は、受動的にHUD着用者からのアイ・コンタクトを検出することができる。例えば、装置は、HUDの着用者が装置を見ていることを示す集束信号をHUDから受信することができる。
本発明の実施形態の一利点は、従来の手法と比較して、HUDのユーザにとっての装置と対話する速度および単純さを改善することである。例えば、eメールを使用するHUDを介するファイル転送は、送信機と受信機の両方についてのHUDによって提示されるユーザ・インターフェース(UI)で行われるべき多くの動作を必要とする。送信機または受信機あるいはその両方は、受信機アドレスを指定し、メール・クライアントにアクセスしてログインし、ダウンロードする添付ファイルを選択するなどのために動作を行わなければならない。本発明の一実施形態は対話を単純化する。ファイル転送は、ハンズ・フリーで実施することができ、したがってユーザが他の作業で忙しいときであっても行うことができる。
近距離場通信(NFC)技法を使用する代替手法(例えば、電話間で情報を交換するために使用される「バンプ(bump)」)は、両方のユーザがNFC機能を備える装置を有し、そうした装置をその時に着用し、装置を使用するための時間および空いている手を有することを必要とする。さらに、ウェアラブルHUDと共にNFC技法を使用することは、着用者が2つのHUD装置(例えば、眼鏡)と共にバンプすることを必要とし、それは不便であり、直感的ではない。本発明の実施形態は、ウェアラブルHUDを介する、直感的で、ハンズ・フリーの、より高速で、かつ便利な対話方法を提供する。
本発明の実施形態についての例示的環境が図1に示されている。具体的には、環境は、1つまたは複数のヘッドアップ・ディスプレイ(HUD)システム110、1つまたは複数のサーバ・システム120、1つまたは複数の知覚装置130、および1つまたは複数のリモート・システム140を含むことができる。HUDシステム110、サーバ・システム120、知覚装置130、およびリモート・システム140は、ネットワーク12を介して通信することができる。ネットワーク12は、任意の数の任意の適切な通信媒体(例えば、広域ネットワーク(WAN)、ローカル・エリア・ネットワーク(LAN)、インターネット、イントラネット、ハードワイヤ、ワイヤレス・リンクなど)によって実装することができる。
HUDシステム110はヘッドアップ・ディスプレイ40を備え、ヘッドギア(例えば、ヘッド・マウント・ディスプレイ、ヘルメット・マウント・ディスプレイ、眼鏡など)、他のウェアラブル装置(例えば、コンタクト・レンズ、衣類など)、または対話型ユーザ・インターフェースを有する他の構成の形態でよい。HUDシステム110または知覚装置130あるいはその両方は、個人または装置あるいはその両方の間のアイ・コンタクトを確立するための視覚構成要素50を備えることができる。視覚構成要素50は、HUDシステム110内、HUDシステム110上、またはHUDシステム110の近傍、あるいはそれらの組合せに配置してよい。あるいは、視覚構成要素は、関連するHUDシステムから離れていてもよく、例えばネットワーク12を介してHUDシステムと通信することができる。さらに、任意の数の知覚装置130は視覚構成要素50を含むことができる。HUDシステム110は、任意のグラフィカル・ユーザ・インターフェース(例えば、GUIなど)または他のインターフェース(例えば、制御ボタン、タッチ・センサ、視覚センサ、加速度計、マイクロフォンおよびボイス・コマンド・インターフェースなど)を提示して、ユーザからコマンドを受け取り、ユーザに情報を表示することができる。知覚装置130は通常、一体型ディスプレイが欠如しており、ユーザによって着用されないが、ディスプレイを含むことができ、またはユーザによって着用することができ、あるいはその両方である。
HUDシステム110、サーバ・システム120、知覚装置130、およびリモート・システム140は、少なくとも1つのプロセッサ20、メモリ30、または内部もしくは外部ネットワーク・インターフェースもしくは通信装置10(例えば、モデム、ネットワーク・カード、Wi−Fi、ワイヤレス(例えば、3G、4Gなど)など)、あるいはそれらの組合せと、市販のソフトウェアおよびカスタム・ソフトウェア(例えば、ユーザ・インターフェース・ソフトウェア、ネットワーク・ソフトウェア、サーバ・ソフトウェアなど)とを含むことができる。好ましくは、サーバ・システム120は、ディスプレイまたはモニタと、任意選択の入力装置(例えば、キーボード、マウス、または他の入力装置)とを備える。
HUDシステム、サーバ・システム、知覚装置、またはリモート・システム、あるいはそれらの組合せは、以下で説明する本発明の実施形態の様々な機能(例えば、着用者の注視の方向を追跡すること、他からのアイ・コンタクトを検出すること、赤外線または他の信号を送信および受信することなど)を実施するための1つまたは複数のモジュールまたはユニット(例えば、視線モジュール、解析モジュール、信号モジュールなど)を含むことができ、任意の量のソフトウェアまたはハードウェア・モジュールまたはユニットあるいはその両方の任意の組合せによって実装することができ、プロセッサ20による実行のために、HUDシステム、サーバ・システム、知覚装置、リモート・システム、または他のシステム(例えば、視覚構成要素50)のメモリ30内に常駐することができる。
本発明の一実施形態による例示的視覚構成要素50が図2に示されている。特に、視覚構成要素50は、他の装置(例えば、視線内、視覚円錐(cone of sight)内、視覚エリア内、またはHUDシステムもしくはユーザの視野内の装置)に対して信号をそれぞれ送信および受信するための放射源220および検出器230を備える。視覚構成要素50は視線トラッカ226をさらに備えることができる。放射源220は、視線トラッカ226と共に動作することのできる広域放射源222または集束放射源(focused emitter)224あるいはその両方を含むことができる。
広域放射源222は、従来型または他の電磁(EM)放射源222(例えば、赤外線光源)によって実装することができ、任意のエリアまたはフィールド(例えば、円錐、全方向など)内にEM信号を放射することができる。集束放射源224は、集束され、コリメートされ、または他の細い、有向電磁(例えば、赤外線)光源(directed electromagnetic source)(例えば、レーザ、光学的にコリメートされた光源(optically collimated source)など)でよい。センサ234は、カメラ、または従来型または他の光検出器によって実装することができる。検出器230は、例えば別のHUDの放射源220から、検出器に入射する信号を検出する。検出器230は、カメラ232またはセンサ234(例えば、従来型または他の光検出器)あるいはその両方を使用して実装することができる。
本発明の一実施形態によれば、カメラ232を備えるHUDシステム110または知覚装置130は、システムまたはシステムの着用者とアイ・コンタクトを行う個人を検出するためにカメラ内で動作する解析モジュールを含む。例えば、解析モジュールは、カメラが個人の視線、視覚エリア、または視野内にあると判定することができる。カメラ・イメージ・データから個人の視線または視覚エリアを検出するための従来型または他のパターン認識技法を使用して、解析モジュールを実装することができる。さらに、カメラ232を使用して、別のHUDシステム110または他の知覚装置130の放射源220から信号を受信することができる。信号モジュールは、カメラから信号を受信して復号し、信号を符号化し、放射源を介して送信する。この実施形態によれば、他のシステムは非集束放射源を使用することができ、集束放射源または視線トラッカを含む必要はない(しかし、含むことができる)。
本発明の別の実施形態によれば、HUDシステム110は、集束放射源224および視線トラッカ226を備える。視線トラッカ226および集束放射源224は通常、ユーザによって着用されたHUD上に取り付けられる。視線トラッカ226は、HUDの着用者が見ている方向を監視する。視線モジュールは、着用者が見ている方向について視線トラッカ226から情報を受け取り、集束放射源224が同じ方向を向くように操作する。ユーザが別のHUDシステム110または他の知覚装置130を見るとき、他のシステムは、集束放射源からの信号を(例えば、センサ234を介して)検出し、それによって着用者が装置を見ていると判定することができる。この実施形態によれば、他のシステムは、外向きのカメラ232を含む必要はない(しかし、含むことができる)。
視線トラッカ226は、周知の技法を使用して実装することができる。例えば、視線トラッカは、着用者の目に向く1つまたは複数のカメラを備えることができる。視線モジュールは、周知の技法を使用して、カメラ・データを解析して着用者の注視方向を決定することができる。代替または追加として、視線トラッカ226は、コンタクト・レンズを使用して、ユーザの注視方向を決定するのを支援することができる。
本発明の一実施形態による、視線追跡を容易にするための例示的コンタクト・レンズが図3に示されている。空間内の2つの地点によって直線が定義されるので、コンタクト・レンズ上の2つの地点のそれぞれに小さい装置を配置することができる。例えば、レンズの中心の内面付近に位置合せ装置2を配置することができ、レンズの中心の外面付近に位置合せ装置1を配置することができる。視線トラッカ226は、これらの2つの地点によって定義される直線を検出し、その直線に沿って集束放射源の照準を定める。これらの装置を目の中央の盲点に配置することができる。
本発明の一実施形態による、2つのHUDシステム110が対話する例示的方式が図4および5に示されている。1つのHUDシステム110(HAと表す)がユーザAによって着用され、第2のHUDシステム110(HBと表す)がユーザBによって着用される。ユーザAおよびBは互いに可視であり、ユーザAおよびBのHUDシステムのそれぞれが他方のユーザからのアイ・コンタクトを検出するのに十分な近さにある。ユーザAおよびBは、それぞれHAおよびHBを介して対話することができる。例えば、ユーザAは、HAを使用して、転送するファイルを選択することができる。これらのファイルは、例えば、HAのローカルにあり、またはリモートに(例えば、サーバ・システム120上のユーザA用のストレージ440内に)あってよい。ユーザBは、HBを使用してファイルを閲覧することができ、ファイルは、例えば、HBのローカルにあり、またはリモートに(例えば、サーバ・システム上のユーザB用のストレージ450内に)あってよい。ユーザAは、ユーザBにファイルを送ることを望み、ユーザBはユーザAからファイルを受信することを望む。
ステップ510で、ユーザAは、対話を開始するためにコマンドを(例えば、音声またはその他の方法で)HAに送る。例えば、ユーザAは、選択したファイルを転送するようにHAにコマンドを送ることができる。ステップ520で、ユーザBは、トランザクションを開始するためのコマンドを(例えば、音声またはその他の方法で)HBに送る。例えば、ユーザBは、ファイルを受信するようにHBにコマンドを送ることができる。ステップ530で、AとBとの間のアイ・コンタクトが確立される。アイ・コンタクトを確立する間に、HAとHBは信号410を交換することができ、HAはHBの一意識別子を得ることができる。同様に、HBはHAの一意識別子を得ることができる。HUD110または知覚装置130の一意識別子を使用して、HUDまたは知覚装置と通信するためのアドレスを決定することができる。例えば、固有アドレスを使用して、IPアドレスまたはドメイン名をルックアップすることができる(または固有アドレスはIPアドレスまたはドメイン名でよい)。
HAおよびHBが対話を開始するためのコマンドを受信し、アイ・コンタクトを確立した結果として、ステップ540で対話が開始される。開始された後に、対話は、従来または他の方式で進行することができる。例えば、HAは、ステップ530で得られたHBについての一意識別子を使用して、ネットワーク・インターフェース装置10およびネットワーク12を介してTCP接続を確立し、あるいはHBと通信することができる。あるいは、HAとHBは、放射源220および検出器230を介してネットワーク接続を確立し、あるいは別の情報を転送することができる。図4に示される例では、HAは、選択されたファイル、または選択されたファイルの識別子をサーバ・システム120のコントローラ・モジュール430に送信し、コントローラ・モジュール430は、ユーザAのストレージ440からユーザBのストレージ450にファイルを転送する。HBは、(例えば、FTP、POP/IMAPなどを介して)サーバ・システムにポーリングし、ファイルを取り出す。次いで、ユーザBは、HUD HBからのファイルを閲覧することができる。
本発明の一実施形態による、2つのヘッドアップ・ディスプレイ(HUD)システムの着用者間のアイ・コンタクトを確立する例示的方式が図6に示されている。HUDシステムのそれぞれが、(例えば、カメラ232のイメージを解析することによって能動的に、または集束放射源224からの信号を受信することによって受動的に)アイ・コンタクト検出を実施し、放射された信号を受信して復号し、以下のステップを実施する。ステップ610で、HUDシステムは(例えば、その放射源220を明滅する(flash)ことによって)一意識別子を放射する。ステップ620で、HUDシステムは、以下の条件が真であるかどうかを示すブール信号Sを(放射源220を介して)放射する。条件は、HUDシステムが、対話を開始する(例えば、選択されたファイルを送信する、ファイルを受信するなど)ためのコマンドを受信しており、HUDシステムが、別のHUDシステムの着用者からのアイ・コンタクトを検出することである。HUDシステムが別のシステムから真の値を有するブール信号Sを受信した場合、ステップ630で、HUDシステムは別のシステムの一意識別子を放射する。ステップ640で、HUDシステムは、それ自体の一意識別子を他のHUDシステムから受信したかどうかを判定する。そうである場合、処理はステップ540(図5)に進み、HUDシステム間の対話を開始する。そうでない場合、処理はステップ610に戻る。
したがって、HAはその放射源220から以下の3つの信号を放射する。(1)HAの一意識別子、(2)HAがアイ・コンタクトを検出し、Aがインターフェーシングを開始する(例えば、ファイルを送信する)ためのコマンドを与えたかどうかを示すブール信号、および(3)インターフェーシングを開始することが自由であることをHBがHAにシグナリングする(例えば、Bがファイルを受信するためのコマンドを与えた)場合にのみ、そのユーザがHAとアイ・コンタクトを確立したHUDの一意識別子。第3の信号は、信号1および2がHBのためだけのものであることを示すことにより、複数の装置がアイ・コンタクトを検出するケースでの曖昧なシグナリングを防止する。同様に、HBは、その放射源220を介して以下の3つの信号を放射する。(1)HBについての一意識別子、(2)HBがアイ・コンタクトを検出し、HBがインターフェーシングすることが自由であるかどうかを示すためのブール信号、および(3)インターフェーシングを開始することが自由であることをHAがHBにシグナリングする場合にのみ、そのユーザがHBとアイ・コンタクトを確立したHUDの一意識別子。第3の信号は、信号1および2がHAのためだけのものであることを示すことにより、複数の装置がアイ・コンタクトを検出するケースでの曖昧なシグナリングを防止する。AがBを見るとき、Aによって着用されるHUDは、HBの一意識別子を確認し、その一意識別子から、HBとインターフェースすることのできるアドレスを識別することができる。さらに、インターフェーシングのための前提条件として、AがBを見るとき、HAは、HBのブール信号(HBがアイ・コンタクトを検出し、かつHBはインターフェーシングすることが自由であることを示す)が「True」に設定されることを確認しなければならない。その前提条件が満たされると、HAとHBは、互いの直接的な、または対話を仲介する1つまたは複数のサーバに対する接続対話を(例えば、ネットワーク12を介して)確立する。次いで、HAとHBは接続を介して対話することができる。
本発明の一実施形態による、HUDシステム110が1対多関係で他のHUDシステム110と対話することのできる例示的方式が図7および8に示されている。1つのHUDシステム110(HAと表す)がユーザAによって着用され、1つまたは複数の他のHUDシステム110(例えば、HB1、HB2、...HBN)が、対応する他のユーザ(例えば、B1、B2、...BN)によって着用される。ユーザAは(視線92を介して)ユーザB1〜BNにとって可視であり、HB1〜HBNのそれぞれについて、HAからの信号を検出するのに十分な近さである。HAは、1対多の形でHB1〜HBNと対話することができる。例えば、ユーザAは、視覚的範囲内のHUDシステムを着用する人々の大きなグループにファイルを転送することを望むことがある。ユーザAは、ファイルを選択し、「ファイル・ブロードキャスト」モードに入って、HAとアイ・コンタクトを行うすべてにファイルを転送することができる。
特に、ステップ810で、ユーザAは、ブロードキャスト・モードで対話を開始するためのコマンドを(例えば、音声またはその他の方法で)HAに送る。ステップ820で、各ユーザB1〜BNは、ブロードキャスト受信機としてトランザクションを開始するためのコマンドを(例えば、音声またはその他の方法で)ユーザのHUDシステムに送る。ステップ830で、HAとHB1〜HBNのそれぞれとの間でアイ・コンタクトが確立される。例えば、図6に関して説明した方式で、ユーザAとユーザB1〜BNのそれぞれとの間でアイ・コンタクトを確立することができる。あるいは、HAは、HAからのコマンドに応答して、(例えば、非集束放射源222を介して)その一意識別子およびそのブロードキャスト・モードを示す信号を放射することができ、次いで、HAからの一意識別子および信号を検出するHB1〜HBNによって、アイ・コンタクトが確立される。
HAおよびHB1〜HBNがコマンドを受信し、アイ・コンタクトを確立する結果として、ステップ840で対話が開始される。開始された後に、対話は、従来または他の方式で進行することができる。例えば、HAは、(例えば、ネットワーク12を介して)ファイルまたは他のデータをサーバに送ることができ、HB1〜HBNは、ステップ830で得られたHAについての一意識別子を使用して、(例えば、ネットワーク12を介して)ファイルまたは他のデータをサーバに要求することができる。
本発明の一実施形態による、中間知覚装置130を使用してHUDシステム110が対話することのできる例示的方式が図9に示されている。1つのHUDシステム110(HAと表す)がユーザAによって着用され、第2のHUDシステム110(HBと表す)がユーザBによって着用される。知覚装置130(装置D)が両方のユーザにとって可視であり、装置Dがユーザからのアイ・コンタクトを検出するのに十分な近さである。ユーザAおよびBは、互いに可視である必要はない。ユーザAおよびBは、装置Dとのアイ・コンタクトを使用して対話する(例えば、ファイルを転送する)ことができる。あるいは、対話は、例えば、図5に関して説明したのと同様の方式で進行することができる。
HUDユーザが中間知覚装置を使用して対話する別の例示的シナリオでは、HUDユーザは、装置Dに関して、読取り専用関係および読み書き関係(read-write relationship)という2つの特権を有することができる。装置Dは、所与の時刻にただ1つのファイルだけと関連付けることができる。ユーザAが装置Dとの間で読み書き特権を有し、1人または複数の他のHUDユーザ(例えば、人々の大きなグループ)にファイルを送ることを望む場合、ユーザAは、装置Dにファイルを送るために装置Dとアイ・コンタクトを行うことができる。装置Dとの間で読取りまたは読み書き特権を有する他のHUDユーザは、ファイルをダウンロードするために、多数の同時着信および発信接続を処理するのに必要なハードウェアまたはソフトウェアを有しないことがあるHAとアイ・コンタクトを行わなければならないのではなく、装置Dを見ることができる。
本発明の一実施形態による、HUDシステム110が複数の中間知覚装置130を使用して対話することのできる例示的方式が図10に示されている。1つのHUDシステム110(HAと表す)がユーザAによって着用され、第2のHUDシステム110(HBと表す)がユーザBによって着用される。知覚装置(CA)はユーザBにとって可視であり、CAがユーザBからのアイ・コンタクトを検出するのに十分な近さである。知覚装置(CB)はユーザAにとって可視であり、CBがユーザAからのアイ・コンタクトを検出するのに十分な近さである。CAは、(例えばネットワーク12を介する)HAに対する接続を有し、CBは、(例えばネットワーク12を介する)HBに対する接続を有する。ユーザAおよびBは互いに可視である必要はなく、互いから遠くに離れることができる。ユーザAおよびBは、図5に関して説明したのと同様の方式で、それぞれCBおよびCAとのアイ・コンタクトを使用して対話する(例えば、ファイルを転送する)ことができる。例えば、ユーザAは、HAを使用して、転送する(例えば、ローカル・ストレージ上、サーバ上などの)ファイルを選択し、ユーザBにファイルを転送するために(例えば、音声、タッチ、ジェスチャなどによって)HAにコマンドを送ることができる。ユーザBは、Aからファイルを受信するために(例えば、ボイス、タッチ、ジェスチャなどによって)HBにコマンドを送る。CBがAとのアイ・コンタクトを検出したのと同時に、CAがBとのアイ・コンタクトを検出したことに応答して、HAがそれによってHBにファイルを送る、HAとHBとの間の直接的または間接的接続を(例えば、ネットワーク12を介して)作成することができる。本発明の一実施形態によれば、CAまたはCBは、例えば、ラップトップ上のウェブカメラとして実装することができる。
本発明の一実施形態による、アイ・コンタクトを使用してHUDシステム110が装置(例えば、知覚装置130)と対話することのできる例示的方式が図11に示されている。HUDシステム・ユーザが装置の検出器220とアイ・コンタクトを行うとき、装置のためのインターフェース1100が、ユーザのHUDシステム上に表示される。例として、発電機で一杯の部屋に入り、どの発電機が故障しているかを見つける必要がある、HUDシステム110を着用する技術者を考慮する。知覚装置130が各発電機上にある。HUDシステム・ユーザが装置と対話するためにどこを見るかを決定することができるように、物体(object)(例えば、発電機)上の知覚装置130の検出器230の位置を規則によって確立することができ(例えば、「センサは常に物体の右上コーナにある」)、または物体上にマークすることによって位置を示すことができる(例えば、どこにセンサがあるかを示す目印(bulls eye))。技術者が各発電機上の適切な位置とアイ・コンタクトを行うとき、技術者のHUD上のポップアップ・インターフェース1100が、発電機の状態、例えばどれほどの電気を発生させているかを表示する。したがって、HUDは、どの発電機が故障しているかの表示を技術者に提供する。
さらに、知覚装置130を有する非HUD装置が、知覚装置を見るHUDの着用者に対話型インターフェースを提供することができる。例えば、HUDの着用者が街路を歩く間、アイ・コンタクトを介して対話することのできる装置を、HUD上の小さいアイコンで示し、またはタグ付けすることができる。着用者がこれらのアイコンを直接的に見る(すなわち、装置を直接的に見る)場合、アイコンは、例えば、装置についての情報、および装置と対話するために行うことのできる操作を拡張し、提示することができる。例えば、そのような装置をレストランの外面に配置することができる。この装置を、ユーザHUD内の小さいアイコンでタグ付けすることができる。HUD着用者が(例えば、インターフェース内のアイコンを直接的に見ることによって)装置とアイ・コンタクトを行う場合、アイコンは、HUD着用者情報(例えば、レストランがどれほどの空席を有したか、待ち時間がどれほどであったか、メニューなど)を拡張し、示すことができる。HUD着用者は、装置で操作を実施する(例えば、このレストラン・インターフェースから注文を行い、または予約を取る)ことができる。
本発明の一実施形態による、カメラ・ベースのアイ・コンタクトを使用してヘッドアップ・ディスプレイ・システム110と知覚装置130(装置D)との間でアイ・コンタクトを確立する例示的方式が、図12および13に示されている。HUDシステムはカメラ232を含み、装置Dは、カメラ232と、カメラと共に動作して、装置Dのカメラ232とアイ・コンタクトを行う個人を検出する解析モジュールとを含む。装置Dは、カメラ232のイメージを解析することによってアイ・コンタクト検出を実施する。HUDシステムおよび装置Dはそれぞれ、他方の放射源220から信号を受信し、復号する。
HUDシステムは以下のステップを実施する。ステップ1210で、HUDシステムは、(例えば、その放射源220を明滅することによって)一意識別子を放射する。ステップ1220で、HUDシステムは、HUDシステムが対話を開始する(例えば、選択されたファイルを送り、ファイルを受信するなど)ためのコマンドを受信したかどうかを示すブール信号Sを(放射源220を介して)放射する。HUDシステムが、装置Dが対話することが自由であることを示すブール信号Sを装置Dから受信した場合、ステップ1230で、HUDシステムは、装置Dの一意識別子を放射する。ステップ1240で、HUDシステムは、装置Dシステムからそれ自体の一意識別子を受信したかどうかを判定する。そうである場合、ステップ1250で、HUDシステムは、(例えば、装置Dにファイルを送るネットワーク12を介して、装置Dに対するTCP接続を確立することによって)装置Dの一意識別子を使用して対話を開始する。そうでない場合、HUDシステムはステップ1210に戻る。
装置Dは以下のステップを実施する。ステップ1310で、装置Dは(例えば、その放射源220を明滅することによって)一意識別子を放射する。ステップ1320で、装置Dは、以下の条件が真であるかどうかを示すブール信号Sを(放射源220を介して)放射する。条件は、装置DがHUDシステム・ユーザからのアイ・コンタクトを検出し、装置Dが自由に対話することができることである。HUDシステムが対話を開始するためのコマンドを受信したことを示すブール信号Sを装置DがHUDシステムから受信した場合、ステップ1330で、装置Dは、HUDシステムの一意識別子を放射する。ステップ1340で、装置Dは、HUDシステムからそれ自体の一意識別子を受信したかどうかを判定する。そうである場合、ステップ1350で、装置Dは、HUDシステムの一意識別子を使用して(例えば、ネットワーク12を介してHUDに対するTCP接続を確立し、ファイルを受信することによって)対話を開始する。そうでない場合、装置Dはステップ1310に戻る。
本発明の代替実施形態によれば、ヘッドアップ・ディスプレイ・システム110は、集束放射源224および視線トラッカ226を含み、以下の方式で知覚装置130(装置D)と対話する。視線トラッカ226は、HUDシステムの着用者の眼球運動を追跡し、着用者が見る方向を向くように集束放射源を誘導する。装置Dの検出器230(例えば、センサ234)は、HUDシステムの集束放射源から信号を受信する。HUDシステムおよび装置Dはそれぞれ、他方の放射源から信号を受信し、復号する。HUDシステムと装置Dとの間のアイ・コンタクトを確立するために、HUDシステムは、集束放射源を介して以下の2つの信号を放射する。(1)HUDの一意識別子、および(2)対話を開始するためのコマンドをHUDシステムが受信したかどうかを示すブール信号。HUDシステムの着用者が装置Dを見るとき、装置Dは、HUDシステム集束放射源から信号を受信する。これらの信号から、装置Dは、HUDシステムの一意識別子を決定し、装置Dが対話することが自由である場合、装置Dは、HUDシステムの一意識別子を使用して(例えば、ネットワーク12を介してHUDシステムに対するTCP接続を確立し、ファイルを受信することによって)対話を開始する。
本発明の別の実施形態によれば、知覚装置130または他の装置(例えば、リモート・システム140)を含む装置は、HUDシステム110を介してユーザにインターフェースを提示する。例えば、HUDシステム110の着用者は、手元にない装置(例えば、タブレット、ラップトップなど)(例えば、離れている装置、アクセス不能の装置、バックパック内の装置、別の部屋内の装置など)と対話することができる。その装置は、装置の画面上に表示されるユーザ・インターフェース(UI)や、HUDシステム内に記憶されるUIなどの、その装置に関連するUIを有する。HUD着用者は、HUD上に装置のUIを表示して、このUIを介してHUDシステムと装置との間のデータ接続(例えば、ネットワーク12を介するTCP接続)を使用して装置を制御することができる。装置とウェアラブルHUDシステムとの間のアイ・コンタクトを介して、またはその他の方法で接続を確立することができる。
一実施形態によれば、ウェアラブルHUD内に示されるUIは、装置の従来型ディスプレイ上に現れるUIに類似した、または厳密なコピーでよい。あるいは、ウェアラブルHUDのUIにより良く適合するように、装置とHUDとの間でUIを変換または変更することができる。
HUDを介して他の装置にユーザ・インターフェースを提供すること(それにより、操作の際に手を不要にすることができ、または手の使用を最小限に抑えることができる)により、装置を手に持つことが不便であり、困難であり、または不可能である状況で、別の装置のより容易な制御が可能となる。HUDを介するラップトップなどの装置の制御は、ある環境ではマウスおよびキーボードを使用することよりも非効率であることがあるが、装置が遠く離れており、あるいは直接的にアクセスすることが困難または実現不可能である場合(例えば、混雑した地下鉄の列車内で立っている間、歩いている間など)、より便利であることがある。
HUDシステム110を介してユーザ・インターフェースを提供することのできる装置は、画面を備える装置(スマートフォン、ラップトップなど)と、画面を備えない装置とを含むことができる。画面を備えない装置は、装置に接続するHUDシステムに対するHUD特有のUIを表示することができる。例えば、ヘッドレス装置について、HUDシステムは、装置と対話するために使用されるUIを定義することができる。
視線トラッカ226を備えるHUDシステムを介してユーザに提示することのできるポイント・アンド・クリックまたはタッチ・インターフェース(例えば、デスクトップ/ラップトップ・コンピュータ・インターフェース、タッチパッド/スマートフォン・インターフェースなど)を提供する装置について、HUDユーザは、ユーザの目を使用して、この装置のUIのカーソルを誘導し、例えばボイス・コマンドを使用して、カーソルを介して操作(例えば、左/右クリック、「タップ」(すなわち、タッチ・スクリーンと接触する指をシミュレートすること)など)を実施することができる。このようにして、HUDインターフェースにより、ボイス・コマンドまたは他のコマンドだけよりも細かい装置の制御が可能となる。
上記で説明し、図面で示した実施形態は、ヘッドアップ・ディスプレイ(HUD)を介してアイ・コンタクトを使用して装置と対話するための実施形態を実装する多くの方式のうちのほんのいくつかを表すに過ぎないことが理解されよう。
本発明の実施形態の環境は、所望の方式で構成された、任意の数のコンピュータまたは他の処理システム(例えば、クライアントまたはエンド・ユーザ・システム、サーバ・システムなど)およびストレージ・システム(例えば、ファイル・システム、データベース、または他のリポジトリ)を含むことができ、任意の所望のタイプのコンピューティング環境(例えば、クラウド・コンピューティング、クライアント−サーバ、ネットワーク・コンピューティング、メインフレーム、スタンド・アロン・システムなど)に本発明の実施形態を適用することができる。本発明の実施形態によって利用されるコンピュータまたは他の処理システムは、任意の数の任意のパーソナルまたは他のタイプのコンピュータまたは処理システム(例えば、デスクトップ、ラップトップ、PDA、モバイル装置など)によって実装することができ、任意の市販のオペレーティング・システム、および市販のソフトウェアとカスタム・ソフトウェア(例えば、データベース・ソフトウェア、通信ソフトウェアなど)の任意の組合せを含むことができる。これらのシステムは、情報を入力または閲覧し、あるいはその両方を行うための任意のタイプのモニタおよび入力装置(例えば、キーボード、マウス、音声認識、タッチ・スクリーンなど)を含むことができる。
本発明の実施形態のソフトウェアは、任意の所望のコンピュータ言語で実装することができ、本明細書に含まれる機能説明および図面に示される流れ図に基づいてコンピュータ技術の技術者によって開発することができることを理解されたい。さらに、様々な機能を実施するソフトウェアの本明細書でのどのような参照も、一般には、ソフトウェア制御下でそうした機能を実施するコンピュータ・システムまたはプロセッサを指す。あるいは、本発明の実施形態のコンピュータ・システムは、任意のタイプのハードウェアまたは他の処理回路あるいはその両方によって実装することができる。
コンピュータまたは他の処理システムの様々な機能は、任意の数のソフトウェアまたはハードウェア・モジュールもしくはユニットあるいはその両方、処理もしくはコンピュータ・システムまたは回路あるいはその両方の間で、任意の方式で分散することができ、コンピュータまたは処理システムは、互いにローカルまたはリモートに配設することができ、任意の適切な通信媒体(例えば、LAN、WAN、イントラネット、インターネット、ハードワイヤ、モデム接続、ワイヤレスなど)を介して通信することができる。例えば、本発明の実施形態の機能は、様々なエンド・ユーザ/クライアントおよびサーバ・システム、または任意の他の中間処理装置、あるいはその両方の間で、任意の方式で配布することができる。上記で説明し、流れ図で示したソフトウェアまたはアルゴリズムあるいはその両方は、本明細書で説明する機能を実施する任意の方式で変更することができる。さらに、流れ図または説明の中の機能は、所望の動作を実施する任意の順序で実施することができる。
本発明の実施形態のソフトウェアは、ネットワークまたは他の通信媒体によって接続されたスタンド・アロン・システムまたはシステムと共に使用するための静止またはポータブル・プログラム製品機器または装置の非一時的コンピュータ使用可能媒体(例えば、磁気または光媒体、光磁気媒体、フロッピー(R)・ディスケット、CD−ROM、DVD、メモリ装置など)上で利用可能でよい。
通信ネットワークは、任意の数の任意のタイプの通信ネットワーク(例えば、LAN、WAN、インターネット、イントラネット、VPNなど)によって実装することができる。本発明の実施形態のコンピュータまたは他の処理システムは、任意の従来型または他のプロトコルを介してネットワークを介して通信するための、任意の従来型または他の通信装置を含むことができる。コンピュータまたは他の処理システムは、ネットワークにアクセスするために任意のタイプの接続(例えば、ワイヤード、ワイヤレスなど)を利用することができる。ローカル通信媒体は、任意の適切な通信媒体(例えば、ローカル・エリア・ネットワーク(LAN)、ハードワイヤ、ワイヤレス・リンク、イントラネットなど)によって実装することができる。
システムは、情報を記憶するために任意の数の任意の従来型または他のデータベース、データ・ストア、またはストレージ構造(例えば、ファイル、データベース、データ構造、データまたは他のリポジトリなど)を利用することができる。データベース・システムは、情報を記憶するために任意の数の任意の従来型または他のデータベース、データ・ストア、またはストレージ構造(例えば、ファイル、データベース、データ構造、データまたは他のリポジトリなど)によって実装することができる。データベース・システムをサーバ・システムまたはクライアント・システムあるいはその両方の中に含めることができ、またはそれらに結合することができる。データベース・システムまたはストレージ構造あるいはその両方は、コンピュータまたは他の処理システムに対してリモートでよく、またはローカルでよく、任意の所望のデータを記憶することができる。
本発明の実施形態は、情報を取得または提供するために任意の数の任意のタイプユーザ・インターフェース(例えば、グラフィカル・ユーザ・インターフェース(GUI)、コマンド・ライン、プロンプトなど)を利用することができ、インターフェースは、任意の方式で構成された任意の情報を含むことができる。インターフェースは、情報を入力/表示し、任意の適切な入力装置(例えば、マウス、キーボードなど)を介して所望の動作を開始するために、任意の位置に配設された任意の数の任意のタイプの入力または作動機構(例えば、ボタン、アイコン、フィールド、ボックス、リンクなど)を含むことができる。インターフェース画面は、任意の方式で画面間をナビゲートするための任意の適切なアクチュエータ(例えば、リンク、タブなど)を含むことができる。
本明細書で使用される用語は、特定の実施形態を説明するためのものに過ぎず、本発明の限定とはならないものとする。本明細書では、単数形「a」、「an」、および「the」は、文脈が別段に明確に規定しない限り、複数形も含むものとする。「備える」、「含む」、「有する」などの用語は、本明細書で使用されるとき、記載の特徴、完全体、ステップ、動作、要素、または構成要素、あるいはそれらの組合せの存在を指定し、1つまたは複数の他の特徴、完全体、ステップ、動作、要素、構成要素、またはそれらのグループ、あるいはそれらの組合せの存在または追加を除外しないことがさらに理解されよう。
以下の特許請求の範囲内のすべての手段またはステップおよび機能要素の対応する構造、材料、動作、および均等物は、他の特許請求される要素と共に機能を実施するための任意の構造、材料、または動作を具体的に特許請求されるものとして含むものとする。例示および説明のために本発明の説明を提示したが、この説明は、網羅的なもの、または開示された形態に本発明を限定するものではないものとする。本発明の範囲および思想から逸脱することなく、多くの変更形態および変形形態が当業者には明らかとなるであろう。本発明の原理および実際の応用例を最良に説明し、企図される特定の用途に適するように様々な変更を伴う様々な実施形態について他の当業者が本発明を理解することを可能にするために、実施形態を選び、説明した。
例示のために本発明の様々な実施形態の説明を提示したが、この説明は、網羅的なもの、または開示された実施形態に限定されるものではないものとする。記載の実施形態の範囲から逸脱することなく、多くの変更形態および変形形態が当業者には明らかとなるであろう。実施形態の原理、実際の応用例、もしくは市場で見出される技術に勝る技術的改良を最良に説明し、または本明細書で開示された実施形態を他の当業者が理解することを可能にするように、本明細書で使用する用語を選んだ。
本発明は、システム、方法、またはコンピュータ・プログラム製品、あるいはそれらの組合せでよい。コンピュータ・プログラム製品は、本発明の態様をプロセッサに実施させるためのコンピュータ可読プログラム命令を有する1つまたは複数のコンピュータ可読記憶媒体を含むことができる。
コンピュータ可読記憶媒体は、命令実行装置による使用のために命令を保持および記憶することのできる有形の装置でよい。コンピュータ可読記憶媒体は、例えば、限定はしないが、電子記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置、または上記の任意の適切な組合せでよい。コンピュータ可読記憶媒体のより具体的な例の非網羅的なリストは以下を含む。ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROMまたはフラッシュ・メモリ)、静的ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読取り専用メモリ(CD−ROM)、デジタル・バーサタイル・ディスク(DVD)、メモリ・スティック、フロッピー(R)・ディスク、命令が記録されたパンチ・カードや溝の中の隆起構造などの機械的に符号化された装置、および上記の任意の適切な組合せ。本明細書では、コンピュータ可読記憶媒体は、電波または他の自由に伝播する電磁波、導波路または他の伝送媒体を通じて伝播する電磁波(例えば、光ファイバ・ケーブルを通過する光パルス)、またはワイヤを通じて伝送される電気信号などの、本質的に一時的な信号であると解釈されるべきではない。
本明細書に記載のコンピュータ可読プログラム命令は、ネットワーク、例えば、インターネット、ローカル・エリア・ネットワーク、広域ネットワーク、またはワイヤレス・ネットワーク、あるいはそれらの組合せを介して、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理装置に、または外部コンピュータまたは外部記憶装置にダウンロードすることができる。ネットワークは、銅伝送ケーブル、光伝送ファイバ、ワイヤレス伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、またはエッジ・サーバ、あるいはそれらの組合せを含むことができる。各コンピューティング/処理装置内のネットワーク・アダプタ・カードまたはネットワーク・インターフェースが、ネットワークからコンピュータ可読プログラム命令を受信し、それぞれのコンピューティング/処理装置内のコンピュータ可読記憶媒体内に記憶するためにコンピュータ可読プログラム命令を転送する。
本発明の動作を実施するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、あるいはSmalltalk(R)、C++などのオブジェクト指向プログラミング言語、「C」プログラミング言語や類似のプログラミング言語などの従来の手続き型プログラミング言語を含む1つまたは複数のプログラミング言語の任意の組合せで書かれたソース・コードまたはオブジェクト・コードのどちらかでよい。コンピュータ可読プログラム命令は、ユーザのコンピュータ上で完全に実行し、ユーザのコンピュータ上でスタンド・アロン・ソフトウェア・パッケージとして部分的に実行し、ユーザのコンピュータ上で部分的に実行し、リモート・コンピュータ上で部分的に実行し、またはリモート・コンピュータまたはサーバ上で完全に実行することができる。後者のシナリオでは、ローカル・エリア・ネットワーク(LAN)または広域ネットワーク(WAN)を含む任意のタイプのネットワークを通じてリモート・コンピュータをユーザのコンピュータに接続することができ、または(例えば、インターネット・サービス・プロバイダを使用してインターネットを通じて)外部コンピュータに接続を行うことができる。いくつかの実施形態では、例えば、プログラマブル論理回路、フィールドプログラマブル・ゲート・アレイ(FPGA)、またはプログラマブル論理アレイ(PLA)を含む電子回路が、本発明の態様を実施するために、コンピュータ可読プログラム命令の状態情報を利用して電子回路を個別設定することによって、コンピュータ可読プログラム命令を実行することができる。
本発明の実施形態による方法、機器(システム)、およびコンピュータ・プログラム製品のフローチャート図またはブロック図あるいはその両方を参照しながら、本発明の態様を本明細書で説明する。フローチャート図またはブロック図あるいはその両方の各ブロック、およびフローチャート図またはブロック図あるいはその両方の中のブロックの組合せをコンピュータ可読プログラム命令で実装できることが理解されよう。
これらのコンピュータ可読プログラム命令は、コンピュータまたは他のプログラマブル・データ処理機器のプロセッサを介して実行する命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックで指定される機能/動作を実装するための手段を生み出すように、汎用コンピュータ、専用コンピュータ、または他のプログラマブル・データ処理機器のプロセッサに提供されて、マシンを作り出すものであってよい。これらのコンピュータ可読プログラム命令はまた、命令が記憶されたコンピュータ可読記憶媒体が、フローチャートまたはブロック図あるいはその両方1つまたは複数のブロックで指定される機能/動作の態様を実装する命令を含む製造品を含むように、コンピュータ可読記憶媒体内に記憶され、コンピュータ、プログラマブル・データ処理機器、または他の装置、あるいはそれらの組合せに、特定の方式で機能するように指示することのできるものであってもよい。
これらのコンピュータ可読プログラム命令はまた、コンピュータ、他のプログラマブル機器、または他の装置上で実行される命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックで指定される機能/動作を実装するように、コンピュータで実装されるプロセスを生成するべく、コンピュータ、他のプログラマブル・データ処理機器、または他の装置にロードされ、コンピュータ、他のプログラマブル機器、または他の装置上で一連の動作ステップを実施させるものであってもよい。
図のフローチャートおよびブロック図は、本発明の様々な実施形態によるシステム、方法、およびコンピュータ・プログラム製品の可能な実装のアーキテクチャ、機能、動作を示す。この点で、フローチャートまたはブロック図中の各ブロックは、指定の論理機能を実装するための1つまたは複数の実行可能命令を含む、命令のモジュール、セグメント、または部分を表すことができる。いくつかの代替実装では、ブロックで示される機能は、図に示されるのとは異なる順序で行うことができる。例えば、連続して示される2つのブロックは、実際にはほぼ同時に実行することができ、または関係する機能に応じて、時にはブロックを逆順に実行することができる。ブロック図またはフローチャート図あるいはその両方の各ブロック、およびブロック図またはフローチャート図あるいはその両方の中のブロックの組合せは、指定の機能もしくは動作を実施し、または専用ハードウェアとコンピュータ命令の組合せを実施する専用ハードウェア・ベース・システムによって実装できることにさらに留意されよう。

Claims (13)

  1. ヘッドアップ・ディスプレイを介した装置対話のためのシステムであって、
    第1の実体の第1ヘッドアップ・ディスプレイと第2の実体の第2ヘッドアップ・ディスプレイで信号を交換する手段であって、前記第1および前記第2ヘッドアップ・ディスプレイは、複数のヘッドアップ・ディスプレイのグループのメンバであり、前記交換する手段が、
    前記第1および前記第2の対話のためのコマンドの受信を含む複数の状態を示す前記第1および前記第2のヘッドアップ・ディスプレイのそれぞれの信号を交換し、前記第1および前記第2ヘッドアップ・ディスプレイのそれぞれによって提供される前記グループの前記第1および前記第2のヘッドアップ・ディスプレイに対応する実体の視覚エリアを検出する手段と、
    前記第1ヘッドアップ・ディスプレイで前記信号を受信することに応答して、第1ヘッドアップ・ディスプレイから第2ヘッドアップ・ディスプレイに前記第1ヘッドアップ・ディスプレイの一意の識別子を送信し、前記第1ヘッドアップ・ディスプレイで前記第2ヘッドアップ・ディスプレイから第2ヘッドアップ・ディスプレイの一意の識別子を受信する手段と、
    前記第1ヘッドアップ・ディスプレイと、少なくとも前記第2ヘッドアップ・ディスプレイを含む第1の装置との間の前記コマンドで指定された対話を確立する手段であって、前記第1のヘッドアップ・ディスプレイで前記第2のヘッドアップ・ディスプレイから前記第1のヘッドアップ・ディスプレイの一意の識別子を受信し、前記第2のヘッドアップ・ディスプレイで前記第1のヘッドアップ・ディスプレイから前記第2のヘッドアップ・ディスプレイの一意の識別子を受信することに応答して前記第1および前記第2のヘッドアップ・ディスプレイとの対話を確立する手段と、
    を含む、プロセッサーを備えるシステム。
  2. 前記第1のヘッドアップ・ディスプレイは、第2の装置に結合され、前記対話を確立する手段が、
    前記第1のヘッドアップ・ディスプレイ上に前記第1の装置のインターフェースを提示する手段と、
    前記第1のヘッドアップ・ディスプレイおよび音声コマンドに結合された前記第2の装置上の前記第1の実体の視覚エリアのグループに基づいて提示されたインターフェースを操作する手段と、
    前記提示されたインターフェースの操作に基づいて、前記第1の装置を制御する手段と、
    を含む、請求項1に記載のシステム。
  3. 前記第1の装置は、少なくとも1つのプロセッサをさらに含む、請求項1に記載のシステム。
  4. 前記プロセッサが、
    前記第1のヘッドアップ・ディスプレイに関連する前記第2の装置の対応する1つの電磁的信号検出器で、前記第1の装置に関連する送信機から送信される電磁的信号を検出する手段と、
    前記第1のヘッドアップ・ディスプレイに関連する送信機から送信された前記第1の装置に関連する前記第2の装置の対応する1つの電磁的信号検出器で電磁的信号を検出する手段。
    上記手段から1つまたは複数を実行するようにさらに構成される、請求項3に記載のシステム。
  5. 前記第1の装置および前記第1のヘッドアップ・ディスプレイに関連する前記送信された電磁的信号はそれぞれ、前記第1の装置と前記第1のヘッドアップ・ディスプレイとの間の対話を確立するための情報を含む、請求項4に記載のシステム。
  6. 前記第1のヘッドアップ・ディスプレイは、前記第1の実体の視線の方向に沿って信号を送信する放射源を含み、前記第1の装置は前記信号を受信する受信機を備える、対応する前記第2の装置に関連付けられており、前記プロセッサがさらに、
    前記第1のヘッドアップ・ディスプレイから送信された信号を、前記第1の装置に関連付けられた受信機で検出する手段、
    を含む、請求項3に記載のシステム。
  7. 前記第1のヘッドアップ・ディスプレイおよび前記第1の装置は、信号を送信および受信するための送信機および受信機を備える、対応する第2の装置を含み、前記対話を確立する手段がさらに、
    前記第1ヘッドアップ・ディスプレイの送信機と受信機と前記第1装置との間で交換されるネットワーク接続および信号のグループからの1つまたは複数を介して前記対話を実行する手段、
    を含む、請求項1に記載のシステム。
  8. コンピュータの情報処理により、ヘッドアップ・ディスプレイを介した装置対話を行う方法であって、
    第1の実体の第1ヘッドアップ・ディスプレイと第2の実体の第2ヘッドアップ・ディスプレイで信号を交換するステップであって、前記第1および前記第2ヘッドアップ・ディスプレイは、複数のヘッドアップ・ディスプレイのグループのメンバであり、前記交換するステップが、
    前記第1および前記第2の対話のためのコマンドの受信を含む複数の状態を示す前記第1および前記第2のヘッドアップ・ディスプレイのそれぞれの信号を交換し、前記第1および前記第2ヘッドアップ・ディスプレイのそれぞれによって提供される前記グループの前記第1および前記第2のヘッドアップ・ディスプレイに対応する実体の視覚エリアを検出するステップと、
    前記第1ヘッドアップ・ディスプレイで前記信号を受信することに応答して、前記第1ヘッドアップ・ディスプレイから前記第2ヘッドアップ・ディスプレイに前記第1ヘッドアップ・ディスプレイの一意の識別子を送信し、前記第1ヘッドアップ・ディスプレイで前記第2ヘッドアップ・ディスプレイから第2ヘッドアップ・ディスプレイの一意の識別子を受信するステップと、
    前記第1ヘッドアップ・ディスプレイと、少なくとも前記第2ヘッドアップ・ディスプレイを含む第1の装置との間の前記コマンドで指定された対話を確立するステップであって、前記第1のヘッドアップ・ディスプレイで前記第2のヘッドアップ・ディスプレイから前記第1のヘッドアップ・ディスプレイの一意の識別子を受信し、前記第2のヘッドアップ・ディスプレイで前記第1のヘッドアップ・ディスプレイから前記第2のヘッドアップ・ディスプレイの一意の識別子を受信することに応答して前記第1および前記第2のヘッドアップ・ディスプレイとの対話を確立するステップと、
    を含む、方法。
  9. 前記第1のヘッドアップ・ディスプレイは、第2の装置に結合され、前記対話を確立するステップが、
    前記第1のヘッドアップ・ディスプレイ上に前記第1の装置のインターフェースを提示するステップと、
    前記第1のヘッドアップ・ディスプレイおよび音声コマンドに結合された前記第2の装置上の前記第1の実体の視覚エリアのグループに基づいて提示されたインターフェースを操作するステップと、
    前記提示されたインターフェースの操作に基づいて、前記第1の装置を制御するステップと、
    を含む、請求項8に記載の方法。
  10. 前記第1の装置は、少なくとも1つのプロセッサをさらに含む、請求項8に記載の方法。
  11. 前記第1のヘッドアップ・ディスプレイおよび前記第1の装置は、信号を送信および受信するための送信機および受信機を備える、対応する第2の装置を含み、前記対話を確立するステップがさらに、
    前記第1ヘッドアップ・ディスプレイの送信機と受信機と前記第1装置との間で交換されるネットワーク接続および信号のグループからの1つまたは複数を介して前記対話を実行するステップ、
    を含む、請求項8に記載の方法。
  12. 請求項8〜11のいずれか一項に記載の方法の各ステップをコンピュータに実行させる、コンピュータ・プログラム。
  13. 請求項12に記載の前記コンピュータ・プログラムをコンピュータ可読記憶媒体に記録した、記憶媒体。
JP2017539426A 2015-02-23 2016-02-09 ヘッドアップ・ディスプレイを介する装置対話のための方法、システム、およびコンピュータ・プログラム Active JP6718460B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/628,693 US9652035B2 (en) 2015-02-23 2015-02-23 Interfacing via heads-up display using eye contact
US14/628,693 2015-02-23
PCT/EP2016/052729 WO2016134969A1 (en) 2015-02-23 2016-02-09 Interfacing via heads-up display using eye contact

Publications (2)

Publication Number Publication Date
JP2018509693A JP2018509693A (ja) 2018-04-05
JP6718460B2 true JP6718460B2 (ja) 2020-07-08

Family

ID=55361478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017539426A Active JP6718460B2 (ja) 2015-02-23 2016-02-09 ヘッドアップ・ディスプレイを介する装置対話のための方法、システム、およびコンピュータ・プログラム

Country Status (5)

Country Link
US (2) US9652035B2 (ja)
JP (1) JP6718460B2 (ja)
CN (1) CN107076999B (ja)
DE (1) DE112016000470T5 (ja)
WO (1) WO2016134969A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10176163B2 (en) * 2014-12-19 2019-01-08 International Business Machines Corporation Diagnosing autism spectrum disorder using natural language processing
US11941168B2 (en) * 2016-02-06 2024-03-26 Ip3 2023, Series 923 Of Allied Security Trust I Gaze initiated interaction technique
WO2018205083A1 (zh) * 2017-05-08 2018-11-15 深圳前海达闼云端智能科技有限公司 机器人唤醒方法、装置和机器人
JP2019046252A (ja) * 2017-09-04 2019-03-22 富士ゼロックス株式会社 情報処理装置及びプログラム
US11333902B2 (en) * 2017-12-12 2022-05-17 RaayonNova LLC Smart contact lens with embedded display and image focusing system
US10732710B2 (en) * 2018-06-26 2020-08-04 Sony Interactive Entertainment Inc. Privacy chat trigger using mutual eye contact
KR102149732B1 (ko) * 2019-04-17 2020-08-31 라쿠텐 인코포레이티드 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체
US11295309B2 (en) 2019-09-13 2022-04-05 International Business Machines Corporation Eye contact based financial transaction
US11010980B2 (en) 2019-09-25 2021-05-18 International Business Machines Corporation Augmented interface distraction reduction

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8292433B2 (en) * 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7762665B2 (en) * 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7438414B2 (en) 2005-07-28 2008-10-21 Outland Research, Llc Gaze discriminating electronic control apparatus, system, method and computer program product
US7979899B2 (en) * 2008-06-02 2011-07-12 Microsoft Corporation Trusted device-specific authentication
US8085403B2 (en) * 2008-08-21 2011-12-27 Honeywell International Inc. Photoacoustic sensor
US20130042010A1 (en) 2010-01-28 2013-02-14 Nokia Corporation Access establishment to locally connectable device
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US20120194549A1 (en) 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses specific user interface based on a connected external device type
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
EP2539759A1 (en) * 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
WO2012037290A2 (en) 2010-09-14 2012-03-22 Osterhout Group, Inc. Eyepiece with uniformly illuminated reflective display
AU2011205223C1 (en) 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US8789150B2 (en) * 2011-09-22 2014-07-22 Kinesis Identity Security System Inc. System and method for user authentication
US20130147686A1 (en) * 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
US20130246967A1 (en) 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US9823742B2 (en) 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
US10620902B2 (en) * 2012-09-28 2020-04-14 Nokia Technologies Oy Method and apparatus for providing an indication regarding content presented to another user
US20140160157A1 (en) * 2012-12-11 2014-06-12 Adam G. Poulos People-triggered holographic reminders
KR102056221B1 (ko) 2013-07-12 2019-12-16 삼성전자주식회사 시선인식을 이용한 장치 연결 방법 및 장치
US9319419B2 (en) * 2013-09-26 2016-04-19 Wave Systems Corp. Device identification scoring
AU2015255652B2 (en) * 2014-05-09 2018-03-29 Google Llc Systems and methods for using eye signals with secure mobile communications
US9210156B1 (en) * 2014-06-16 2015-12-08 Lexisnexis Risk Solutions Inc. Systems and methods for multi-stage identity authentication
US10375081B2 (en) * 2014-08-13 2019-08-06 Intel Corporation Techniques and system for extended authentication

Also Published As

Publication number Publication date
WO2016134969A1 (en) 2016-09-01
DE112016000470T5 (de) 2017-10-05
US20160246365A1 (en) 2016-08-25
US20160246054A1 (en) 2016-08-25
JP2018509693A (ja) 2018-04-05
US9658689B2 (en) 2017-05-23
CN107076999B (zh) 2019-10-11
CN107076999A (zh) 2017-08-18
US9652035B2 (en) 2017-05-16

Similar Documents

Publication Publication Date Title
JP6718460B2 (ja) ヘッドアップ・ディスプレイを介する装置対話のための方法、システム、およびコンピュータ・プログラム
US10075491B2 (en) Directing communications using gaze interaction
CN105378691B (zh) 移动装置、头戴式显示器及其控制方法
US20140101608A1 (en) User Interfaces for Head-Mountable Devices
US20190227694A1 (en) Device for providing augmented reality service, and method of operating the same
US20170359456A1 (en) Communication system comprising head wearable devices
US11363500B1 (en) Ultra-wideband control of smart streaming devices
WO2013106128A1 (en) Method and apparatus for enabling real-time product and vendor identification
US10802577B2 (en) Establishing voice communication channel
US20230350630A1 (en) Ultrasonic device-to-device communication for wearable devices
CN117223301A (zh) 智能流式设备的超宽带控制
WO2022169668A1 (en) Integrating artificial reality and other computing devices
US20160299641A1 (en) User Interface for Social Interactions on a Head-Mountable Display
CN117941323A (zh) 用于管理虚拟工作空间的方法、设备和介质
US9727716B1 (en) Shared workspace associated with a voice-request account
WO2023045526A1 (en) Selectively pausing physical movement in a virtual environment
US20240134492A1 (en) Digital assistant interactions in extended reality
WO2022182744A1 (en) Digital assistant interactions in copresence sessions
JP2016206960A (ja) 音声映像入出力装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170831

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200612

R150 Certificate of patent or registration of utility model

Ref document number: 6718460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150