JP2013528871A - 拡張現実の近接感知 - Google Patents

拡張現実の近接感知 Download PDF

Info

Publication number
JP2013528871A
JP2013528871A JP2013513146A JP2013513146A JP2013528871A JP 2013528871 A JP2013528871 A JP 2013528871A JP 2013513146 A JP2013513146 A JP 2013513146A JP 2013513146 A JP2013513146 A JP 2013513146A JP 2013528871 A JP2013528871 A JP 2013528871A
Authority
JP
Japan
Prior art keywords
display
wearable
sensor
glasses
wearer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013513146A
Other languages
English (en)
Other versions
JP5512884B2 (ja
Inventor
ミルフォード,ペーター,エヌ.
Original Assignee
エンパイア テクノロジー ディベロップメント エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エンパイア テクノロジー ディベロップメント エルエルシー filed Critical エンパイア テクノロジー ディベロップメント エルエルシー
Publication of JP2013528871A publication Critical patent/JP2013528871A/ja
Application granted granted Critical
Publication of JP5512884B2 publication Critical patent/JP5512884B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0251Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/02Details of power systems and of start or stop of display operation
    • G09G2330/021Power management, e.g. power saving
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/02Flexible displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0241Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call
    • H04M1/0245Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call using open/close detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Eyeglasses (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

拡張現実(AR)システムにおいて近接感知メカニズムを使用するための技術が、全体的に説明される。ARメガネ上の、メガネの右アームおよび/または左アーム、ブリッジ、または跳ね上げ式機構などの位置に効果的に配置されたセンサが、電力管理のためにARメガネの使用を検出するために、および/またはボリュームコントロール、ディスプレイコントロール、ユーザ入力などのようなユーザインターフェース要素を提供するために使用され得る。一部の例によれば、センサは、機械式センサ、容量センサ、光学式センサ、誘導センサ、磁気センサ、および/または同様のコンポーネントである可能性がある。

Description

本明細書において別途指示されない限り、本節で説明される題材は本願の特許請求の範囲に対する従来技術ではなく、本節に含まれることによって従来技術であると認められる訳ではない。
拡張現実(AR)は、要素が、仮想的な、典型的にはコンピュータで生成された画像によって拡張され、それによって混合された現実感を作り出す物理的な(現実の)世界環境の見方を指す。拡張は、通常、リアルタイムであり、スポーツイベント、軍事演習、ゲームなどの環境的な要素に合わせられ得る。AR技術は、物体認識および画像生成を加えることによって、人の周囲の現実世界についての情報がインタラクティブになり、デジタル形式で使用できるようになることを可能にする。環境および物体についての人工的な情報が、現実世界の眺めのレイヤとは別個の情報レイヤとして記憶され、取り出されることができる。
本開示は、ARシステムにいくつかの制約が存在することを認める。ユーザに対して拡張現実の画像(静止画または映像)を表示する際、一部のARシステムはARメガネを利用する。ユーザに現実感のある体験を提供するが、メガネ形式のディスプレイデバイスは、電力管理、および/またはARシステムとインタラクションするためのユーザインターフェース要素をユーザに提供する際の制限などのいくつかの課題を示す。サイズに制限があるため、電力が利用できること、および利用できる電力の効率的な使用が、設計上の問題である可能性がある。さらに、ボリュームコントロール、ディスプレイコントロールなどのインタラクションツールを提供することは、メガネ形式のディスプレイのサイズおよび形状が原因で課題である可能性がある。
本開示は、近接センサに基づいてウェアラブル拡張現実(AR)ディスプレイに適応的に給電するように構成されたシステムを記載する。一部の例示的なシステムは、ウェアラブルARディスプレイに装着されたセンサ、および/またはセンサに結合されたプロセッサを含み得る。センサは、検出信号を生成するように構成され、検出信号は、着用者の頭の存在、着用者の頭の位置、および/またはウェアラブルARディスプレイの状態のうちの1つまたは複数を示す。プロセッサは、センサからの検出信号に基づいてウェアラブルARディスプレイが起動されるべきであるかどうかを判定し、ウェアラブルARディスプレイが起動されるべきであるときはウェアラブルARディスプレイを起動するように構成される。
本開示は、近接センサに基づいてウェアラブルARディスプレイに適応的に給電するように構成された別のシステムも記載する。他のシステムの一部の例は基準ノード(reference node)に結合された容量センサ、および/またはセンサに結合された電圧測定デバイス446を含み得る。センサは、基準ノードと外部ノードとの間の静電容量の値の差を測定するように構成される。電圧測定デバイスは、値の差を入力として受信するように構成され、ウェアラブルARディスプレイに電力をいつ供給すべきかを判定するように構成されるデータ出力を提供するようにさらに構成される。
本開示は、近接センサによってウェアラブルARの動作状況(operational aspect)を制御するための方法をさらに記載する。方法は、ウェアラブルARディスプレイの左アーム(arm)、右アーム、ブリッジ、および/またはリムのうちの1つまたは複数に装着された複数のセンサのうちの少なくとも1つから感知信号を受信することを含む。方法は、受信された感知信号に基づいて、着用者の頭の存在、着用者の頭の位置、ユーザ入力、および/またはウェアラブルARディスプレイの状態のうちの1つまたは複数を判定することも含む。方法は、判定に応じてウェアラブルARディスプレイの動作状況に関連するアクションを実行することをさらに含む。
本開示は、近接センサによってウェアラブルARディスプレイの動作状況を制御するための命令を記憶するコンピュータ可読ストレージ媒体をさらに記載する。コンピュータ可読ストレージ媒体に記憶された命令は、ウェアラブルARディスプレイに装着された複数のセンサにおいて着用者の頭の存在、着用者の頭の位置、ユーザ入力、および/またはウェアラブルARディスプレイの状態のうちの1つまたは複数を感知することを含み得る。感知することは、受信された感知信号に基づいて行われ得る。命令は、感知された着用者の頭の存在および/またはウェアラブルARディスプレイの状態のうちの1つまたは複数に基づいて、ウェアラブルARディスプレイを起動すべきか、または停止すべきかを判定することも含み得る。命令のさらに別の組は、感知された着用者の頭の位置に基づいてユーザの応答を推測することを含み得る。命令は、推測されたユーザの応答または感知されたユーザ入力のうちの1つに応じてウェアラブルARディスプレイの動作状況に関連するアクションを決定することをさらに含み得る。起動するべきか、または停止するべきかを判定する命令、ユーザの応答を推測する命令、およびアクションを決定する命令は、プロセッサにおいて実行され得る。
以上の概要は、例示的であるに過ぎず、限定することは全く意図されていない。上述の例示的な態様、実施形態、および特徴に加えて、さらなる態様、実施形態、および特徴が、図面および以下の詳細な説明を参照することによって明らかになるであろう。
本開示の上述のおよびその他の特徴は、以下の説明および添付の特許請求の範囲を添付の図面と併せて理解することによってより完全に明らかになるであろう。これらの図面は本開示によるほんのいくつかの実施形態を示すに過ぎず、したがって、本開示の範囲を限定するとみなされるべきでないことを理解したうえで、本開示が、添付の図面を使用してより具体的かつ詳細に説明される。
本明細書において説明される少なくとも一部の実施形態に従ってすべてが構成された、拡張現実(AR)メガネが拡張されたシーンをユーザに対して表示するために使用され得る例示的なARシステムを示す図である。 本明細書において説明される少なくとも一部の実施形態に従ってすべてが構成された、メガネのアームおよび/またはブリッジに近接センサを有する例示的なARメガネを示す図である。 本明細書において説明される少なくとも一部の実施形態に従ってすべてが構成された、メガネの跳ね上げ式機構に近接センサを有するさらなる例示的なARメガネを示す図である。 本明細書において説明される少なくとも一部の実施形態に従ってすべてが構成された、電力管理を目的として、ARメガネが人によって着用されるときを検出するように構成されたシステムを示す図である。 本明細書において説明される少なくとも一部の実施形態に従ってすべてが構成された、電力管理を目的として、ARメガネが使用中であるときを検出するために跳ね上げ式機構を利用する例示的なARメガネの側面図である。 本明細書において説明される少なくとも一部の実施形態に従ってすべてが構成された、電界撮像デバイス(electric field imaging device)によるARメガネの使用の検出を示す図である。 本明細書において説明される少なくとも一部の実施形態に従ってすべてが構成された、ARメガネの近接感知メカニズムを実装するために使用され得る汎用コンピューティングデバイスを示す図である。 本明細書において説明される少なくとも一部の実施形態に従ってすべてが構成された、ARメガネの近接感知メカニズムを実装するために使用され得る専用プロセッサを示す図である。 本明細書において説明される少なくとも一部の実施形態に従ってすべてが構成された、図7のコンピュータ700または図8の専用プロセッサ810などのコンピューティングデバイスによって実行され得る例示的な方法を示す流れ図である。 本明細書において説明される少なくとも一部の実施形態に従ってすべてが構成された、例示的なコンピュータプログラム製品のブロック図である。
以下の詳細な説明において、本明細書の一部をなす添付の図面に対する参照がなされる。図面において、概して、同様の符号は、文脈がそうでないことを示さない限り、同様のコンポーネントを特定する。詳細な説明、図面、および特許請求の範囲に記載の例示的な実施形態は、限定することを意図されていない。本明細書で示される主題の精神または範囲を逸脱することなしに、その他の実施形態が利用される可能性があり、その他の変更がなされる可能性がある。本明細書において全体的に説明され、図面に図示される本開示の態様は、多種多様な異なる構成で配置され、置き換えられ、組み合わされ、分けられ、設計される可能性があり、それらの構成のすべては本明細書においてはっきりと考慮されていることが容易に理解されるであろう。
概して、本開示は、とりわけ、電力管理およびユーザインターフェース要素のために拡張現実システムにおいて近接感知メカニズムを使用することに関連する方法、装置、システム、デバイスおよび/またはコンピュータプログラム製品を対象とする。
簡潔に言えば、近接感知メカニズムが、拡張現実(AR)システムで使用され得る。ARメガネ上の、メガネの右アームおよび/または左アーム、ブリッジ、または跳ね上げ式機構などの位置に効果的に配置されたセンサが、電力管理のためにARメガネの使用を検出するために、および/またはボリュームコントロール、ディスプレイコントロール、ユーザ入力などのようなユーザインターフェース要素を提供するために使用され得る。一部の例によれば、センサは、機械式センサ、容量センサ、光学式センサ、誘導センサ(inductive sensor)、磁気センサ、および/または同様のコンポーネントである可能性がある。
図1は、拡張現実(AR)メガネが拡張されたシーンをユーザに対して表示するために使用され得る例示的なARシステム100を示す。ARは、現実世界の表示を拡張するために、ライブビデオストリームにおけるコンピュータによって生成された画像の応用を探求する。本開示にしたがって構成された例示的なARシステムは、いくつかのセンサおよびアクチュエータを含む制御された環境内にある可能性があり、現実のおよびコンピュータによって生成された画像を処理するようになされた1つまたは複数のコンピューティングデバイスを含む可能性があり、ヘッドマウントディスプレイ(または「ARメガネ」)、仮想網膜ディスプレイ(virtual retinal display)、モニタまたは同様の通常のディスプレイ、および同様のデバイスなどの視覚化システムを含む可能性がある。
例示的なARシステム100は、現実のシーン(物体)102のライブ画像をキャプチャするための撮像センサ104−1と、物体の位置および/または運動を追跡するための追跡センサ104−2とを含む。撮像センサ104−1は、デジタルカメラ、ウェブカメラ、または何らかのその他の画像キャプチャデバイスである可能性がある。追跡センサ104−2は、ネットワークの周波数、帯域幅、および空間ダイバーシチによって追跡性能を高めるためにパッシブセンシングネットワーク内に配置されたいくつかの受信デバイスを含み得る。受信デバイス(たとえば、1つまたは複数のRF受信機)は、通信塔(たとえば、セルラー電話の通信塔)または通信基地局などの近くの信号ソースからの通信信号(たとえば、RF信号などの電磁波)を利用するようになされ得る。追跡センサ104−2は、さまざまな位置に配置される可能性があり、集中型または分散型のコンピューティングシステムに通信可能に結合されて、協調するネットワークを形成する可能性がある。
(1つまたは複数の)キャプチャされた画像は、画像処理サブシステム106に与えられることができ、画像処理サブシステム106は、画像のデジタル画像へのデジタル化、デジタル画像の受信、および/またはデジタル画像の処理のうちの1つまたは複数を実行するようになされ得る。デジタル画像の処理は、画像内の特徴点の位置の判定、アフィン射影の計算、エッジの追跡、フィルタリング、および/または同様のオペレーションのうちの1つまたは複数を含み得る。画像処理サブシステム106は、上述のオペレーションの結果のうちの1つまたは複数などの映像情報をリアリティエンジン110に与えるように構成され得る。追跡センサ104−2は、現実のシーン102内の関心のある物体に関連する位置および/または運動情報をリアリティエンジン110に与えるように構成され得る。リアリティエンジン110は、グラフィックスプロセスを実行して、追跡センサ104−2からの位置および/または運動情報を組み込むキャプチャされた画像に基づくシーンをレンダリングするようになされ得る。
画像ジェネレータ108は、撮像センサ104−1からの(1つまたは複数の)リファレンス画像と、(1つまたは複数の)仮想的な物体に関連する画像データとを受信するようになされることができ、キャプチャされた現実のシーンの画像に(1つまたは複数の)仮想的な物体に関連する画像データを重ねて、拡張されたシーン114をもたらすようになされ得る。ARメガネ112は、ARシステム100において利用され得る1つの例示的な視覚化メカニズムである。ARメガネ112は、単一の(モノ)ディスプレイまたはステレオディスプレイとして実装され得る。ARメガネは、本質的に、可搬型のコンピュータディスプレイとして機能する。ARメガネは、シースルーであるか、または非シースルーである(すなわち、現実世界のデータを提供するビデオカメラである)可能性がある。ARメガネは、仮想現実ゴーグルおよび同様の実装形態も含み得る。本明細書において使用される用語、ARメガネは、仮想現実ディスプレイおよびヘルメット型ディスプレイを含む任意の頭部に着用可能なコンピュータディスプレイを指す。用語、ウェアラブルARディスプレイおよびARメガネは、本開示の中で交換可能なように使用される。ユーザに現実感のある体験を提供するが、ARメガネ112は、電力管理、およびユーザインターフェース要素をユーザに提供することにおいて課題を示す可能性がある。本明細書に記載の実施形態の少なくとも一部によるシステムにおいて、ARメガネ112は、以下でより詳細に説明されるように、使用を検出し、および/またはユーザインターフェース要素を提供するように構成された効果的に配置されたセンサを取り付けられることができる。
画像処理サブシステム106、リアリティエンジン110、画像ジェネレータ108、および/またはARメガネ112などのARシステム100のコンポーネントの少なくとも一部の処理は、1つもしくは複数のコンピューティングデバイス上の別個のアプリケーション、1つもしくは複数の統合されたアプリケーション、1つもしくは複数の集中型のサービス、または1つもしくは複数の分散型のサービスとして実行され得る。各コンピューティングデバイスは、スタンドアロンコンピュータ、ネットワーク化されたコンピュータシステム、汎用処理ユニット(たとえば、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサもしくはDSPなど)、または専用処理ユニットであってよい汎用コンピューティングデバイスまたは専用コンピューティングデバイスのどちらかである可能性がある。さまざまなコンピューティングデバイスで実行される場合、ARシステム100のさまざまなコンポーネントは、1つまたは複数のネットワークを介して通信するようになされ得る。
図2は、少なくとも一部の実施形態にしたがって構成された、メガネのアームおよび/またはブリッジに近接センサを有する例示的なARメガネを示す。近接センサは、図200に示されるように、ARメガネ220のアームに沿って、ブリッジの上に、またはリムに沿ってなど、さまざまな効果的な位置に配置され得る。センサは、容量センサ、誘導センサ、磁気センサ、ソナーセンサ、光学式センサ(フォトセルまたはレーザ)、渦電流センサ、熱赤外センサ(thermal infrared sensor)、機械式スイッチなどを含み得る。
センサ222、224、226、および228のうちの1つまたは複数が、着用者(ユーザ218)の頭、鼻などの検出によってメガネが使用中であるか否かを判定することによってARメガネ220に関する電力管理を支援するために使用され得る。センサ222、224、226、および228は、ARのオペレーションのさまざまな機能を制御し、ユーザのフィードバックを受信するためのユーザインターフェース要素をARメガネ220を着用しているユーザ218に提供することにも利用され得る。
ユーザインターフェースアプリケーションにおいて、センサは、オーディオボリュームコントロール、ARメガネ220の輝度(brightness)表示、個々のディスプレイまたはARメガネ220全体をオンまたはオフにすることなどのARのオペレーションのコントロールに関して、タップまたはタッチによって、着用者の入力を受信するように構成され得る。一部の例において、センサは、ARメガネ220の外側のアームに配置され(たとえば、224)、ユーザがそれらのユーザのARメガネ220を着用している間にそれらのARメガネ220の側面をタップまたはタッチすることによって動作パラメータを制御することができるように構成され得る。反対に、上述のセンサは、ARメガネ220のアーム内側に配置され(たとえば、222)、ユーザ218がARメガネ220を着用しているかどうか(メガネが使用中であるはずであるか、または使用中でない状態であるはずであるか)を検出するように構成され得る。これは、センサが、着用者の肌のごく近くにあることを可能にする。
別の例において、センサ222、224、226、および/または228は、着用者の胴体に対するその着用者の頭の向きを感知するように構成され得る。たとえば、ARメガネ220の(1つまたは複数の)選択位置の1つまたは複数のセンサが、そのARメガネ220の基準静電容量(reference capacitance)(さらなる詳細については図4参照)と着用者の肩の静電容量との間の静電容量の差を測定するように構成され得る。ARメガネ220を着用しているユーザ218がそのユーザ218の頭を左または右に動かすとき、静電容量の差は、肩が(1つまたは複数の)選択位置の(1つまたは複数の)センサからより離れるので変化する可能性がある。静電容量の差の判定に基づいて、ARシステムは、ユーザ218がそのユーザ218の胴体に対してどの方向を見ているかを推測することができる可能性がある。一部の実施形態によれば、推測された情報が、ユーザ入力として使用され得る。たとえば、左から右に向きを変え、その後、右から左に向きを変えることは、「いいえ」を示すことができ、または上から下に向きを変え、その後、下から上に向きを変えることは、「はい」を示すことができる、など。
センサ222、224、226、および228は、信頼できる検出のためにやはり利用され得る。たとえば、耳の後ろのセンサおよびブリッジのセンサからの入力が、ARメガネ220が実際に着用されているという信頼できる判定のために着用者の頭および鼻を検出するように構成され得る。これは、センサのうちの1つまたは複数による読み間違いが原因のエラーを防ぐことができる。もちろん、さまざまなセンサが、本明細書に記載のさまざまな機能のために使用され得る。
図3は、少なくともその他の実施形態に従って構成された、メガネの跳ね上げ式機構(a flip-up feature)に近接センサを有するさらなる例示的なARメガネを示す。上述のように、図300のARメガネ330の異なる位置に配置されたセンサは、ユーザインターフェース要素、またはARメガネの自動化されたコントロールのためのコントロール要素として使用するように構成され得る。
電力管理は、ARメガネ330などのARヘッドウェアの設計上の考慮事項のうちの1つである。可搬型の電子デバイスであるので、ARメガネ330は、必然的に、バッテリ、太陽光発電、または同様のソースからの限られた電力供給を有することになる。したがって、ARメガネ330のための利用可能な電力の浪費を防ぐこと(たとえば、使用されていないときにオフにするか、またはスリープモードに移行すること)が、有益である可能性がある。ARメガネのアームまたはブリッジの静電容量センサによって、メガネが着用されているかどうかを検出ことのような一部の例示的なアプローチが、上で検討された。加えて、図300に示されるように、その他の構成が、メガネがオフにされる(または低電力モードに移行される)べきであるかどうかを判定するために使用され得る。
ARメガネ330は、跳ね上げ式機構を取り付けられることができ、可動部分334および335は、閉じた位置で使用していないことを示すように構成されるカバーである可能性があり、または可動部分334および335は、閉じた位置で動作する実際のディスプレイである可能性がある。少なくとも一部の実施形態によれば、蝶番331および332が、ARメガネ330をオンまたはオフにする機械式スイッチとして使用するように構成され得る。その他の実施形態によれば、(たとえば、容量性、光学式、または磁気)センサ336、337、および339が、可動部分334および335の(閉または開)位置を検出するように構成され得る。センサは、個々に、または実質的に重なり合う対で(たとえば、センサ336および337)使用され得る。可動部分は、図300に示されるように2つの部分を含み得る。代替的に、単一の可動部分が、実質的にARメガネ330を覆うように使用され得る。
図4は、実施形態の少なくとも一部に従って構成された、電力管理を目的として、ARメガネが人によって着用されるときを検出するように構成されたシステムを示す。そのようなARメガネが着用されているとき、そのARメガネは起動される可能性があり、そのようなARメガネが着用されていないとき、そのARメガネは停止される(または省電力状態にされる)可能性がある。
一部の例において、図400の静電容量測定システム440は、発振器442、センサ448、電圧測定デバイス446、およびARメガネの着用者の実効静電容量445に対して参照される基準静電容量444を含む。静電容量測定システム440は、着用者によって着用されるとき、ARメガネ220を起動するように構成され、着用者によってはずされるとき、ARメガネ220を停止するようにやはり構成され得る。代替的に、静電容量測定システム440は、ARメガネ220を低電力のスリープモードまたは省電力状態に移行し、それによって、可搬型のARメガネ220の貴重な電力を節約するように構成され得る。
発振器442は、基準静電容量444を通じてセンサ448に電力を供給するようになされ得る。センサ448は、基準静電容量444とARメガネ220の着用者の静電容量445との間の静電容量の差を測定するように構成され得る。静電容量の差は、センサ448によって電圧に変換され得る。静電容量の差を検出するセンサは、静電容量センサと呼ばれる可能性があり、銅、インジウム錫酸化物(ITO)、および同様の材料などのさまざまな材料から構築され得る。サイズ、間隔、およびグラウンドプレーンからの距離が、静電容量センサを設計するときに考慮されるパラメータである。
電圧測定デバイス446は、基準静電容量444とARメガネの着用者の静電容量445との間の静電容量の差に応じてセンサ448によって生成される電圧を測定するように構成され得る。電圧測定デバイス446は、電圧の測定値を評価し、ARメガネ220が着用者によって着用されているかどうかの判定を行うために利用され得る。代替的に、電圧測定デバイス446は、ARシステムのプロセッサに電圧の測定値を提供するように構成されることができ、次いで、そのプロセッサが、関連する結論に到達し、アクションを行う(たとえば、電力状態を調整する)ことができる。
たとえば、電圧測定デバイス446は、第1の電圧を測定し、ARシステムのプロセッサに測定値を転送するように構成されることができ、プロセッサは、第1の電圧が「メガネを着用している」状態に対応することを判定するために(システム440内に、またはシステム440外に記憶された)ルックアップテーブルにアクセスするように構成されることができる。反対に、電圧測定デバイス446が第2の電圧を測定する場合、プロセッサは、第2の電圧が「メガネを着用していない」状態に対応することをルックアップテーブルから判定するように構成され得る。
したがって、電圧測定デバイス446による電圧の読み取り値は、センサ448による容量の差の読み取り値に基づくことができ、静電容量の差の読み取り値は、基準静電容量444と着用者の実効静電容量445との間の差に基づく。着用者がARメガネ220を着用している場合、一種の容量の差がセンサ448によって測定される可能性があり、着用者がARメガネ220を着用していないときは、異なる容量の差がセンサによって測定される可能性がある。異なるセンサが静電容量の差をどのように判定することができるかの詳細が、図6に関連して以下で検討される。
その他の実施形態によれば、図400に示されるシステム440は、発振器442に電気的に結合され得る複数のセンサ224を利用する可能性がある。これらのセンサのそれぞれは、対応する電圧測定デバイスに関連付けられ得る。一例において、センサ224は、図4に示されるように、ARメガネ220のさまざまな位置に配置され得る。センサのための位置は、メガネの左アームおよび/または右アーム、メガネのブリッジなどを含み得るがそれらに限定されない。たとえば、センサ224は、それらのセンサ224が着用者の耳の後ろの静電容量を測定するように、ARメガネ220のアームに配置され得る。別の例において、センサは、ARメガネ220のブリッジに配置される可能性があり、それによって、メガネが着用者の鼻の上にかかっているかどうかを検出する(したがって、着用者がARメガネ220を着用していること、およびARメガネ220が発振器442によって起動されるべきであることを示す)。さらに別の例において、センサは、着用者の前頭部の有無を検出するためにARメガネ220のブリッジまたは上側のリムに配置され得る。
実施形態は容量センサに限定されず、誘導センサ、磁気センサ、ソナーセンサ、光学式センサ(フォトセルまたはレーザ)、渦電流センサ、熱赤外センサなどのその他の種類の近接センサが、本明細書に記載の原理を用いてやはり使用され得る。図4を参照して検討された容量センサを含むさまざまな種類のセンサが、同種のものだけで利用される(すなわち、ARメガネ220上のすべて同じ種類のセンサ)か、または異種混合で利用される(すなわち、同じARメガネ220上の異なる種類のセンサ)可能性がある。
さらなる実施形態によれば、疎水性コーティングが、水/汗がセンサ448またはセンサ224の測定および機能を妨げることを防止するために使用され得る。このコーティングは、システム440のセンサおよび/またはその他の部分の機能の少なくとも一部を覆うことができる。
図5は、本明細書に記載の少なくとも一部の実施形態に従って構成された、電力管理を目的として、ARメガネが使用中であるときを検出するために跳ね上げ式機構を利用する例示的なARメガネの側面図を示す。跳ね上げ式機構は、(1つもしくは複数の)実際のディスプレイを含む可能性があるか、または閉じた位置にあるときにARメガネが使用中でないことを示すカバーである可能性がある(図500)。
上述のように、蝶番(たとえば、531)が、着用者がARメガネ330を着用しているかどうかを検出するためのセンサと併せて、またはそれらのセンサの代わりに構成され得る。ARメガネ330のアームは、蝶番(たとえば、533)を介してARメガネ330のフレームに結合されることができ、ARメガネ330のアームがたたまれるとき、蝶番の閉じた位置が電源オフ状態を示すことができ、反対に、ARメガネ330のアームが広げられるとき、蝶番(たとえば、533)の開いた位置が電源オン状態を示すことができる。
別の例によれば、蝶番531は、可動部分534が上げられるか、または下げられるか(それぞれ図500および550)に基づいて動作状態を検出するように構成され得る。可動部分534が実際のディスプレイである場合、下げた位置は、電源オン状態を示すことができ、逆も同様である。一方、可動部分534がカバーである場合、その反対が正しい可能性がある(カバーが下げられるとき、電源がオフにされ、カバーが上げられるとき、電源がオンにされる)。さらなる実施形態によれば、センサの対536、537が、可動部分534が上げられるか、または下げられるかを判定するように構成され得る。たとえば、センサの対536、537が互いに接触しているか、または互いに近くにある場合、下げられた位置が判定されることができる。そうではない場合、可動部分534は、上げられた位置にあると判定され得る。センサの対536、537は、容量センサ、磁気センサ、光学式センサ、または接触しているときに電気回路を閉じる導電性のパッチでさえある可能性がある。
図6は、少なくとも一部の実施形態に従って構成された、電界撮像デバイスによるARメガネの使用の検出を示す。図600は、1つの例示的な構成と、シールドの実装を伴う2つのセンサの図とを示す。
一部の実施形態に従って構成されたARメガネのセンサは、「アクティブ」シールドを取り付けられ得る(たとえば、センサ665)。シールドは、近くのグラウンドまたはその他の漂遊電磁界に対するシステムのあらゆる感度を小さくするように構成され得る。センサ(センサの側面図670のパッド676またはセンサの上面図680のセンサパッド682などのパッドを有することができる)は、その後ろに大き目に作られたシールドを有することができる(たとえば、センサの上面図680)。頭の向きの測定に関して、頭は、肩よりも大きな静電容量を有する可能性があるが、頭の静電容量は比較的変わらない可能性がある。たとえば、システムは、以下のように、すなわち、C_total=C_shoulder+C_headのように静電容量(「C」)を測定することができ、ここで、C_headは大きいが比較的変化せず、C_shoulderは頭の静電容量よりも小さいが、頭から肩までの向きが変えられるときに変動しやすい。それぞれがたとえば約50Hzでサンプルを生成する4つのセンサが使用される場合、(図2の図200に示されるように)左のメガネフレームに2つ、および右のメガネフレームに2つのセンサが存在する可能性がある。これは、サンプル、M1、M2、M3、およびM4(それぞれ、右アームのM1およびM2、ならびに左アームのM3およびM4)をもたらすことができる。そのとき、各測定値のフィルタリングされた時間平均が構築されることができ、それらの時間平均は<M1>、<M2>、<M3>、<M4>と呼ばれる可能性がある。左を見る人に関して、(頭に対するセンサの正確な位置に応じた)左の対地静電容量(capacitance to ground)信号は、両方とも減少する可能性があり、右の対地静電容量は、両方とも増加する可能性がある。結果として、フィルタリングされた信号は、
Figure 2013528871

と表され得る。
頭の左方向の動きを検出するために、<A>の短時間平均は負である可能性があり、<B>は正である可能性がある。頭の右方向の動きを検出するために、<A>の短時間平均は正である可能性があり、<B>は負である可能性がある。センサの同様の組み合わせが、下を向くこと、上を向くこと、左に傾けること、および右に傾けることを検出するために使用され得る。適切な時間の制約の選択、頭の変化しない静電容量を小さくするためのアクティブシールドのパッドのサイズおよび位置、ならびにシステム内の雑音の削減は、当業者に明らかであろう。
このように、実施形態によるセンサは、センサパッド676を伴うセンサの側面図670に示されるように電気的に表されることができ、アクティブシールドの片側672が電界撮像デバイス664などの検出デバイスに結合され、アクティブシールドの反対側674がグラウンドに結合される。電界撮像デバイス664は、ユーザの動き、またはセンサを通じた入力を判定するためにセンサ信号を処理するためのプロセッサ662に結合され得る。
別の例によれば、ARメガネに実装されるセンサは、ARメガネが閉じられるときに、システムが、ARメガネが起動されるべきか、または停止されるべきかについて混乱しないように、センサパッド682の裏側に遮蔽材(shielding)(たとえば、センサの上面図680の遮蔽材684)を有する可能性がある。言い換えると、ARメガネが閉じられる(すなわち、メガネのアームがたたまれる)とき、ARメガネの右アームの1つまたは複数のセンサが、ARメガネの左アームの1つまたは複数のセンサと重なる可能性がある。これは結果を生成する可能性があり、左アームのセンサが右アームのセンサの静電容量を感知し、それによって、誤った肯定的な結果(実際にはARメガネが装着されておらず、実際には、メガネのアームを折りたたむことによってオフになるように意図されるときに、ARメガネが着用者に着用されていることを示す)をもたらしかねない。センサの裏側の電気的な遮蔽材などの上述の遮蔽材は、この現象を少なくするか、または取り除くことができる。
上述の跳ね上げ式機構を有するARメガネにおいて、センサは、着用者の前頭部に配置される可能性もあり、その場合、ARメガネの鼻パッドのセンサが、静電容量の変化を判定することができる。フレームに取り付けられた容量センサに関しては、フレームに取り付けられたセンサと頭との間の空隙の長さに基づいて、グラウンドに対する体の測定される静電容量が減少する可能性がある。耳の後ろのセンサは、実装するのが比較的簡単である可能性があり、ARメガネのブリッジまたはアームの前部などのその他の位置と比較して、より感度の低い静電容量の測定を必要とする。
頭の存在は、いくつかのやり方によって静電容量の変化を通じてARメガネで検出され得る。たとえば、頭の近くに小さな平行なプレートを有する感知回路が、グラウンドに容量的に結合される可能性があり、回路の特性(たとえば、頭部センサを用いた容量型分圧器(capacitive voltage divider)のRMS電圧)が測定され得る。別の例示的な実装形態においては、センサプレート間の電荷の転送が、測定され得る。さらに別の例示的な実装形態においては、間に未知の誘電体(たとえば、主に水で満たされた人間の体/頭)を有する2枚のプレートの静電容量の変化が、使用され得る。もちろん、これらの方法は、互いに組み合わせて、または当技術分野で知られているさらなる方法と組み合わせて使用されることもできる。
実施形態が特定の例、コンポーネント、検出方法、および構成を用いて上で検討されたが、それらは、近接センサを用いるウェアラブルARディスプレイのために使用されるべき全般的な指針を提供するように意図される。これらの例は、実施形態に対する限定を定めるものではなく、実施形態は、本明細書に記載された原理を用いるその他のコンポーネント、モジュール、検出方法、および構成を用いて実装され得る。たとえば、異なる種類のセンサが、メガネが着用されているときを判定するため、ユーザ入力を検出するため、およびメガネがはずされるときを判定するために使用され得る。
図7は、本開示の少なくとも一部の実施形態に従って構成されたARメガネにおいて近接感知メカニズムを実装するために使用され得る汎用コンピューティングデバイスを示す。
コンピュータ700は、プロセッサ710、メモリ720、および1つまたは複数のドライブ730を含む。ドライブ730と、取り外し式ストレージ媒体734(たとえば、CD−ROM、DVD−ROM)および非取り外し式ストレージ媒体732(たとえば、ハードドライブディスク)などのそれらのドライブ730に関連するコンピュータストレージ媒体とが、コンピュータ可読命令、データ構造、プログラムモジュール、およびコンピュータ700に関するその他のデータのストレージを提供することができる。ドライブ730は、オペレーティングシステム740、アプリケーションプログラム750、プログラムモジュール760、およびデータベース780を含み得る。コンピュータ700は、ユーザがコマンドおよびデータを入力することができるユーザ入力デバイス790をさらに含み得る。入力デバイス790は、電子デジタイザ、マイクロホン796、キーボード794、およびマウスデバイス792、トラックボールデバイス、またはタッチパッドデバイスなどのポインティングデバイスを含み得る。その他の入力デバイスは、ジョイスティックデバイス、ゲームパッドデバイス、衛星通信用パラボラアンテナ、スキャナデバイスなどを含み得る。
一部の実施形態によるコンピュータ700用のユーザ入力デバイスのうちの1つが、ARメガネのセンサ798である可能性がある。コンピュータ700がアプリケーションプログラム750の下でARアプリケーション752を実行しているとき、ARメガネのセンサ798は、ユーザにユーザインターフェース要素を提供し、提供されたユーザインターフェース要素に関連するユーザのアクションに関してコンピュータ700にフィードバックを与えることができる。たとえば、ARメガネのセンサは、ボリュームコントロール、ディスプレイコントロール、ユーザが見ている方向、ユーザの決定の承認/拒否、および同様のアクションに関するユーザの指示を検出することができる。
これらのおよびその他の入力デバイスは、システムバス705に結合されたユーザ入力インターフェースを介してプロセッサ710に結合され得るが、パラレルポート、ゲームポート、またはユニバーサルシリアルバス(USB)などのその他のインターフェースおよびバス構造によって結合されてもよい。コンピュータ700などのコンピュータは、スピーカ776、プリンタ774、ディスプレイ772、およびARメガネディスプレイ778などのその他の周辺出力デバイスも含む可能性があり、これらは、出力周辺インターフェース770などを介して結合され得る。
メモリ720、取り外し式ストレージデバイス734および非取り外し式ストレージデバイス732は、コンピュータストレージ媒体の例である。コンピュータストレージ媒体は、RAM、ROM、EEPROM、フラッシュメモリ、もしくはその他のメモリ技術、CD−ROM、デジタルバーサタイルディスク(DVD)、もしくはその他の光学式ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ、もしくはその他の磁気式ストレージデバイス、または所望の情報を記憶するために使用されることができ、コンピュータ700によってアクセスされ得る任意のその他の媒体を含むがそれらに限定されない。任意のそのようなコンピュータストレージ媒体は、コンピュータ700の一部であることができる。
コンピュータ700は、ネットワークインターフェース706に接続されたリモートコンピュータなどの1つまたは複数のコンピュータへの論理接続を使用したネットワーク化された環境で動作することができる。リモートコンピュータは、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピアデバイス、またはその他の通常のネットワークノードである可能性があり、コンピュータ700に関して上述した要素のうちの多くまたは全てを含み得る。ネットワーキング環境が、オフィス、企業の広域ネットワーク(WAN)、ローカルエリアネットワーク(LAN)、イントラネット、およびインターネットなどの世界規模のネットワークにおいて当たり前になっている。たとえば、本願の主題において、コンピュータ700は、データがマイグレーションされている移行元のマシンを含む可能性があり、リモートコンピュータは、移行先のマシンを含む可能性があり、逆も同様である。しかし、移行元および移行先のマシンは、(1つまたは複数の)ネットワーク708または任意のその他の手段によって一緒に結合される必要はないが、代わりに、データが、移行元のプラットフォームによって書き込まれることができ、(1つまたは複数の)移行先のプラットフォームによって読み取られることができる任意の媒体を介してマイグレーションされることができることに留意されたい。LANまたはWLANネットワーキング環境において使用されるとき、コンピュータ700は、ネットワークインターフェース706またはアダプタを介してLANに結合され得る。
(1つまたは複数の)ネットワークは、サーバ、クライアント、スイッチ、ルータ、モデム、インターネットサービスプロバイダ(ISP)、および任意の適切な通信媒体(たとえば、有線または無線通信)を使用する任意のトポロジーを含み得る。一部の実施形態によるシステムは、静的または動的なネットワークトポロジーを有する可能性がある。(1つまたは複数の)ネットワークは、エンタープライズネットワーク(たとえば、LAN、WAN、もしくはWLAN)などの安全なネットワーク、無線開放型ネットワーク(たとえば、IEEE802.11無線ネットワーク)などの安全でないネットワーク、または世界規模のネットワーク(たとえば、インターネット)を含み得る。(1つまたは複数の)ネットワークは、一緒に動作するように適合される複数の異なるネットワークを含むこともできる。(1つまたは複数の)ネットワークは、本明細書に記載されたノード間の通信を提供するようになされる。限定ではなく例として、(1つまたは複数の)ネットワークは、音響、RF、赤外線、およびその他の無線媒体などの無線媒体を含み得る。
ネットワーク通信リンクは、通信媒体の一例である可能性がある。概して、通信媒体は、搬送波またはその他の搬送メカニズムなどの変調されたデータ信号内のコンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータによって具現化されることができ、任意の情報配信媒体を含み得る。「変調されたデータ信号」は、その信号の特徴のうちの1つまたは複数を、信号中に情報を符号化するような方法で設定または変更させる信号である可能性がある。限定ではなく例として、通信媒体は、有線ネットワークまたは直接有線接続などの有線媒体、ならびに音響、無線周波数(RF)、マイクロ波、赤外線(IR)、およびその他の無線媒体などの無線媒体を含み得る。本明細書において使用される用語、コンピュータ可読媒体は、ストレージ媒体と通信媒体の両方を含み得る。
コンピュータ700は、セル電話、携帯情報端末(PDA)、パーソナルメディアプレーヤデバイス、無線ウェブ閲覧デバイス、パーソナルハンドセットデバイス、特定用途向けデバイス、または上述の機能のうちの任意のものを含む複合デバイスなどの小型フォームファクタ携帯型(またはモバイル)電子デバイスの一部として実装され得る。また、コンピュータ700は、ラップトップコンピュータ構成と非ラップトップコンピュータ構成の両方を含むパーソナルコンピュータとして実装され得る。さらに、コンピュータ700は、ネットワーク化されたシステムとして、または汎用もしくは専用のサーバの一部として実装され得る。
図8は、本開示の少なくとも一部の実施形態に従って構成されたARメガネにおいて近接感知メカニズムを実装するために使用され得る専用プロセッサを示す。図800のプロセッサ810は、ARメガネ(たとえば、ARメガネ330)に通信可能に結合されるコンピューティングデバイスの一部である可能性があるか、またはARメガネに組み込まれる可能性がある。
プロセッサ810は、いくつかの検出モジュール840を含み得る。各検出モジュールは、センサ(たとえば、センサ840−1から840−N)に関連付けられることができる。検出モジュール840は、着用者の頭、鼻、メガネがたたまれることまたは広げられることなどのセンサの検出を示す電圧の測定値などのセンサ出力を検出するように構成され得る。検出モジュール840は、判定モジュール830に(1つまたは複数の)センサの検出を示す出力を与えるように構成され得る。判定モジュール830は、監視されるパラメータおよび関連するセンサの情報に基づいて判定を行うように構成され得る。たとえば、監視されるパラメータは、着用者の頭もしくは鼻の検出に基づいてARメガネが着用されているかどうか、メガネのアームがたたまれていることもしくは開いていること、または跳ね上げ式の特徴の位置である可能性がある。
データベース880は、判定モジュール830が判定を行うのを支援するための監視されるパラメータに関連するデータを記憶するように構成され得る。たとえば、データベース880は、センサ840−1から840−Nからの期待される電圧測定値と、対応するパラメータ値(たとえば、メガネが使用中か否か)とを列挙するルックアップテーブル880−1から880−Nを含み得る。検出モジュールの出力をルックアップテーブルと比較すると、判定モジュール830は、メガネが起動されるべきであると判定し、プロセッサ810がメガネの電源モジュールを作動させることを可能にするように構成され得る。
その他の実施形態によれば、ARメガネの動作コントロールなどのその他のパラメータが監視され、センサ840−1から840−Nからの入力に基づいて制御され得る。各センサは、1つの検出モジュールに関連付けられ得る。代替的に、複数のセンサが、単一の検出モジュールによって監視され得る。さらに、複数の判定モジュールが、異なる機能のために使用され得る。メモリ820は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせとして実装される可能性がある判定モジュール830および/または検出モジュール840に関する命令を記憶するように構成され得る。プロセッサ810は、その他のコンピューティングデバイスおよび/またはストレージ設備850などのデータストアと直接的な電気的結合を通じて、またはネットワーク化された通信(たとえば、(1つもしくは複数の)ネットワーク808)を通じて通信することができる。
例示的な実施形態は、方法も含み得る。これらの方法は、本明細書に記載された構造を含むあらゆるやり方で実装され得る。1つのそのようなやり方は、本開示に記載された種類のデバイスの機械オペレーションによる。別の選択され得るやり方は、方法の個々のオペレーションのうちの1つまたは複数が、オペレーションの一部が機械によって実行される一方で、1人または複数の人間のオペレータがその他のオペレーションを実行することに関連して実行されることである。これらの人間のオペレータは互いにひとまとめに配置される必要はなく、それぞれの人間のオペレータは、プログラムの一部を実行する機械とのみ一緒である可能性がある。その他の例において、人間のインタラクションは、機械で自動化されるあらかじめ選択された基準によるなどして自動化され得る。
図9は、本明細書に記載の少なくとも一部の実施形態に従って構成された図7のコンピュータ700または図8の専用プロセッサ810などのコンピューティングデバイスによって実行され得る例示的な方法を示す流れ図である。ブロック922、924、および926で説明されるオペレーションは、コンピュータ700のドライブ740またはプロセッサ810のメモリ820などのコンピュータ可読媒体にコンピュータが実行可能な命令として記憶され得る。
拡張現実システムで近接センサを使用するプロセスは、オペレーション922、「センサ信号を受信する」で始まることができる。オペレーション922において、センサ出力が、図2のARメガネ220のセンサ222、224、および226などのARメガネの複数のセンサのうちの1つから受信される。センサは、本明細書において説明されるように、メガネの状態(たとえば、動作状態)またはユーザ入力を検出するためにARメガネのさまざまな有効な位置に一体化され得る。
オペレーション922の後にオペレーション924、「状態/ユーザ入力を判定する」が続くことができる。オペレーション924において、受信された信号が、メガネの状態またはユーザ入力を判定するために処理され得る。たとえば、監視される状態は、メガネのアームの位置である可能性がある。アームが開いている場合、ユーザがARメガネを使用することを意図するという推測がなされることができ、メガネが自動的に起動されることができる。同様に、メガネのアームの間のユーザの頭(またはメガネのブリッジの下のユーザの鼻)の検出は、メガネを使用する意図を示す可能性がある。処理は、受信された信号の値をルックアップテーブル内の期待される値と比較することと、状態を判定することとを含み得る。頭の動き、またはセンサのうちの少なくとも1つにタッチすることなどのユーザ入力も、同様にして処理され得る信号を生成することができる。受信された信号は、検出モジュール840などの検出モジュールによって処理され、図8のプロセッサ810のようなプロセッサによって処理されることができる。
オペレーション924の後にオペレーション926、「対応するアクションを実行する」が続くことができる。オペレーション926において、プロセッサ810は、動作モジュールに、受信されたセンサ入力に対応するアクションを実行するように命令することができる。たとえば、電源モジュールが、頭、またはメガネの開いた位置の検出に応じてARメガネを起動するように命令され得る。同様に、センサを通じたユーザ入力が、オーディオボリュームコントロール、ディスプレイのプロパティ(たとえば、輝度)を調整するなど、動作モジュールを作動させるか、または制御するために使用され得る。
上述のプロセスに含まれるオペレーションは、例示を目的とするものである。近接センサを備えたARメガネは、より少ないオペレーションまたは追加的なオペレーションを有する同様のプロセスによって実装され得る。一部の例において、オペレーションは、異なる順序で実行され得る。一部のその他の例において、さまざまなオペレーションが省略され得る。さらにその他の例において、さまざまなオペレーションが、さらなるオペレーションに分割されるか、またはより少ないオペレーションに一緒に組み合わされる可能性がある。
図10は、本明細書に記載の少なくとも一部の実施形態に従って構成された例示的なコンピュータプログラム製品1000のブロック図を示す。一部の例において、図10に示されるように、コンピュータプログラム製品1000は、たとえばプロセッサによって実行されるときに図7および図8に関して上で説明された機能を提供することができる機械可読命令1004をやはり含み得る信号を運ぶ媒体1002を含み得る。したがって、たとえば、プロセッサ810に関して、検出モジュール840および判定モジュール830が、媒体1002によってプロセッサ810に運ばれた命令1004に応答して図10に示されたタスクのうちの1つまたは複数を引き受けて、本明細書において説明されるように近接センサを使用することに関連するアクションを実行することができる。それらの命令の一部は、センサ信号を受信すること、状態/ユーザ入力を判定すること、および/または対応するアクションを実行することを含み得る。
一部の実装形態において、図10に示された信号を運ぶ媒体1002は、これらに限定されないが、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、メモリなどのコンピュータ可読媒体1006を包含し得る。一部の実装形態において、信号を運ぶ媒体1002は、これらに限定されないが、メモリ、読み出し/書き込み(R/W)CD、R/W DVDなどの記録可能な媒体1008を包含し得る。一部の実装形態において、信号を運ぶ媒体1002は、これらに限定されないが、デジタルおよび/またはアナログ通信媒体(たとえば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンクなど)などの通信媒体1010を包含し得る。したがって、たとえば、プログラム製品1000は、RF信号を運ぶ媒体1002によってプロセッサ504の1つまたは複数のモジュールに伝達される可能性があり、信号を運ぶ媒体1002は、無線通信媒体1010(たとえば、IEEE802.11規格に準拠する無線通信媒体)によって伝達される。
一部の例において、本開示は、近接センサに基づいてウェアラブル拡張現実(AR)220ディスプレイに適応的に給電するように構成されたシステムを説明し、システムは、ウェアラブルARディスプレイに装着されたセンサ448を含む。センサは、検出信号を生成するように構成され、検出信号は、着用者の頭の存在、着用者の頭の位置、および/またはウェアラブルARディスプレイの状態のうちの1つまたは複数を示す。システムは、センサに結合されたプロセッサ810も含み、プロセッサは、センサからの検出信号に基づいてウェアラブルARディスプレイが起動されるべきであるかどうかを判定し、ウェアラブルARディスプレイが起動されるべきであるときはウェアラブルARディスプレイを起動するように構成される。
ウェアラブルARディスプレイ220の状態は、ウェアラブルARディスプレイのアームが開いた位置にあること、または閉じた位置にあることを含む。センサ448は、誘導センサ、磁気センサ、ソナーセンサ、光学式センサ、渦電流センサ、機械式スイッチ、または熱赤外センサである可能性がある。センサ448は、静電容量の差を感知することに基づいて、着用者の頭の存在、着用者の胴体に対する着用者の頭の位置、および/またはウェアラブルARディスプレイの状態のうちの1つまたは複数を検出するように構成された静電容量センサである可能性もある。
システムは、ウェアラブルARディスプレイ220の左アーム、右アーム、ブリッジ、および/またはリムのうちの1つまたは複数に装着された複数のセンサ222、224、226をさらに含み得る。複数のセンサ222、224、226は、ウェアラブルARディスプレイ220の少なくとも1つの動作パラメータを制御するためのユーザ入力を受信するように構成される。ウェアラブルARディスプレイ220の動作パラメータは、オーディオコントロールまたはディスプレイコントロールを含み得る。システムは、少なくとも1つの蝶番によってウェアラブルARディスプレイ220のリムに装着された可動部分334、335も含む可能性があり、跳ね上げ式の可動部分が、少なくとも1つの追加的なセンサ337、339を含む。可動部分334、335は、ディスプレイであるか、またはウェアラブルARディスプレイの透けているコンポーネントを遮るカバーである可能性がある。ウェアラブルARディスプレイ220の状態は、可動部分334、335が上げられた位置にあること、または下げられた位置にあることを含み得る。さらに、可動部分334、335の位置は、少なくとも1つの蝶番331、または少なくとも1つの追加的なセンサ337、339による検出に基づいて判定され得る。
さらなる例において、本開示は、近接センサ222、224、226に基づいてウェアラブル拡張現実(AR)ディスプレイ220に適応的に給電するように構成されたシステムを記載する。システムは、基準ノード444に結合された静電容量センサ448を含み、センサ448は、基準ノード444と外部ノード445との間の静電容量の値の差を測定するように構成される。システムは、センサ448に結合された電圧測定デバイス446も含む。電圧測定デバイス446は、値の差を入力として受信するように構成され、ウェアラブルARディスプレイ220に電力をいつ供給すべきかを判定するように構成されるデータ出力を提供するようにさらに構成される。基準ノード444は、基準静電容量である可能性があり、外部ノード445は、人218である可能性がある。
システムは、電圧測定デバイスに結合されたプロセッサ810をさらに含み得る。プロセッサは、電圧測定デバイス446からのデータ出力を受信し、データ出力をルックアップテーブル880−1から880−N内の複数の記憶された値と比較し、ウェアラブルARディスプレイ220に電力をいつ供給すべきかを判定するように構成される。これは、時間平均、時間フィルタ(temporal filter)、および同様のパラメータを使用する信号依存アルゴリズム(signal dependent algorithm)によって行われ得る。プロセッサ810は、データ出力の複数の記憶された値との比較に応じて、ウェアラブルARディスプレイ220を低電力モードに移行させるようにさらに構成される。センサ448は、近くのグラウンドおよび漂遊電磁界に対する感度を小さくするためのアクティブシールド684を含み得る。センサ448は、水および/または汗がセンサの測定を妨げることを防止するために疎水性材料でさらにコーティングされ得る。
さらなる例において、本開示は、近接センサ222、224、226によってウェアラブル拡張現実(AR)ディスプレイ220の動作状況を制御するための方法を記載する。方法は、ウェアラブルARディスプレイの左アーム、右アーム、ブリッジ、および/またはリムのうちの1つまたは複数に装着された複数のセンサのうちの少なくとも1つから感知信号を受信すること(922)と、受信された感知信号に基づいて、着用者の頭の存在、着用者の頭の位置、ユーザ入力、および/またはウェアラブルARディスプレイの状態のうちの1つまたは複数を判定すること(924)と、判定に応じてウェアラブルARディスプレイの動作状況に関連するアクションを実行すること(926)とを含む。
ウェアラブルARディスプレイ220の動作状況に関連するアクションは、ARディスプレイを起動すること、ARディスプレイを停止すること、ARディスプレイを低電力モードに移行させること、オーディオコントロールを調整すること、および/またはディスプレイコントロールを調整することのうちの1つまたは複数を含む。方法は、複数のセンサ222、224、226から複数の感知信号を受信することも含む可能性があり、複数のセンサは、静電容量センサ、誘導センサ、磁気センサ、ソナーセンサ、光学式センサ、渦電流センサ、または熱赤外センサのうちの1つまたは複数を含む。方法は、着用者(218)の胴体に対する着用者の頭の連続的な位置を検出することに応じて、検出された左右の動きに基づく否定的なユーザの応答、および検出された上下の動きに基づく肯定的なユーザの応答のうちの1つまたは複数を推測することをさらに含み得る。
その他の例において、本開示は、近接センサ222、224、226によってウェアラブル拡張現実(AR)ディスプレイ220の動作状況を制御するための命令1004を記憶するコンピュータ可読ストレージ媒体1002をさらに記載する。命令は、ウェアラブルARディスプレイ220に装着された複数のセンサ222、224、226において、受信された感知信号に基づいて、着用者の頭の存在、着用者の頭の位置、ユーザ入力、および/またはウェアラブルARディスプレイの状態のうちの1つまたは複数を感知することを含む。
命令は、感知された着用者の頭の存在および/またはウェアラブルARディスプレイの状態のうちの1つまたは複数に基づいて、ウェアラブルARディスプレイを起動すべきか、または停止すべきかを判定することと、感知された着用者の頭の位置に基づいてユーザの応答を推測することと、推測されたユーザの応答または感知されたユーザ入力のうちの1つに応じてウェアラブルARディスプレイの動作状況に関連するアクションを決定することをさらに含む。これらのアクションは、プロセッサ810において実行され得る。ウェアラブルARディスプレイ220の状態は、ウェアラブルARディスプレイのアームが開いた位置もしくは閉じた位置のうちの1つにあること、および/またはウェアラブルARディスプレイの可動部分334、335が上げられた位置もしくは下げられた位置のうちの1つにあることのうちの1つまたは複数を含む。
システムの側面でのハードウェアの実装形態とソフトウェアの実装形態との間には、ほとんど相違が残されていない。ハードウェアまたはソフトウェアの使用は、一般に(いつもそうではないが、ある状況ではハードウェアとソフトウェアの間の選択が重要になり得るという点で)コスト対効果のトレードオフを表す設計上の選択である。本明細書に記載された、プロセスおよび/またはシステムおよび/または他の技術をもたらすことができるさまざまな達成手段があり(たとえば、ハードウェア、ソフトウェア、および/またはファームウェア)、好ましい達成手段は、プロセスおよび/またはシステムおよび/または他の技術が導入される状況によって異なる。たとえば、実装者が速度と正確性が最も重要であると決定すると、実装者は主にハードウェアおよび/またはファームウェアの達成手段を選択することができる。フレキシビリティが最も重要なら、実装者は主にソフトウェアの実装形態を選択することができる。または、さらに別の代替案として、実装者は、ハードウェア、ソフトウェア、および/またはファームウェアのなんらかの組み合わせを選択することができる。
前述の詳細な説明では、ブロック図、フローチャート、および/または例の使用によって、装置および/またはプロセスのさまざまな実施形態を説明してきた。そのようなブロック図、フローチャート、および/または例が1つまたは複数の機能および/または動作を含む限りにおいて、そのようなブロック図、フローチャート、または例の中のそれぞれの機能および/または動作は、広範囲のハードウェア、ソフトウェア、ファームウェア、または実質上それらのすべての組み合わせにより、個別におよび/または集合的に実装可能であることが、当業者には理解されるであろう。ある実施形態では、本明細書に記載された主題のいくつかの部分は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタルシグナルプロセッサ(DSP)、または他の集積化方式によって実装することができる。しかし、本明細書で開示された実施形態のいくつかの態様が、全体においてまたは一部において、1つまたは複数のコンピュータ上で動作する1つまたは複数のコンピュータプログラムとして(たとえば、1つまたは複数のコンピュータシステム上で動作する1つまたは複数のプログラムとして)、1つまたは複数のプロセッサ上で動作する1つまたは複数のプログラムとして(たとえば、1つまたは複数のマイクロプロセッサ上で動作する1つまたは複数のプログラムとして)、ファームウェアとして、あるいは実質上それらの任意の組み合わせとして、等価に集積回路に実装することができることを、当業者は認識するであろうし、電気回路の設計ならびに/またはソフトウェアおよび/もしくはファームウェアのコーディングが、本開示に照らして十分当業者の技能の範囲内であることを、当業者は認識するであろう。
本開示は、さまざまな態様の例示として意図されている、本願に記載の特定の実施形態によって限定されてはならない。当業者に明らかであろうように、多くの修正および変更が、本開示の精神および範囲を逸脱することなしに行われ得る。本明細書に列挙された方法および装置に加えて、本開示の範囲内の機能的に均等な方法および装置が、上述の説明から当業者に明らかであろう。そのような修正および変更は、添付の特許請求の範囲の範囲内に入るように意図される。本開示は、添付の特許請求の範囲に与えられた均等物の全範囲と併せた、そのような特許請求の範囲の請求項によってのみ限定されるべきである。本開示は特定の方法、材料、および構成に限定されず、それらはもちろん変わり得ることを理解されたい。本明細書において使用された用語は、特定の実施形態を説明することのみを目的としており、限定するように意図されていないことも理解されたい。
さらに、本明細書に記載された主題のメカニズムをさまざまな形式のプログラム製品として配布することができることを、当業者は理解するであろうし、本明細書に記載された主題の例示的な実施形態が、実際に配布を実行するために使用される信号伝達媒体の特定のタイプにかかわらず適用されることを、当業者は理解するであろう。信号伝達媒体の例には、フロッピー(登録商標)ディスク、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、コンピュータメモリ、などの記録可能なタイプの媒体、ならびに、デジタル通信媒体および/またはアナログ通信媒体(たとえば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンクなど)の通信タイプの媒体が含まれるが、それらには限定されない。
本明細書で説明したやり方で装置および/またはプロセスを記載し、その後そのように記載された装置および/またはプロセスを、データ処理システムに統合するためにエンジニアリング方式を使用することは、当技術分野で一般的であることを当業者は認識するであろう。すなわち、本明細書に記載された装置および/またはプロセスの少なくとも一部を、妥当な数の実験によってデータ処理システムに統合することができる。通常のデータ処理システムは、一般に、システムユニットハウジング、ビデオディスプレイ装置、揮発性メモリおよび不揮発性メモリなどのメモリ、マイクロプロセッサおよびデジタル信号プロセッサなどのプロセッサ、オペレーティングシステムなどの計算実体、ドライバ、グラフィカルユーザインターフェース、およびアプリケーションプログラムのうちの1つもしくは複数、タッチパッドもしくはスクリーンなどの1つもしくは複数の相互作用装置、ならびに/またはフィードバックループおよびコントロールモジュールを含むコントロールシステム(たとえば、ARメガネに電力を供給するまたはARメガネのさまざまな動作パラメータを調整する)を含むことを、当業者は理解するであろう。
通常のデータ処理システムは、データコンピューティング/通信システムおよび/またはネットワークコンピューティング/通信システムの中に通常見られるコンポーネントなどの、市販の適切なコンポーネントを利用して実装することができる。本明細書に記載された主題は、さまざまなコンポーネントをしばしば例示しており、これらのコンポーネントは、他のさまざまなコンポーネントに包含されるか、または他のさまざまなコンポーネントに接続される。そのように図示されたアーキテクチャは、単に例示にすぎず、実際には、同じ機能を実現する多くの他のアーキテクチャが実装可能であることが理解されよう。概念的な意味で、同じ機能を実現するコンポーネントの任意の構成は、所望の機能が実現されるように効果的に「関連付け」される。したがって、特定の機能を実現するために組み合わされた、本明細書における任意の2つのコンポーネントは、アーキテクチャまたは中間のコンポーネントにかかわらず、所望の機能が実現されるように、お互いに「関連付け」されていると見ることができる。同様に、そのように関連付けされた任意の2つのコンポーネントは、所望の機能を実現するために、互いに「動作可能に接続」または「動作可能に結合」されていると見なすこともでき、そのように関連付け可能な任意の2つのコンポーネントは、所望の機能を実現するために、互いに「動作可能に結合できる」と見なすこともできる。動作可能に結合できる場合の具体例には、物理的に接続可能な、および/もしくは物理的に相互作用するコンポーネント、ならびに/またはワイヤレスに相互作用可能な、および/もしくはワイヤレスに相互作用するコンポーネント、ならびに/または論理的に相互作用する、および/もしくは論理的に相互作用可能なコンポーネントが含まれるが、それらに限定されない。
本明細書における実質的にすべての複数形および/または単数形の用語の使用に対して、当業者は、状況および/または用途に適切なように、複数形から単数形に、および/または単数形から複数形に変換することができる。さまざまな単数形/複数形の置き換えは、理解しやすいように、本明細書で明確に説明することができる。
通常、本明細書において、特に添付の特許請求の範囲(たとえば、添付の特許請求の範囲の本体部)において使用される用語は、全体を通じて「オープンな(open)」用語として意図されていることが、当業者には理解されよう(たとえば、用語「含む(including)」は、「含むがそれに限定されない(including but not limited to)」と解釈されるべきであり、用語「有する(having)」は、「少なくとも有する(having at least)」と解釈されるべきであり、用語「含む(includes)」は、「含むがそれに限定されない(includes but is not limited to)」と解釈されるべきである、など)。導入される請求項で具体的な数の記載が意図される場合、そのような意図は、当該請求項において明示的に記載されることになり、そのような記載がない場合、そのような意図は存在しないことが、当業者にはさらに理解されよう。たとえば、理解の一助として、添付の特許請求の範囲は、導入句「少なくとも1つの(at least one)」および「1つまたは複数の(one or more)」を使用して請求項の記載を導くことを含む場合がある。しかし、そのような句の使用は、同一の請求項が、導入句「1つまたは複数の」または「少なくとも1つの」および「a」または「an」などの不定冠詞を含む場合であっても、不定冠詞「a」または「an」による請求項の記載の導入が、そのように導入される請求項の記載を含む任意の特定の請求項を、単に1つのそのような記載を含む実施形態に限定する、ということを示唆していると解釈されるべきではない(たとえば、「a」および/または「an」は、「少なくとも1つの」または「1つまたは複数の」を意味すると解釈されるべきである)。同じことが、請求項の記載を導入するのに使用される定冠詞の使用にも当てはまる。また、導入される請求項の記載で具体的な数が明示的に記載されている場合でも、そのような記載は、少なくとも記載された数を意味すると解釈されるべきであることが、当業者には理解されよう(たとえば、他の修飾語なしでの「2つの記載(two recitations)」の単なる記載は、少なくとも2つの記載、または2つ以上の記載を意味する)。
さらに、「A、BおよびC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、およびCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。「A、B、またはC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、またはCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。2つ以上の代替用語を提示する事実上いかなる離接する語および/または句も、明細書、特許請求の範囲、または図面のどこにあっても、当該用語の一方(one of the terms)、当該用語のいずれか(either of the terms)、または両方の用語(both terms)を含む可能性を企図すると理解されるべきであることが、当業者にはさらに理解されよう。たとえば、句「AまたはB」は、「A」または「B」あるいは「AおよびB」の可能性を含むことが理解されよう。
さらに、本開示の特徴または態様がマーカッシュ群(Markush group)によって説明される場合、当業者は、本開示が、それによって、マーカッシュ群の任意の個々の構成要素または構成要素の部分的な群によっても説明されることを認めるであろう。
当業者に理解されるであろうように、書面で説明するという観点など、任意のおよびすべての趣旨で、本明細書で開示されたすべての範囲は、それらの範囲の任意のおよびすべてのあり得る部分的な範囲および部分的な範囲の組み合わせも包含する。どの記載された範囲も、同じ範囲が少なくとも2等分、3等分、4等分、5等分、10等分などに分割されることを十分に説明し、そのように分割されることを可能にすると容易に認識され得る。非限定的な例として、本明細書において検討された各範囲は、下3分の1、真ん中3分の1、および上3分の1などに容易に分割され得る。当業者にやはり理解されるであろうように、「最大で〜まで」、「少なくとも〜」、「〜よりも大きい」、「〜よりも小さい」などのすべての言い回しは、記載された数を含み、上で検討されたように部分的な範囲に続けて分割され得る範囲を指す。最後に、当業者に理解されるであろうように、範囲は、それぞれの個々の構成要素を含む。したがって、たとえば、1〜3個のセル(cell)を有する群は、1個、2個、または3個のセルを有する群を指す。同様に、1〜5個のセルを有する群は、1個、2個、3個、4個、または5個のセルを有する群を指し、以下同様である。
さまざまな態様および実施形態が本明細書において開示されたが、その他の態様および実施形態が、当業者には明らかになるであろう。本明細書において開示されたさまざまな態様および実施形態は、例示を目的としており、限定するように意図されておらず、その真の範囲および精神は、以下の特許請求の範囲によって示される。

Claims (24)

  1. 近接センサに基づいてウェアラブル拡張現実(AR)ディスプレイに適応的に給電するように構成されたシステムであって、
    前記ウェアラブルARディスプレイに装着されたセンサであって、検出信号を生成するように構成され、前記検出信号は、着用者の頭の存在、前記着用者の頭の位置、および/または前記ウェアラブルARディスプレイの状態のうちの1つまたは複数を示す、センサと、
    前記センサに結合されたプロセッサであって、前記センサからの前記検出信号に基づいて前記ウェアラブルARディスプレイが起動されるべきであるかどうかを判定し、前記ウェアラブルARディスプレイが起動されるべきであるときは前記ウェアラブルARディスプレイを起動するように構成される、プロセッサとを含む、システム。
  2. 前記ウェアラブルARディスプレイの前記状態は、前記ウェアラブルARディスプレイのアームが開いた位置または閉じた位置のうちの1つにあることを含む請求項1に記載のシステム。
  3. 前記センサは、誘導センサ、磁気センサ、ソナーセンサ、光学式センサ、渦電流センサ、機械式スイッチ、または熱赤外センサのうちの1つである請求項1に記載のシステム。
  4. 前記センサは、静電容量の差を感知することに基づいて、前記着用者の頭の前記存在、前記着用者の胴体に対する前記着用者の頭の前記位置、および前記ウェアラブルARディスプレイの前記状態のうちの1つまたは複数を検出するように構成された静電容量センサである請求項1に記載のシステム。
  5. 前記ウェアラブルARディスプレイの左アーム、右アーム、ブリッジ、および/またはリムのうちの1つまたは複数に装着された複数のセンサをさらに含む請求項1に記載のシステム。
  6. 前記複数のセンサは、前記ウェアラブルARディスプレイの少なくとも1つの動作パラメータを制御するためのユーザ入力を受信するように構成される請求項5に記載のシステム。
  7. 前記ウェアラブルARディスプレイの前記少なくとも1つの動作パラメータは、オーディオコントロールまたはディスプレイコントロールのうちの1つを含む請求項6に記載のシステム。
  8. 少なくとも1つの蝶番によって前記ウェアラブルARディスプレイのリムに装着された可動部分であって、跳ね上げ式の可動部分が、少なくとも1つの追加的なセンサを含む、可動部分をさらに含む請求項1に記載のシステム。
  9. 前記可動部分が、ディスプレイ、または前記ウェアラブルARディスプレイの透けているコンポーネントを遮るカバーのうちの1つである請求項8に記載のシステム。
  10. 前記ウェアラブルARディスプレイの前記状態は、前記可動部分が上げられた位置および下げられた位置のうちの1つにあることを含む請求項8に記載のシステム。
  11. 前記可動部分の位置は、前記少なくとも1つの蝶番および前記少なくとも1つの追加的なセンサのうちの1つによる検出に基づいて判定される請求項10に記載のシステム。
  12. 近接センサに基づいてウェアラブル拡張現実(AR)ディスプレイに適応的に給電するように構成されたシステムであって、
    基準ノードに結合された容量センサであって、基準ノードと外部ノードとの間の静電容量の値の差を測定するように構成される、容量センサと、
    前記センサに結合された電圧測定デバイスであって、前記値の差を入力として受信するように構成され、前記ウェアラブルARディスプレイに電力をいつ供給すべきかを判定するように構成されるデータ出力を提供するようにさらに構成される、電圧測定デバイスとを含む、システム。
  13. 前記基準ノードは基準静電容量である請求項12に記載のシステム。
  14. 前記外部ノードは人である請求項12に記載のシステム。
  15. 前記電圧測定デバイスに結合されたプロセッサであって、前記電圧測定デバイスからの前記データ出力を受信し、前記データ出力をルックアップテーブル内の複数の記憶された値と比較し、前記ウェアラブルARディスプレイに電力をいつ供給すべきかを判定するように構成される、プロセッサをさらに含む請求項12に記載のシステム。
  16. 前記プロセッサは、前記データ出力の前記複数の記憶された値との前記比較に応じて前記ウェアラブルARディスプレイを低電力モードに移行させるようにさらに構成される請求項15に記載のシステム。
  17. 前記センサは、近くのグラウンドおよび漂遊電磁界に対する感度を小さくするためのアクティブシールドを含む請求項12に記載のシステム。
  18. 前記センサは、水および/または汗がセンサの測定を妨げることを防止するために疎水性材料でコーティングされる請求項12に記載のシステム。
  19. 近接センサによってウェアラブル拡張現実(AR)の動作状況を制御するための方法であって、
    前記ウェアラブルARディスプレイの左アーム、右アーム、ブリッジ、および/またはリムのうちの1つまたは複数に装着された複数のセンサのうちの少なくとも1つから感知信号を受信することと、
    受信された感知信号に基づいて、着用者の頭の存在、前記着用者の頭の位置、ユーザ入力、および/または前記ウェアラブルARディスプレイの状態のうちの1つまたは複数を判定することと、
    前記判定に応じて前記ウェアラブルARディスプレイの動作状況に関連するアクションを実行することとを含む、方法。
  20. 前記ウェアラブルARディスプレイの前記動作状況に関連する前記アクションは、前記ARディスプレイを起動すること、前記ARディスプレイを停止すること、前記ARディスプレイを低電力モードに移行させること、オーディオコントロールを調整すること、および/またはディスプレイコントロールを調整することのうちの1つまたは複数を含む請求項19に記載の方法。
  21. 複数のセンサから複数の感知信号を受信することをさらに含み、前記複数のセンサは、容量センサ、誘導センサ、磁気センサ、ソナーセンサ、光学式センサ、渦電流センサ、または熱赤外センサのうちの1つまたは複数を含む請求項19に記載の方法。
  22. 前記着用者の胴体に対する前記着用者の頭の連続的な位置を検出することに応じて、検出された左右の動きに基づく否定的なユーザの応答、および検出された上下の動きに基づく肯定的なユーザの応答のうちの1つまたは複数を推測することをさらに含む請求項19に記載の方法。
  23. 近接センサによってウェアラブル拡張現実(AR)ディスプレイの動作状況を制御するための命令を記憶するコンピュータ可読ストレージ媒体であって、前記命令は、
    前記ウェアラブルARディスプレイに装着された複数のセンサにおいて、受信された感知信号に基づいて、着用者の頭の存在、前記着用者の頭の位置、ユーザ入力、および/または前記ウェアラブルARディスプレイの状態のうちの1つまたは複数を感知することと、
    プロセッサにおいて、感知された前記着用者の頭の存在および/または前記ウェアラブルARディスプレイの前記状態のうちの1つまたは複数に基づいて、前記ウェアラブルARディスプレイを起動すべきか、または停止すべきかを判定することと、
    前記プロセッサにおいて、感知された前記着用者の頭の位置に基づいてユーザの応答を推測することと、
    前記プロセッサにおいて、推測されたユーザの応答または感知されたユーザ入力のうちの1つに応じて前記ウェアラブルARディスプレイの動作状況に関連するアクションを決定することとを含む、コンピュータ可読ストレージ媒体。
  24. 前記ウェアラブルARディスプレイの前記状態は、前記ウェアラブルARディスプレイのアームが開いた位置もしくは閉じた位置のうちの1つにあること、および/または前記ウェアラブルARディスプレイの可動部分が上げられた位置もしくは下げられた位置のうちの1つにあることのうちの1つまたは複数を含む請求項23に記載のコンピュータ可読ストレージ媒体。
JP2013513146A 2010-07-20 2010-07-20 拡張現実の近接感知 Active JP5512884B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2010/042532 WO2012011893A1 (en) 2010-07-20 2010-07-20 Augmented reality proximity sensing

Publications (2)

Publication Number Publication Date
JP2013528871A true JP2013528871A (ja) 2013-07-11
JP5512884B2 JP5512884B2 (ja) 2014-06-04

Family

ID=45497091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013513146A Active JP5512884B2 (ja) 2010-07-20 2010-07-20 拡張現実の近接感知

Country Status (5)

Country Link
US (2) US9606612B2 (ja)
JP (1) JP5512884B2 (ja)
KR (1) KR101431366B1 (ja)
CN (1) CN102893236B (ja)
WO (1) WO2012011893A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101510340B1 (ko) 2013-10-14 2015-04-07 현대자동차 주식회사 신체 착용 컴퓨터
JP2015205114A (ja) * 2014-04-23 2015-11-19 アルプス電気株式会社 眼鏡型電子機器
JP2016507098A (ja) * 2013-01-14 2016-03-07 クゥアルコム・インコーポレイテッドQualcomm Incorporated 表面上でのジェスチャ認識のためのemgの使用
WO2016063801A1 (ja) * 2014-10-22 2016-04-28 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
JP2017049775A (ja) * 2015-09-01 2017-03-09 株式会社東芝 メガネ型ウエアラブル端末およびこの端末を用いる方法
US9946340B2 (en) 2014-11-06 2018-04-17 Kabushiki Kaisha Toshiba Electronic device, method and storage medium
JP2018175030A (ja) * 2017-04-04 2018-11-15 学校法人 中央大学 頭部筋活動検知装置

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9167242B1 (en) * 2010-05-04 2015-10-20 Leif Meyer Sensor measurement system and method
JP2012048659A (ja) * 2010-08-30 2012-03-08 Canon Inc 画像処理装置、画像処理方法
US9144041B2 (en) * 2011-12-14 2015-09-22 Microchip Technology Incorporated Capacitive/inductive proximity detection for Wi-Fi protection
GB201203005D0 (en) * 2012-02-22 2012-04-04 Polyphotonix Ltd Medical apparatus and method
US20160071550A1 (en) * 2014-09-04 2016-03-10 Vixs Systems, Inc. Video system for embedding excitement data and methods for use therewith
CN103677356B (zh) * 2012-09-03 2018-03-23 联想(北京)有限公司 电子设备
CN104704535A (zh) * 2012-10-02 2015-06-10 索尼公司 增强现实系统
US9977503B2 (en) 2012-12-03 2018-05-22 Qualcomm Incorporated Apparatus and method for an infrared contactless gesture system
US9016857B2 (en) * 2012-12-06 2015-04-28 Microsoft Technology Licensing, Llc Multi-touch interactions on eyewear
US20140195968A1 (en) * 2013-01-09 2014-07-10 Hewlett-Packard Development Company, L.P. Inferring and acting on user intent
WO2014128809A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ
CN104007889B (zh) * 2013-02-27 2018-03-27 联想(北京)有限公司 一种反馈方法和电子设备
US9401048B2 (en) * 2013-03-15 2016-07-26 Qualcomm Incorporated Methods and apparatus for augmented reality target detection
DE102013207064A1 (de) 2013-04-19 2014-10-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Auswahl einer Informationsquelle zur Anzeige auf einer Datenbrille
DE102013207063A1 (de) 2013-04-19 2014-10-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Auswählen einer Informationsquelle aus einer Mehrzahl von Informationsquellen zur Anzeige auf einer Anzeige einer Datenbrille
US9575721B2 (en) 2013-07-25 2017-02-21 Lg Electronics Inc. Head mounted display and method of controlling therefor
WO2016117970A1 (en) * 2015-01-23 2016-07-28 Lg Electronics Inc. Head mounted display and method of controlling therefor
KR102086511B1 (ko) * 2013-07-25 2020-03-09 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
KR102028761B1 (ko) 2013-07-26 2019-10-04 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운티드 디스플레이 및 그 제어 방법
US9183612B2 (en) 2013-09-04 2015-11-10 Qualcomm Incorporated Wearable display device use-based data processing control
KR102208195B1 (ko) 2013-11-29 2021-01-27 삼성전자주식회사 머리 착용형 디스플레이 장치에서 디스플레이 화면을 제어하는 방법, 및 머리 착용형 디스플레이 장치
US8958158B1 (en) * 2013-12-03 2015-02-17 Google Inc. On-head detection for head-mounted display
CN103677211B (zh) * 2013-12-09 2016-07-06 华为软件技术有限公司 实现增强现实应用的装置及方法
CN104808777B (zh) * 2014-01-24 2018-01-19 北京奇虎科技有限公司 判断头戴式智能设备操作有效性的装置和方法
WO2015109938A1 (zh) * 2014-01-24 2015-07-30 北京奇虎科技有限公司 判断头戴式智能设备操作有效性、鉴权信息有效性的装置和方法
US9664902B1 (en) 2014-02-05 2017-05-30 Google Inc. On-head detection for wearable computing device
US10798459B2 (en) 2014-03-18 2020-10-06 Vixs Systems, Inc. Audio/video system with social media generation and methods for use therewith
CN103869323B (zh) * 2014-04-02 2016-03-09 王静 一种头盔式彩色图像声纳及其成像方法
JP2017516161A (ja) 2014-05-11 2017-06-15 アドオン オプティクス リミティッド 眼鏡のレンズをプログレッシブレンズに変換するための接着性光学フィルム
KR102303115B1 (ko) * 2014-06-05 2021-09-16 삼성전자 주식회사 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법
CN105278658A (zh) * 2014-06-13 2016-01-27 广州杰赛科技股份有限公司 一种基于热敏的显示增强方法
CN105204608A (zh) * 2014-06-13 2015-12-30 广州杰赛科技股份有限公司 一种基于热敏现实增强互动装置
CN105320249A (zh) * 2014-06-13 2016-02-10 广州杰赛科技股份有限公司 一种现实增强的交互方法
CN105302282A (zh) * 2014-06-13 2016-02-03 广州杰赛科技股份有限公司 一种基于热敏的现实增强系统
KR102227087B1 (ko) * 2014-07-08 2021-03-12 엘지전자 주식회사 글래스 타입 단말기 및 그것의 제어방법
US9830395B2 (en) * 2014-08-15 2017-11-28 Daqri, Llc Spatial data processing
US9799142B2 (en) 2014-08-15 2017-10-24 Daqri, Llc Spatial data collection
US9799143B2 (en) * 2014-08-15 2017-10-24 Daqri, Llc Spatial data visualization
KR20160023212A (ko) * 2014-08-21 2016-03-03 엘지전자 주식회사 글래스 타입의 이동 단말기 및 그 제어방법
CN107003523B (zh) 2014-10-24 2019-05-14 埃马金公司 基于微显示器的沉浸式头戴视图器
US20160227868A1 (en) * 2015-02-10 2016-08-11 Daqri, Llc Removable face shield for augmented reality device
KR102439993B1 (ko) * 2015-02-27 2022-09-06 삼성전자주식회사 방열 장치를 구비한 전자 장치 및 이의 제어 방법
US10216604B2 (en) * 2015-03-27 2019-02-26 Ca, Inc. Monitoring environmental parameters associated with computer equipment
US10877297B2 (en) 2015-04-02 2020-12-29 Essilor International Monitoring component of the position of a head mounted device
ES2835877T3 (es) * 2015-06-09 2021-06-23 Nokia Technologies Oy Transición de un casco de realidad virtual a partir del funcionamiento en un primer modo de potencia al funcionamiento en un segundo modo de potencia
DE102015016228A1 (de) * 2015-12-16 2017-06-22 Focke & Co. (Gmbh & Co. Kg) Verfahren zum Betreiben einer Verpackungsanlage für Tabakartikel
US9846970B2 (en) * 2015-12-16 2017-12-19 Intel Corporation Transitioning augmented reality objects in physical and digital environments
US20170193302A1 (en) * 2016-01-05 2017-07-06 Daqri, Llc Task management system and method using augmented reality devices
IL301884A (en) 2016-01-19 2023-06-01 Magic Leap Inc Augmented reality systems and methods that use reflections
CN114699751A (zh) * 2016-04-26 2022-07-05 奇跃公司 使用增强现实系统的电磁跟踪
US10089071B2 (en) * 2016-06-02 2018-10-02 Microsoft Technology Licensing, Llc Automatic audio attenuation on immersive display devices
US10095311B2 (en) * 2016-06-15 2018-10-09 Immersion Corporation Systems and methods for providing haptic feedback via a case
CN107664841A (zh) * 2016-07-29 2018-02-06 鸿富锦精密电子(郑州)有限公司 智能眼镜及控制智能眼镜休眠唤醒的方法
US10127728B2 (en) 2016-09-30 2018-11-13 Sony Interactive Entertainment Inc. Facial feature views of user viewing into virtual reality scenes and integration of facial features into virtual reality views into scenes
CN106569339B (zh) * 2016-11-08 2019-11-15 歌尔科技有限公司 Vr头戴设备以及vr头戴设备的控制方法
CN106405844A (zh) * 2016-11-28 2017-02-15 苏州瓦纳斯数字科技有限公司 一种vr眼镜近视度数调节的方法
CN106444041A (zh) * 2016-11-28 2017-02-22 苏州瓦纳斯数字科技有限公司 一种可调节近视度数的vr穿戴设备
CN106791765A (zh) * 2016-11-29 2017-05-31 宇龙计算机通信科技(深圳)有限公司 视图界面的切换方法、装置和虚拟现实设备
US10241587B2 (en) 2016-12-22 2019-03-26 Microsoft Technology Licensing, Llc Magnetic tracker power duty cycling
CN106707512B (zh) * 2016-12-26 2023-10-27 中科海微(北京)科技有限公司 一种低功耗智能ar系统及智能ar眼镜
CA3056278A1 (en) * 2017-04-06 2018-10-11 Konstantin Roggatz Augmented reality (ar) spectacles and method for mixing virtual images into an image that is visible to a wearer of the spectacles through at least one spectacle glass
US10452822B2 (en) * 2017-05-02 2019-10-22 Intel Corporation Wearable devices and associated security apparatus
US20180329486A1 (en) * 2017-05-14 2018-11-15 Phillip Lucas Williams System of Avatar Management within Virtual Reality Environments
CN111465912A (zh) * 2017-10-11 2020-07-28 凯菲森有限公司 具有运动检测功能的增强现实眼镜
US11163155B1 (en) * 2017-12-18 2021-11-02 Snap Inc. Eyewear use detection
GB2569599B (en) * 2017-12-21 2023-02-15 Snap Inc Wearable devices
KR102662955B1 (ko) 2017-12-21 2024-05-02 스냅 아이엔씨 웨어러블 장치
US10451882B2 (en) * 2018-03-16 2019-10-22 Sharp Kabushiki Kaisha Hinged lens configuration for a compact portable head-mounted display system
US10820086B2 (en) 2018-05-30 2020-10-27 Bose Corporation Audio eyeglasses with gesture control
DE102018215850A1 (de) * 2018-09-18 2020-03-19 Bayerische Motoren Werke Aktiengesellschaft Datenbrille mit Sicherheitsmechanismus
CN109407834B (zh) 2018-10-08 2021-12-03 京东方科技集团股份有限公司 电子设备、计算机设备、空间定位系统及方法
KR102629149B1 (ko) 2019-01-03 2024-01-26 삼성전자주식회사 외부 광에 따라 디스플레이의 특성을 변경하는 전자 장치 및 방법
US11215832B2 (en) * 2019-08-27 2022-01-04 Lg Electronics Inc. Electronic device
US11526212B1 (en) * 2019-09-25 2022-12-13 Amazon Technologies, Inc. System to determine don/doff of wearable device
US11378821B2 (en) 2019-09-26 2022-07-05 AddOn Optics Ltd. Progressive lens and method of manufacture thereof
US11232834B2 (en) 2019-10-29 2022-01-25 Qualcomm Incorporated Pose estimation in extended reality systems
CN112782871A (zh) * 2019-11-11 2021-05-11 亿昇(深圳)眼镜科技有限公司 一种智能眼镜腿及其使用方法
KR102391211B1 (ko) * 2020-06-02 2022-04-28 (주)웰팩토리 스마트케어 기능성 게임플랫폼 장치
US11839829B2 (en) * 2020-06-11 2023-12-12 Universal City Studios Llc Wearable visualization device with a retractable cover
CN114545623B (zh) * 2020-11-24 2023-07-18 华为技术有限公司 智能眼镜的控制方法及智能眼镜
KR20220105194A (ko) * 2021-01-18 2022-07-27 삼성디스플레이 주식회사 표시 장치 및 표시 장치 제어 방법
CN114265212A (zh) * 2021-12-02 2022-04-01 华为终端有限公司 智能眼镜和智能眼镜佩戴检测方法
US20240036360A1 (en) * 2022-07-26 2024-02-01 Apple Inc. Wear Detection
WO2024071903A1 (ko) * 2022-09-26 2024-04-04 삼성전자 주식회사 헤드 마운트 디스플레이 장치 및 그의 착용 상태 감지 방법
KR102520378B1 (ko) * 2022-12-13 2023-04-11 주식회사 세전더블유엠에스 전기 융착식 이음관용 파이프 삽입 깊이 확인방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1164780A (ja) * 1997-08-12 1999-03-05 Olympus Optical Co Ltd 頭部装着型映像表示装置
JP2003076353A (ja) * 2001-09-04 2003-03-14 Sharp Corp ヘッドマウント型表示装置
JP2006205930A (ja) * 2005-01-28 2006-08-10 Konica Minolta Photo Imaging Inc 映像表示装置

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7243945B2 (en) 1992-05-05 2007-07-17 Automotive Technologies International, Inc. Weight measuring systems and methods for vehicles
US7663502B2 (en) 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
US7415126B2 (en) 1992-05-05 2008-08-19 Automotive Technologies International Inc. Occupant sensing system
US7660437B2 (en) 1992-05-05 2010-02-09 Automotive Technologies International, Inc. Neural network systems for vehicles
US5422653A (en) 1993-01-07 1995-06-06 Maguire, Jr.; Francis J. Passive virtual reality
US5506730A (en) 1993-09-09 1996-04-09 Litton Systems, Inc. Flip-up helmet mount for night vision goggle
US5969698A (en) 1993-11-29 1999-10-19 Motorola, Inc. Manually controllable cursor and control panel in a virtual image
US5802479A (en) 1994-09-23 1998-09-01 Advanced Safety Concepts, Inc. Motor vehicle occupant sensing systems
US6275146B1 (en) 1996-04-23 2001-08-14 Philip W. Kithil Vehicle occupant sensing
JP2001522063A (ja) 1997-10-30 2001-11-13 ザ マイクロオプティカル コーポレイション 眼鏡インターフェースシステム
US6356194B1 (en) * 1998-01-12 2002-03-12 Honda Giken Kogyo Kabushiki Kaisha Occupant detecting system
US7256770B2 (en) * 1998-09-14 2007-08-14 Microsoft Corporation Method for displaying information responsive to sensing a physical presence proximate to a computer input device
US7375728B2 (en) 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
US8152991B2 (en) * 2005-10-27 2012-04-10 Nanomix, Inc. Ammonia nanosensors, and environmental control system
US7500746B1 (en) * 2004-04-15 2009-03-10 Ip Venture, Inc. Eyewear with radiation detection system
WO2005043218A1 (ja) 2003-10-30 2005-05-12 Brother Kogyo Kabushiki Kaisha 画像表示装置
US20050122119A1 (en) * 2003-12-05 2005-06-09 Touchram Llc Low noise proximity sensing system
US7375701B2 (en) 2004-07-01 2008-05-20 Carestream Health, Inc. Scanless virtual retinal display system
US7667962B2 (en) 2004-08-20 2010-02-23 Mullen Jeffrey D Wireless devices with flexible monitors and keyboards
US7143648B2 (en) 2004-09-29 2006-12-05 Ferrolabs, Inc. Magnetofluidic accelerometer with capacitive sensing of inertial body position
US7626569B2 (en) 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
US7487118B2 (en) 2005-05-06 2009-02-03 Crutchfield Corporation System and method of image display simulation
US7855638B2 (en) 2005-07-14 2010-12-21 Huston Charles D GPS based spectator and participant sport system and method
US8050876B2 (en) * 2005-07-18 2011-11-01 Analog Devices, Inc. Automatic environmental compensation of capacitance based proximity sensors
US7599762B2 (en) 2005-08-24 2009-10-06 Rockwell Automatino Technologies, Inc. Model-based control for crane control and underway replenishment
US7868874B2 (en) * 2005-11-15 2011-01-11 Synaptics Incorporated Methods and systems for detecting a position-based attribute of an object using digital codes
JP5195426B2 (ja) * 2006-07-25 2013-05-08 株式会社ニコン 出力装置及び映像表示装置
US8120584B2 (en) * 2006-12-21 2012-02-21 Cypress Semiconductor Corporation Feedback mechanism for user detection of reference location on a sensing device
US7724871B2 (en) 2007-04-11 2010-05-25 The Invention Science Fund I, Llc Compton scattered X-ray visualization, imaging, or information provider in soft matter such as tissue, organs, or blood, and/or in hard matter such as bones or teeth
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
US8817061B2 (en) 2007-07-02 2014-08-26 Cisco Technology, Inc. Recognition of human gestures by a mobile phone
JP5067850B2 (ja) 2007-08-02 2012-11-07 キヤノン株式会社 システム、頭部装着型表示装置、その制御方法
JP5217386B2 (ja) 2007-11-21 2013-06-19 株式会社ニコン 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法
JP5388534B2 (ja) 2008-10-09 2014-01-15 キヤノン株式会社 画像処理装置およびその方法、頭部装着型ディスプレイ、プログラム、記録媒体
ES2631916T3 (es) * 2008-10-10 2017-09-06 Internet Services, Llc Dispositivo de salida háptica para su uso con medios con códigos hápticos
EP2389152A4 (en) * 2009-01-20 2016-05-11 Univ Northeastern MULTI-USER SMARTGLOVE FOR REHABILITATION BASED ON VIRTUAL ENVIRONMENTS
US8698760B2 (en) * 2009-10-29 2014-04-15 Cypress Semiconductor Corporation Method and apparatus for identification of touch panels
EP2509497A4 (en) * 2009-12-17 2014-02-05 Mc10 Inc METHOD AND APPARATUS FOR CONFORMANCE COLLECTION OF FORCES AND / OR MOVEMENT CHANGES
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1164780A (ja) * 1997-08-12 1999-03-05 Olympus Optical Co Ltd 頭部装着型映像表示装置
JP2003076353A (ja) * 2001-09-04 2003-03-14 Sharp Corp ヘッドマウント型表示装置
JP2006205930A (ja) * 2005-01-28 2006-08-10 Konica Minolta Photo Imaging Inc 映像表示装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016507098A (ja) * 2013-01-14 2016-03-07 クゥアルコム・インコーポレイテッドQualcomm Incorporated 表面上でのジェスチャ認識のためのemgの使用
KR101510340B1 (ko) 2013-10-14 2015-04-07 현대자동차 주식회사 신체 착용 컴퓨터
JP2015205114A (ja) * 2014-04-23 2015-11-19 アルプス電気株式会社 眼鏡型電子機器
US10379605B2 (en) 2014-10-22 2019-08-13 Sony Interactive Entertainment Inc. Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
WO2016063801A1 (ja) * 2014-10-22 2016-04-28 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
JP2016081476A (ja) * 2014-10-22 2016-05-16 株式会社ソニー・コンピュータエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
US10620699B2 (en) 2014-10-22 2020-04-14 Sony Interactive Entertainment Inc. Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
US9946340B2 (en) 2014-11-06 2018-04-17 Kabushiki Kaisha Toshiba Electronic device, method and storage medium
US9880633B2 (en) 2015-09-01 2018-01-30 Kabushiki Kaisha Toshiba Eyeglasses-type wearable device and method using the same
US10168793B2 (en) 2015-09-01 2019-01-01 Kabushiki Kaisha Toshiba Eyeglasses-type wearable device and method using the same
JP2017049775A (ja) * 2015-09-01 2017-03-09 株式会社東芝 メガネ型ウエアラブル端末およびこの端末を用いる方法
US10877567B2 (en) 2015-09-01 2020-12-29 Kabushiki Kaisha Toshiba Eyeglasses-type wearable device and method using the same
US11169617B2 (en) 2015-09-01 2021-11-09 Kabushiki Kaisha Toshiba Eyeglasses-type wearable device and method using the same
US11880508B2 (en) 2015-09-01 2024-01-23 Kabushiki Kaisha Toshiba Eyeglasses-type wearable device and method using the same
JP2018175030A (ja) * 2017-04-04 2018-11-15 学校法人 中央大学 頭部筋活動検知装置

Also Published As

Publication number Publication date
US10437309B2 (en) 2019-10-08
KR20130029070A (ko) 2013-03-21
CN102893236A (zh) 2013-01-23
CN102893236B (zh) 2015-11-25
KR101431366B1 (ko) 2014-08-19
US9606612B2 (en) 2017-03-28
US20120056847A1 (en) 2012-03-08
US20170199560A1 (en) 2017-07-13
JP5512884B2 (ja) 2014-06-04
WO2012011893A1 (en) 2012-01-26

Similar Documents

Publication Publication Date Title
JP5512884B2 (ja) 拡張現実の近接感知
US10250728B2 (en) Color-variable terminal
US10635179B2 (en) Apparatus, systems, and methods for facilitating user interaction with electronic devices
US9753518B2 (en) Electronic apparatus and display control method
US20190279407A1 (en) System and method for augmented reality interaction
CN103999145B (zh) 响应于用户的显示器调光
US20160334869A1 (en) Eye gaze detection with multiple light sources and sensors
Rantanen et al. A Wearable, Wireless Gaze Tracker with Integrated Selection Command Source for Human‐Computer Interaction
CN104699380B (zh) 一种信息处理方法及电子设备
KR102532390B1 (ko) IoT 디바이스의 알람 규칙 구성 방법 및 장치, 디바이스, 및 저장 매체
KR20140141100A (ko) 시력 보호 방법 및 장치
WO2021139352A9 (zh) 柔性传感系统、接近传感方法、装置、智能机器人及设备
CN207516642U (zh) 一种智能vr头盔
CN109669747A (zh) 一种移动图标的方法及移动终端
CN104574452B (zh) 窗体背景的生成方法及装置
KR20240009975A (ko) 아이웨어 디바이스 동적 전력 구성
US20230316657A1 (en) Auxiliary device for augmented reality
CN109542572A (zh) 一种界面显示方法和移动终端
US20160252725A1 (en) Electronic device and control method thereof
US11847794B1 (en) Self-tracked controller
CN116324679A (zh) 上下文相关的眼戴器遥控器
US20240201776A1 (en) Electronic Device with Centralized User Experience Manager
CN118210669A (zh) 带有集中式用户体验管理器的电子设备

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140326

R150 Certificate of patent or registration of utility model

Ref document number: 5512884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250