KR101431366B1 - 증강 현실 근접 감지 - Google Patents

증강 현실 근접 감지 Download PDF

Info

Publication number
KR101431366B1
KR101431366B1 KR1020127028682A KR20127028682A KR101431366B1 KR 101431366 B1 KR101431366 B1 KR 101431366B1 KR 1020127028682 A KR1020127028682 A KR 1020127028682A KR 20127028682 A KR20127028682 A KR 20127028682A KR 101431366 B1 KR101431366 B1 KR 101431366B1
Authority
KR
South Korea
Prior art keywords
display
wearable
sensors
sensor
wearer
Prior art date
Application number
KR1020127028682A
Other languages
English (en)
Other versions
KR20130029070A (ko
Inventor
피터 엔 밀포드
Original Assignee
엠파이어 테크놀로지 디벨롭먼트 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 filed Critical 엠파이어 테크놀로지 디벨롭먼트 엘엘씨
Publication of KR20130029070A publication Critical patent/KR20130029070A/ko
Application granted granted Critical
Publication of KR101431366B1 publication Critical patent/KR101431366B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0251Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/02Details of power systems and of start or stop of display operation
    • G09G2330/021Power management, e.g. power saving
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/02Flexible displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0241Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call
    • H04M1/0245Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call using open/close detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Abstract

증강 현실 (AR) 시스템들에서 근접 감지 메카니즘들을 채용하기 위한 기술들이 일반적으로 기재되어 있다. 우측 및/또는 좌측 암들, 브리지, 또는 플립업 피쳐와 같은 위치들에서 AR 안경들 상에 전략적으로 배치된 센서들은 전력 관리를 위한 AR 안경 이용을 검출하기 위하여 및/또는 볼륨 제어, 디스플레이 제어, 사용자 입력, 및 유사한 것들과 같은 사용자 입력 엘리먼트들을 제공하기 위하여 사용될 수도 있다. 몇몇 예들에 따르면, 센서들은 기계적 센서들, 커패시티브 센서들, 광학 센서들, 유도 센서들, 자기 센서들, 및/또는 유사한 컴포넌트들일 수도 있다.

Description

증강 현실 근접 감지 {AUGMENTED REALITY PROXIMITY SENSING}
여기에서 다르게 나타내지 않으면, 이 섹션에 기재된 내용은 이 출원에 있는 청구항들에 대한 선행 기술이 아니고 이 섹션에 포함되는 것에 의해 선행 기술인 것으로 인정하는 것은 아니다.
증강 현실 (augmented reality; AR) 은 엘리먼트들이 시각적인, 통상적으로 컴퓨터에 의해 생성된 상 (imagery) 에 의해 증강되며, 그에 의해 혼합 현실을 형성하는 물리적 (현실) 세계 환경의 뷰 (view) 를 지칭한다. 증강은 종래 실시간으로 그리고 스포츠 이벤트, 군사 훈련, 게임 등과 같은 환경적인 엘리먼트들의 맥락에서 이루어질 수도 있다. AR 기술은 사람의 주위 현실 세계에 관한 정보가 오브젝트 인식 및 이미지 생성을 추가하는 것에 의해 상호작용적이고 디지털로 이용가능해질 수 있게 한다. 환경 및 오브젝트들에 관한 인위 정보 (artificial information) 가 현실 세계 뷰 계층 (real world view layer) 으로부터 분리된 정보 계층으로서 저장 및 취출될 수도 있다.
본 개시는 AR 시스템들에 관한 몇몇 제한들이 존재한다는 것을 인식한다. 증강 현실 이미지 (스틸 또는 비디오) 를 사용자에게 디스플레이 함에 있어서, 몇몇 AR 시스템들은 AR 안경을 이용한다. 사용자에게 현실적인 체험을 제공하지만, 안경 포맷의 디스플레이 디바이스들은 몇몇 도전들, 이를테면 전력 관리 및/또는 AR 시스템과 상호작용하기 위해 사용자 인터페이스 엘리먼트들을 사용자에게 제공함에 있어서 제한을 나타낸다. 크기 제한들에 기인하여, 전력 이용가능성 및 이용가능한 전력의 효율적인 사용이 설계 관심사가 될 수도 있다. 게다가, 볼륨 제어, 디스플레이 제어 및 유사한 것들과 같은 상호작용 툴들을 제공하는 것은 안경 포맷 디스플레이들의 크기 및 형상에 기인하여 도전이 될 수도 있다.
요약
본 개시는 근접 센서 (proximity sensor) 들에 기초하여 착용가능한 증강 현실 (AR) 디스플레이에 적응적으로 전력 공급하도록 구성된 시스템을 기술한다. 몇몇 예시적인 시스템들은 착용가능한 AR 디스플레이에 부착된 센서 및/또는 센서에 연결된 프로세서를 포함할 수도 있다. 센서는 검출 신호를 생성하도록 구성되고, 그 검출 신호는 착용자의 머리의 존재, 착용자의 머리의 포지션 (position) 및/또는 착용가능한 AR 디스플레이의 상태 (status) 중 하나 이상을 나타낸다. 그 프로세서는 센서로부터의 검출 신호에 기초하여 착용가능한 AR 디스플레이가 파워업 (power up) 되야 하는지를 결정하고, 착용가능한 AR 디스플레이가 파워업되야 할 때 착용가능한 AR 디스플레이를 파워업하도록 구성된다.
본 개시는 또한 근접 센서들에 기초하여 착용가능한 AR 디스플레이에 적응적으로 전력 공급하도록 구성된 다른 시스템을 기술한다. 다른 시스템들의 몇몇 예들은 레퍼런스 노드에 연결된 커패시티브 센서 (capacitive sensor) 및/또는 센서에 연결된 전압 측정 디바이스 (446) 를 포함할 수도 있다. 그 센서는 레퍼런스 노드와 외부 노드 사이의 커패시턴스의 값 차이를 측정하도록 구성된다. 그 전압 측정 디바이스는 입력으로서 값 차이를 수신하도록 구성되고 또한 착용가능한 AR 디스플레이에 언제 전력을 제공할지를 결정하도록 구성되는 데이터 출력을 제공하도록 구성된다.
본 개시는 또한 근접 센서들을 통해 착용가능한 AR의 동작 양태의 제어 방법을 기술한다. 그 방법은 착용가능한 AR 디스플레이의 좌측 암 (left arm), 우측 암 (right arm), 브리지 (bridge) 및/또는 림 (rim) 중 하나 이상에 부착되는 복수의 센서들 중 적어도 하나로부터 센스 신호를 수신하는 단계를 포함한다. 그 방법은 또한 수신된 센스 신호에 기초하여 착용자의 머리의 존재, 착용자의 머리의 포지션, 사용자 입력 및/또는 착용가능한 AR 디스플레이의 상태 중 하나 이상을 결정하는 단계를 포함한다. 그 방법은 또한 그 결정에 응답하여 착용가능한 AR 디스플레이의 동작 양태와 연관된 액션 (action) 을 수행하는 단계를 포함한다.
본 개시는 또한 근접 센서들을 통해 착용가능한 AR 디스플레이의 동작 양태의 제어를 위한 명령들이 저장된 컴퓨터 판독가능 저장 매체를 기술한다. 그 컴퓨터 판독가능 저장 매체에 저장된 명령들은 착용가능한 AR 디스플레이에 부착된 복수의 센서들에서, 착용자의 머리의 존재, 착용자의 머리의 포지션, 사용자 입력 및/또는 착용가능한 AR 디스플레이의 상태 중 하나 이상을 감지하는 것을 포함할 수도 있다. 그 감지는 수신된 센스 신호에 기초하여 달성될 수도 있다. 그 명령들은 또한, 감지된 착용자의 머리의 존재 및/또는 착용가능한 AR 디스플레이의 상태 중 하나 이상에 기초하여 상기 착용가능한 AR 디스플레이를 파워업할지 또는 파워다운 (power down) 할지를 결정하는 것을 포함할 수도 있다. 명령들의 또 다른 세트는 감지된 착용자의 머리의 포지션에 기초하여 사용자 응답을 추론하는 것을 포함할 수도 있다. 그 명령은 추론된 사용자 응답 또는 감지된 사용자 입력 중 하나에 응답하여 착용가능한 AR 디스플레이의 동작 양태와 연관된 액션을 결정하는 것을 더 포함할 수도 있다. 파워업할지 또는 파워다운할지의 결정, 사용자 응답의 추론, 및 액션 명령들의 결정은 프로세서에서 수행될 수도 있다.
이전의 요약은 오직 예시적인 것이고 결코 제한적인 것으로 의도되지 않았다. 위에 설명된, 예시적인 양태들, 실시형태들 및 특징들에 더하여, 추가의 양태들, 실시형태들, 및 특징들이 도면 및 다음의 상세한 설명을 참조함으로써 분명해질 것이다.
이 개시의 이전의 그리고 다른 특징들은, 첨부 도면들과 함께 취해지는, 다음의 설명, 및 첨부된 청구항들로부터 보다 완전하게 분명해질 것이다. 이들 도면들은 본 개시에 따른 실시형태들을 몇개만 도시하고 따라서 본 개시의 범위를 제한하는 것으로 이해되지 않으며, 본 개시는 첨부 도면들의 이용을 통하여 추가적으로 특수하게 그리고 상세하게 설명되고, 여기서:
도 1은 증강된 장면을 사용자에게 디스플레이하기 위해 AR 안경들이 사용될 수도 있는 예시적인 증강 현실 (AR) 시스템을 예시한다.
도 2는 안경의 암들 및/또는 브리지 상에 근접 센서들을 갖는 예시적인 AR 안경을 예시한다.
도 3은 안경의 플립업 피쳐 (flip-up feature) 상에 근접 센서들을 갖는 추가의 예시적인 AR 안경을 예시한다.
도 4는 전력 관리 목적들을 위해 개인들에 의해 AR 안경이 착용될 때를 검출하도록 구성된 시스템을 예시한다.
도 5는 전력 관리 목적들을 위해 개인들에 의해 AR 안경이 사용중일 때를 검출하기 위한 플립업 피쳐를 이용하는 예시적인 AR 안경의 측면도들을 예시한다.
도 6은 전계 이미지 디바이스를 통한 AR 안경 사용 검출을 예시한다.
도 7은 AR 안경에서 근접 감지 메카니즘을 구현하기 위해 사용될 수도 있는 범용 컴퓨팅 디바이스를 예시한다.
도 8은 AR 안경에서 근접 감지 메카니즘을 구현하기 위해 사용될 수도 있는 전용 프로세서를 예시한다.
도 9는 도 7의 컴퓨터 (700) 또는 도 8의 전용 프로세서 (810) 와 같은 컴퓨팅 디바이스에 의해 수행될 수도 있는 예시적인 방법을 예시하는 플로우 다이어그램이다.
도 10은 여기에 설명된 적어도 몇몇 실시형태들에 따라 모두 배열된 예시적인 컴퓨터 프로그램 제품의 블록도를 예시한다.
상세한 설명
다음의 상세한 설명에서, 본 개시의 일부를 형성하는 첨부 도면들을 참조한다. 도면들에서, 통상적으로 유사한 부호는 문맥에서 달리 지시되지 않는 한, 유사한 컴포넌트들을 식별한다. 상세한 설명, 도면 및 청구항에서 설명된 예시적인 실시형태들은 한정적인 것으로 의도되지 않았다. 다른 실시형태들이 이용될 수 있고, 다른 변화들이, 본 개시에 제시된 요지의 사상 또는 범위를 이탈함이 없이, 이루어질 수 있다. 여기에서 일반적으로 설명되고 도면들에 예시된, 본 개시의 양태들은, 광범위하게 다양한 상이한 구성들에서, 배열, 치환, 결합, 분리 및 설계될 수 있고, 이들의 전부는 명시적으로 본 개시에서 고려된다.
본 개시는 일반적으로, 전력 관리 및 사용자 인터페이스 엘리먼트들을 위한 증강 현실 시스템들에서 채용 근접 감지 메카니즘에 관련된, 특히 방법들, 장치들, 시스템들, 디바이스들 및/또는 컴퓨터 프로그램 제품들에 관한 것이다.
간단히 말해서, 근접 감지 메카니즘들은 증강 현실 (AR) 시스템들에서 채용될 수도 있다. AR 안경의 우측 및/또는 좌측 암들, 브리지, 또는 플립업 피쳐와 같은 위치들에서 AR 안경 상에 전략적으로 배치된 센서들은 전력 관리를 위한 AR 안경 이용을 검출하기 위하여 및/또는 볼륨 제어, 디스플레이 제어, 사용자 입력, 및 유사한 것들과 같은 사용자 입력 엘리먼트들을 제공하기 위하여 사용될 수도 있다. 몇몇 예들에 따르면, 센서들은 기계적 센서들, 커패시티브 센서들, 광학 센서들, 유도 센서들, 자기 센서들, 및/또는 유사한 컴포넌트들일 수도 있다.
도 1은 증강된 장면을 사용자에게 디스플레이하기 위해 AR 안경들이 사용될 수도 있는 예시적인 증강 현실 (AR) 시스템 (100) 을 예시한다. AR은 현실 세계 표현 (presentation) 을 확장시키기 위하여 라이브 비디오 스트림들에서 컴퓨터 생성된 상의 애플리케이션을 탐색 (explore) 한다. 본 개시에 따라 배열된 예시적인 AR 시스템들은 다수의 센서들 및 액츄에이터들을 포함하는 제어된 환경들에 있을 수도 있고, 현실 및 컴퓨터 생성된 상을 프로세싱하도록 적응된 하나 이상의 컴퓨팅 디바이스를 포함할 수도 있고, 머리에 장착되는 디스플레이 (또는 "AR 안경"), 가상 레티날 (retinal) 디스플레이, 모니터 또는 유사한 보통 디스플레이와 같은 시각화 시스템들 및 유사한 디바이스들을 포함할 수도 있다.
예시적인 AR 시스템 (100) 은 현실 장면 (오브젝트들) (102) 의 라이브 이미지들을 캡쳐하기 위한 이미지 센서들 (104-1) 과 오브젝트들의 포지션 및/또는 모션을 트래킹하기 위한 트래킹 센서들 (tracking sensor; 104-2) 을 포함한다. 이미지 센서들 (104-1) 은 디지털 카메라, 웹캠, 또는 몇몇 다른 이미지 캡쳐링 디바이스들일 수도 있다. 트래킹 센서들 (104-2) 은 네트워크의 주파수, 대역폭 및 공간 다이버시티 (spatial diversity) 를 통해 트래킹 성능을 강화하기 위한 패시브 감지 네트워크에 배열된 다수의 수신 디바이스들을 포함할 수도 있다. 수신 디바이스들 (예를 들면, 하나 이상의 RF 수신기들) 은 통신 타워 (예를 들면, 셀룰러 전화 통신 타워) 또는 통신 기지국과 같은 근처 신호 소스들로부터 통신 신호 (예를 들면, RF 신호와 같은 전자기파) 를 이용하기 위하여 적응 (adapt) 될 수도 있다. 트래킹 센서들 (104-2) 은 상이한 포지션들에 위치될 수도 있고 협업적 네트워크 (collaborative network) 를 형성하는 집중형 또는 분산형 컴퓨팅 시스템에 통신적으로 연결될 수도 있다.
캡쳐된 이미지(들) 이 이미지 프로세싱 서브시스템 (106) 에 제공될 수도 있고, 이는 디지털 이미지들로의 이미지들의 디지털화, 디지털 이미지들의 수신, 및/또는 디지털 이미지들의 프로세싱 중 하나 이상을 수행하도록 적응될 수도 있다. 디지털 이미지들의 프로세싱은 이미지들에서 피쳐 포인트들의 위치 결정, 아핀 투영 (affine projection) 들의 계산, 에지들의 트래킹, 필터링 및/또는 유사한 동작들 중 하나 이상을 포함할 수도 있다. 이미지 프로세싱 서브시스템 (106) 은 상술한 동작들의 결과들 중 하나 이상과 같은 투영 정보를 현실 엔진 (110) 에 제공하도록 구성될 수도 있다. 트래킹 센서들 (104-2) 은 현실 장면 (102) 에서 관심 있는 오브젝트들과 연관된 포지션 및/또는 모션 정보를 현실 엔진 (110) 에 제공하도록 구성될 수도 있다. 현실 엔진 (110) 은 트래킹 센서들 (104-2) 로부터 포지션 및/또는 모션 정보를 포함하는 캡쳐된 이미지들에 기초하여 장면들을 렌더링하기 위해 그래픽 프로세스를 실행하도록 적응될 수도 있다.
이미지 생성기 (108) 는 이미지 센서들 (104-1) 로부터 레퍼런스 이미지(들) 및, 가상 오브젝트(들) 과 연관된 이미지 데이터를 수신하도록 적응될 수도 있고, 증강된 장면 (114) 을 제공하기 위하여 가상 오브젝트(들) 과 연관된 이미지 데이터와 캡쳐된 현실 장면 이미지들을 오버레이 (overlay) 하도록 적응될 수도 있다. AR 안경 (112) 은 AR 시스템 (100) 에서 이용될 수도 있는 하나의 예시적인 시각화 메카니즘이다. AR 안경 (112) 은 단일 (모노) 또는 스테레오 디스플레이로서 구현될 수도 있다. AR 안경은 본질적으로 포터블 컴퓨터 디스플레이로서 기능한다. 그들은 투시형 (see-through) 또는 비투시형 (즉, 현실 세계 데이터를 제공하는 비디오 카메라들) 일 수도 있다. AR 안경은 또한 가상 현실 고글 (goggle) 들 및 유사한 구현들을 포함할 수도 있다. 여기에 사용된 바처럼 용어 AR 안경은 가상 현실 디스플레이들과 헬멧 스타일 디스플레이들을 포함하는 임의의 머리에 착용가능한 컴퓨터 디스플레이를 지칭한다. 용어 착용가능한 AR 디스플레이와 AR 안경은 본 개시 전체에 걸쳐 상호교환가능하게 사용된다. 사용자에게 현실적인 체험을 제공하지만, AR 안경 (112) 은 전력 관리 및 사용자에게 사용자 인터페이스 엘리먼트들을 제공함에 있어서 도전들을 나타낼 수도 있다. 여기에 기재된 실시형태들 중 적어도 일부에 따른 시스템에서, AR 안경 (112) 은 아래에 더 상세하게 설명된 바처럼 사용을 검출하거나 및/또는 사용자 인터페이스 엘리먼트들을 제공하도록 구성된 전략적으로 배치된 센서들이 설비될 수도 있다.
이미지 프로세싱 서브시스템 (106), 현실 엔진 (110), 이미지 생성기 (108) 및/또는 AR 안경 (112) 과 같은 AR 시스템 (100) 의 컴포넌트들의 적어도 몇몇을 위한 프로세싱은 개별 애플리케이션들, 하나 이상의 통합된 애플리케이션들, 하나 이상의 집중형 서비스들, 또는 하나 이상의 분산형 서비스들에 의해 하나 이상의 컴퓨팅 디바이스들 상에서 수행될 수도 있다. 각 컴퓨팅 디바이스는 범용 컴퓨팅 디바이스 또는 전용 컴퓨팅 디바이스 중 어느 하나일 수도 있고 이는 독립형 컴퓨터, 네트워크형 컴퓨터 시스템, 범용 프로세싱 유닛 (예를 들면, 마이크로프로세서, 마이크로콘트롤러, 디지털 신호 프로세서 또는 DSP 등) 또는 전용 프로세싱 유닛일 수도 있다. 상이한 컴퓨팅 디바이스들 상에서 실행되면, AR 시스템 (100) 의 다양한 컴포넌트들은 하나 이상의 네트워크들 상에서 통신하도록 적응될 수도 있다.
도 2는 적어도 몇몇 실시형태들에 따라 배열된 AR 안경의 암들 및/또는 브리지 상에 근접 센서들을 갖는 예시적인 AR 안경을 예시한다. 근접 센서들은 도면 (200) 에 도시된 바처럼 AR 안경 (220) 의 암들을 따라, 브리지 상에, 또는 림을 따라서와 같은 다양한 전략적 위치들에 배치될 수도 있다. 센서들은 커패시티브 센서들, 유도 센서들, 자기 센서들, 소나 센서들, 광학 센서들 (광전지 또는 레이저), 와전류 (Eddy-current) 센서들, 열 적외선 센서들, 기계적 스위치들 및 유사한 것들을 포함할 수도 있다.
센서들 (222, 224, 226, 및 228) 중 하나 이상은 착용자의 (사용자 (218)) 머리, 코 등의 검출을 통해 안경이 사용중에 있는지 여부를 결정하는 것에 의해 AR 안경 (220) 을 위한 전력 관리를 돕기 위해 사용될 수도 있다. 센서들 (222, 224, 226, 및 228) 은 또한 AR 동작들의 다양한 피쳐들을 제어하고 사용자 피드백을 수신하기 위한 사용자 인터페이스 엘리먼트들을 AR 안경 (220) 을 착용하는 사용자 (218) 에게 제공함에 있어 이용될 수도 있다.
사용자 인터페이스 애플리케이션에서, 센서들은, 오디오 볼륨 제어, AR 안경 (220) 의 밝기 디스플레이, 개별 디스플레이들 또는 전체 AR 안경 (220) 을 턴온하거나 턴오프하는 것 등과 같은 AR 동작 제어들에 관하여, 탭핑 (tapping) 또는 터칭 (touching) 을 통해, 착용자 입력을 수신하도록 구성될 수도 있다. 몇몇 예들에서, 센서들은 AR 안경 (220) 의 외부 암 (예를 들면, 224) 상에 위치되고 사용자들이 AR 안경 (220) 을 착용하고 있는 동안 사용자의 AR 안경 (220) 의 측면을 탭핑 또는 터칭하는 것에 의해 동작 파라미터를 제어할 수 있도록 구성될 수도 있다. 반대로, 전술한 센서들은 AR 안경 (220) 의 내부 암 (예를 들면, 222) 상에 위치되고 사용자 (218) 가 AR 안경 (220) 을 착용하고 있는지 (안경이 동작 또는 비동작 상태에 있어야 하는지) 를 검출하기 위해 구성될 수도 있다. 이것은 센서들이 착용자의 피부에 아주 근접하는 것을 허용한다.
다른 예에서, 센서들 (222, 224, 226, 및/또는 228) 은 착용자의 몸통에 대한 착용자의 머리의 배향 (orientation) 을 감지하도록 구성될 수도 있다. 가령, AR 안경들 (220) 에서 선택 포지션(들) 의 하나 이상의 센서들은 그들의 레퍼런스 커패시턴스 (보다 상세한 내용은 도 4 참조) 와 착용자의 어깨의 커패시턴스 사이의 커패시턴스 차이를 측정하도록 구성될 수도 있다. AR 안경 (220) 을 착용하고 있는 사용자 (218) 가 그의 머리를 좌측 또는 우측으로 이동시킬 때, 어깨가 선택 포지션(들)의 센서(들)로부터 멀리 떨어지므로 커패시턴스 차이가 변화할 수도 있다. 커패시턴스 차이의 결정에 기초하여, AR 시스템은 사용자 (218) 가 그의 몸통에 대해 어느 방향을 바라보고 있는지를 추론가능할 수도 있다. 추론된 정보는 몇몇 실시형태들에 따라 사용자 입력으로서 사용될 수도 있다. 예를 들면, 좌에서 우로 그 다음 우에서 좌로 돌리는 것은 "아니오" 를 표시할 수도 있거나 또는 상에서 하로 그 다음 하에서 상으로 돌리는 것은 "예" 를 표시할 수도 있는 등이다.
센서들 (222, 224, 226, 및 228) 은 또한 신뢰적인 검출을 위해 사용될 수도 있다. 예를 들면, 귀 후방 센서 (behind ear sensor) 및 브리지 센서들로부터의 입력은 AR 안경 (220) 이 실제로 착용되고 있다는 신뢰적인 결정을 위해 착용자의 머리와 코를 검출하도록 구성될 수도 있다. 이것은 하나 이상의 센서들에 의한 오판독 (misreading) 에 의한 에러들을 방지할 수도 있다. 물론 다양한 센서들이 여기에 기재된 바처럼 상이한 기능에 사용될 수도 있다.
도 3은 적어도 다른 실시형태들에 따라 배열된 안경의 플립업 피쳐 상에 근접 센서들을 갖는 추가의 예시적인 AR 안경을 예시한다. 위에서 언급된 바처럼, 도면 (300) 에서 AR 안경 (330) 의 상이한 위치들에 배치된 센서들은 AR 안경의 자동화 제어를 위해 사용자 인터페이스 엘리먼트들 또는 제어 엘리먼트들로서 사용을 위해 구성될 수도 있다.
전력 관리는 AR 안경 (330) 과 같은 AR 헤드웨어에 있어서 설계 고려사항들 중 하나이다. 포터블 전자 디바이스이면, AR 안경 (330) 은 배터리, 태양 전력 또는 유사한 소스로부터 제한된 전력 공급을 갖도록 구속된다. 따라서, AR 안경 (330) 을 위한 이용가능한 전력의 낭비를 방지하는 것 (예를 들면, 사용중이 아닐 때 턴오프하거나 또는 슬립 모드로 전환하는 것) 이 유익할 수도 있다. AR 안경의 암 또는 브리지 상의 커패시티브 센서들을 통해 AR 안경이 착용되고 있는지를 검출하는 것과 같은 몇몇 예시적인 접근법들은 위에서 논의되었다. 또한, 도면 (300) 에 도시된 바처럼 AR 안경이 턴오프되야 하는지 (또는 저전력 모드로 전환되야 하는지) 를 결정하기 위하여 다른 구성들이 채용될 수도 있다.
AR 안경 (330) 은 가동부 (334 및 335) 가 폐쇄 포지션에서 비사용을 나타내도록 구성된 커버일 수도 있거나 폐쇄 포지션에서 동작하는 실제 디스플레이일 수도 있는 플립업 피쳐 (flip-up feature) 가 설비될 수도 있다. 적어도 몇몇 실시형태들에 따르면, 힌지들 (331 및 332) 은 AR 안경 (330) 을 턴온 또는 턴오프하는 기계적인 스위치들로서의 사용을 위해 구성될 수도 있다. 다른 실시형태들에 따르면, (예를 들면, 커패시티브, 광학, 또는 자기) 센서들 (336, 337, 및 339) 은 가동부 (334 및 335) 의 포지션 (폐쇄 또는 개방) 을 검출하도록 구성될 수도 있다. 센서들은 개별적이거나 또는 실질적으로 오버랩되는 쌍 (예를 들면, 센서들 (336 및 337)) 으로 사용될 수도 있다. 가동부들은 도면 (300) 에 도시된 바처럼 2개의 부분들을 포함할 수도 있다. 다르게는, 단일 가동부가 AR 안경 (330) 을 실질적으로 커버하기 위해 사용될 수도 있다.
도 4는 적어도 몇몇 실시형태들에 따라 배열된 전력 관리 목적들을 위해 개인들에 의해 AR 안경이 착용될 때를 검출하도록 구성된 시스템을 예시한다. 그러한 AR 안경이 착용되고 있을 때, 그것은 파워업될 수도 있고; 그것이 착용되고 있지 않을 때, 그것은 파워오프될 (또는 전력 보존 상태에 놓여질) 수도 있다.
몇몇 예들에서, 도면 (400) 의 커패시턴스 측정 시스템 (440) 은 오실레이터 (442), 센서 (448), 전압 측정 디바이스 (446), 및 AR 안경 착용자의 유효 커패시턴스 (445) 에 대하여 레퍼런스 (reference) 되는 레퍼런스 커패시턴스 (444) 를 포함한다. 커패시턴스 측정 시스템 (440) 은 착용자에 의해 착용될 때 AR 안경 (220) 을 파워업하도록 구성될 수도 있고; 또한 착용자에 의해 제거될 때 AR 안경 (220) 을 파워다운하도록 구성될 수도 있다. 다르게는, 커패시턴스 측정 시스템 (440) 은 AR 안경 (220) 을 저전력 슬립 모드 또는 전력 보존 상태로 전환하도록 구성되며, 그에 의해 포터블 AR 안경 (220) 에서 소중한 전력을 보존할 수도 있다.
오실레이터 (442) 는 레퍼런스 커패시턴스 (444) 를 통해 센서 (448) 에 전력을 제공하도록 적응될 수도 있다. 센서 (448) 는 AR 안경 (220) 의 착용자의 레퍼런스 커패시턴스 (444) 와 커패시턴스 (445) 사이의 커패시턴스의 차이를 측정하도록 구성될 수도 있다. 커패시턴스의 차이는 센서 (448) 에 의해 전압으로 변환 (translate) 될 수도 있다. 커패시턴스의 차이를 검출하는 센서들은 커패시티브 센서들로 지칭될 수 있고, 구리, ITO (Indium Tin Oxide) 및 유사한 재료들과 같은 다양한 재료로부터 구성될 수 있다. 크기, 간격 및 그라운드 평면으로부터의 거리들은 커패시티브 센서들을 설계할 때 고려되는 파라미터들이다.
전압 측정 디바이스 (446) 는 AR 안경 (220) 의 착용자의 레퍼런스 커패시턴스 (444) 와 커패시턴스 (445) 사이의 커패시턴스 차이에 응답하여 센서 (448) 에 의해 생성된 전압을 측정하도록 구성될 수 있다. 전압 측정 디바이스 (446) 는 전압 측정을 평가하고 AR 안경 (220) 이 착용자에 의해 착용되는지의 결정을 하기 위하여 이용될 수도 있다. 다르게는, 전압 측정 디바이스 (446) 는 전압 측정을 AR 시스템의 프로세서에 제공하도록 구성될 수도 있고, 그 다음에 이는 적절한 결론에 도달하고 액션을 취할 수도 있다 (예를 들면, 전력 상태를 조정할 수도 있다).
예를 들면, 전압 측정 디바이스 (446) 는 제 1 전압을 측정하고 그 측정치를 AR 시스템의 프로세서에 포워드 (forward) 하도록 구성될 수도 있고, 프로세서는 "착용하고 있는 안경" 의 상태로 제 1 전압이 맵핑 (mapping) 되는지를 결정하기 위해 (시스템 (440) 의 내부 또는 외부에 저장된) 룩업 테이블을 액세스하도록 구성될 수도 있다. 반대로, 전압 측정 디바이스 (446) 가 제 2 전압을 측정하면, 프로세서는 "착용하고 있지 않은 안경" 의 상태로 제 2 전압이 맵핑되는지를 룩업 테이블로부터 결정하도록 구성될 수도 있다.
따라서, 전압 측정 디바이스 (446) 에 의한 전압 판독은 센서 (448) 에 의한 커패시턴스의 차이 판독에 기초할 수도 있고, 커패시턴스 차이 판독은 착용자의 유효 커패시턴스 (445) 와 레퍼런스 커패시턴스 (444) 사이의 차이에 기초한다. 착용자가 AR 안경 (220) 을 착용하고 있으면, 일종의 커패시턴스 차이가 센서 (448) 에 의해 측정될 수도 있고; 착용자가 AR 안경 (220) 을 착용하고 있지 않을 때, 상이한 캐페시턴스의 차이가 센서들에 의해 측정될 수도 있다. 어떻게 상이한 센서들이 커패시턴스 차이를 결정할 수도 있는지의 상세는 도 6과 함께 이하에서 논의된다.
다른 실시형태들에 따르면, 도면 (400) 에 도시된 바처럼 시스템 (440) 은 오실레이터 (442) 에 전기적으로 연결될 수 있는 다수의 센서들 (224) 을 이용할 수도 있다. 이들 센서들의 각각은 대응하는 전압 측정 디바이스와 연관될 수도 있다. 일 예에서, 센서 (224) 는 도 4에 도시된 바처럼 AR 안경 (220) 상의 다양한 위치들에 배치될 수도 있다. 센서들을 위한 위치들은 안경의 좌측 및/또는 우측 암, 안경의 브리지 등을 비한정적으로 포함할 수도 있다. 예를 들면, 센서들 (224) 은 AR 안경 (220) 의 암들 상에 배치되어, 그것들은 착용자의 귀 후방 커패시턴스를 측정할 수도 있다. 다른 예에서, 센서들은 AR 안경 (220) 의 브리지 상에 배치될 수도 있으며, 그에 의해 안경이 착용자의 코에 놓여 있는지를 검출한다 (따라서 착용자가 AR 안경 (220) 을 착용하고 있다는 것과 AR 안경 (220) 이 오실레이터 (442) 에 의해 파워업되야 한다는 것을 나타낸다). 또 다른 예에서, 센서들은 착용자의 이마의 존재 또는 부재를 검출하기 위하여 AR 안경 (220) 의 브리지 또는 상부 림 상에 배치될 수도 있다.
실시형태들은 커패시티브 센서들에 한정되지 않고 다른 종류의 근접 센서들 이를테면 유도 센서, 자기 센서, 소나 (sonar) 센서, 광학 센서 (태양전지 또는 레이저), 와전류 센서, 열 적외선 센서 및 유사한 것들이 또한 여기에 기재된 원리들을 이용하여 채용될 수도 있다. 도 4를 참조하여 논의된 커패시티브 센서들을 포함하여 상이한 타입들의 센서들이 동종으로 (즉, AR 안경 (220) 상에서 모든 센서들이 동일 타입) 또는 이종으로 (즉, 동일 AR 안경 (220) 상에서 센서들이 상이한 타입) 이용될 수도 있다.
추가의 실시형태들에 따르면, 소수성 코팅은 센서 (448) 또는 센서들 (224) 의 측정 및 기능을 물/땀이 방해하는 것을 방지하기 위하여 사용될 수도 있다. 이 코팅은 기능 센서 및/또는 시스템 (440) 의 다른 부분들의 적어도 일부를 하우징 (housing) 할 수도 있다.
도 5는 여기에 기재된 적어도 몇몇 실시형태들에 따라 배열된 전력 관리 목적들을 위해 AR 안경이 사용중일 때를 검출하기 위한 플립업 피쳐를 이용하는 예시적인 AR 안경의 측면도들을 예시한다. 플립업 피쳐는 실제 디스플레이(들) 을 포함할 수도 있거나 폐쇄 포지션에 있을 때 AR 안경이 사용중이지 않음을 나타내는 커버일 수도 있다 (도면 (500)).
이전에 언급된 바처럼, 힌지들 (예를 들면, 531) 은 센서들과 함께 또는 그 대신에, 착용자가 AR 안경 (330) 을 착용하고 있는지를 검출하도록 구성될 수도 있다. AR 안경 (330) 의 암들은 힌지들 (예를 들면, 533) 을 통해 AR 안경 (330) 의 프레임에 연결될 수도 있고, AR 안경 (330) 의 암들이 접혀질 때, 힌지들의 폐쇄 포지션은 파워오프 상태를 표시할 수도 있다; 반대로, AR 안경 (330) 의 암들이 펼쳐질 때, 힌지들 (예를 들면, 533) 의 개방 포지션은 파워온 상태를 표시할 수도 있다.
다른 예에 따르면, 힌지 (531) 는 가동부 (534) 가 플립업 또는 플립다운되는지 (각각, 도면 (500) 및 도면 (550)) 에 기초하여 동작 상태를 검출하도록 구성될 수도 있다. 가동부 (534) 가 실제 디스플레이이면, 플립다운된 포지션은 파워온 상태를 표시할 수도 있고 반대의 경우도 마찬가지이다. 다른 한편, 가동부 (534) 가 커버이면, 그 반대가 참일 수도 있다 (커버가 플립다운될 때, 전력은 턴오프되고 커버가 플립업될 때, 전력이 턴온된다). 추가 실시형태에 따르면, 센서 쌍 (536, 537) 은 가동부 (534) 가 플립업 또는 플립다운 되는지를 결정하도록 구성될 수도 있다. 예를 들면, 센서 쌍 (536, 537) 은 서로 터치하거나 서로 가까우면, 플립다운된 포지션이 결정될 수도 있다. 그렇지 않으면, 가동부 (534) 는 플립업된 포지션에 있는 것으로 결정될 수도 있다. 센서 쌍 (536, 537) 은 커패시티브 센서들, 자기 센서들, 광학 센서들, 또는 심지어, 그것들이 접촉할 때 전기회로를 닫는 전도성 패치들일 수도 있다.
도 6은 적어도 몇몇 실시형태들에 따라 배열된 전계 이미지 디바이스를 통한 AR 안경 사용 검출을 예시한다. 도면 (600) 은 실드 구현을 이용한 하나의 예시적인 구성과 2개의 센서 도들을 보여준다.
몇몇 실시형태들에 따라 배열된 AR 안경의 센서들은 '액티브' 실드가 설비될 수도 있다 (예를 들면, 센서들 (665)). 실드는 근처 그라운드 (nearby ground) 또는 다른 표유 전자계 (stray electromagnetic field) 에 대한 시스템의 임의의 감도를 감소시키도록 구성될 수도 있다. (센서 측면도 (670) 에서 패드 (676) 또는 센서 평면도 (680) 에서 센서 패드 (682) 와 같은 패드를 가질 수도 있는) 센서는 그 뒤에 오버사이즈 실드를 가질 수도 있다 (예를 들면, 센서 평면도 (680)). 머리 배향 측정들을 위해, 머리는 어깨보다 더 큰 커패시턴스를 가질 수도 있지만, 머리 커패시턴스는 상대적으로 고정될 수도 있다. 예를 들면, 시스템은 다음 방식으로 커패시턴스 ("C") 를 측정할 수도 있다: C_전체 = C_어깨 + C_머리, 여기서 C_머리는 크지만 상대적으로 고정되고 C_어깨는 머리 커패시턴스보다 더 작지만 어깨에 대한 머리 배향이 변화됨에 따라 가변적이다. 4개의 센서들이 사용되며 각각이 예를 들면 대략 50Hz에서 샘플들을 생성하면, (도 2의 도면 (200)) 에 도시된 바처럼) 좌측 안경 프레임 상에 2개의 센서들이 그리고 우측 프레임상에 2개의 센서들이 존재할 수도 있다. 이 결과 다음 샘플들이 얻어질 수도 있다: Ml, M2, M3, 및 M4 (각각, 우측 암 상에 Ml 및 M2, 좌측 암 상에 M3 및 M4). 그러면, 각 측정의 필터링된 시 평균 (filtered time average) 들이 구성될 수도 있고, 그것들은 <M1>, <M2>, <M3>, <M4>로 칭해질 수도 있다. 좌측을 바라보는 사람에 대해, (머리에 대해 센서들의 정확한 포지션에 따라) 좌측 상의 그라운드 신호들에 대한 커패시턴스는 양자 모두 감소할 수도 있고 우측 상의 그라운드에 대한 커패시턴스는 양자 모두 증가할 수도 있다. 결과적으로, 필터링된 신호들은 다음과 같이 표현될 수도 있다:
Figure 112012089513991-pct00001
머리의 좌측으로의 모션을 검출하기 위하여, 짧은 시 평균 <A> 은 네가티브일 수도 있고 <B> 는 포지티브일 수도 있다. 머리의 우측으로의 모션을 검출하기 위하여, 짧은 시 평균 <A> 는 포지티브일 수도 있고 <B> 는 네가티브일 수도 있다. 센서들의 유사한 조합들이 아래로 끄덕임 (nod down), 위로 끄덕임 (nod up), 좌측으로 기울임 (tilt left) 및 우측으로 기울임 (tilt right) 을 검출하기 위하여 사용될 수도 있다. 적절한 시정수 (time constant), 액티브 실드 패드 (active shield pad) 사이즈들 및 포지션들을 선택하여 머리의 고정된 커패시턴스를 감소시키는 것과 시스템에서 노이즈를 감소시키는 것은 당업자에게 명백할 수도 있다.
따라서, 실시형태들에 따른 센서는, 센서 패드 (676) 를 갖는 센서 측면도 (670) 에 도시된 바처럼 전기적으로 표시될 수도 있으며, 액티브 실드 (672) 의 일측은 전계 이미징 디바이스 (664) 와 같은 검출 디바이스에 연결되고, 액티브 실드 (674) 의 타측은 그라운드에 연결된다. 전계 이미징 디바이스 (664) 는 사용자 움직임 또는 입력들을 센서들을 통해 결정하기 위하여 센서 신호들을 프로세싱하기 위한 프로세서 (662) 에 연결될 수도 있다.
다른 예에 따르면, AR 안경 상에 구현된 센서는 센서 패드 (682) 의 이면에 실딩 (예를 들면, 센서 평면도 (680) 에서 실딩 (684)) 을 가져, AR 안경이 폐쇄될 때, AR 안경이 파워업 또는 파워다운 되야 하는 지에 관하여 시스템이 혼동되지 않도록 한다. 다른 말로, AR 안경이 폐쇄될 때 (즉, 안경이 암들이 접힐 때), AR 안경의 우측 암 상의 하나 이상의 센서들이 AR 안경의 좌측 암 상의 하나 이상의 센서들과 오버랩될 수도 있다. 이것은 좌측 암 센서들이 우측 암 센서들의 커패시턴스를 감지하는 결과를 만들 수도 있고, 그에 의해 잘못된 포지티브 결과들을 낳을 수도 있다 (이는 사실 AR 안경이 착용되지 않고, 사실 AR 안경의 암들을 접어서 오프되도록 의도된 때, AR 안경이 착용자들에 의해 착용되고 있는 것을 표시한다). 센서들의 이면 상의 전기 실딩과 같은 전술한 실딩은 이 현상을 감소 또는 제거할 수도 있다.
앞서 설명된 플립업 피쳐를 갖는 AR 안경에서, 센서들은 또한 착용자의 이마 상에 배치될 수도 있고, 그 경우에 AR 안경의 코 패드 상의 센서들은 커패시턴스 변화를 결정할 수도 있다. 프레임 장착된 커패시티브 센서들에 대하여, 프레임 장착된 센서들과 머리 사이의 에어 갭의 길이에 기초하여 그라운드에 대한 몸의 측정된 커패시턴스의 감소가 존재할 수도 있다. 귀 후방 센서들은, AR 안경의 브리지, 또는 암의 전방부에서와 같은 다른 위치들에 비하여 더 낮은 감도의 커패시턴스 측정을 필요로 하는 것을 구현하는 것이 상대적으로 더 용이할 수도 있다.
머리의 존재는 다수의 방법을 통해 커패시턴스 변화를 통하여 AR 안경에서 검출될 수도 있다. 예를 들면, 머리 근처 작은 평행 플레이트를 갖는 감지 회로 (sensitive circuit) 는 그라운드에 정전용량적으로 연결될 수도 있고, 회로의 특성 (예를 들면, 머리 센서를 갖는 커패시티브 분압기에서의 RMS 전압) 이 측정될 수도 있다. 다른 예시적인 구현에서, 센서 플레이트들 간의 전하 수송이 측정될 수도 있다. 또 다른 예시적인 구현에서, (예를 들면, 주로 물이 채워진 인체/머리) 미지의 유전체를 사이에 갖는 2개 플레이트들의 커패시턴스 변화가 사용될 수도 있다. 물론, 이들 방법들은 또한 서로 조합하여 또는 당업계에 알려져 있는 추가의 방법들과 조합하여 사용될 수도 있다.
실시형태들이 특정 예, 컴포넌트들, 검출 방법들, 및 구성 (configuration) 들을 사용하여 위에서 논의되었지만, 이들은 근접 센서를 채용하는 착용가능한 AR 디스플레이에 사용되기 위한 일반적인 가이드라인을 제공하도록 의도되었다. 이들 예들은 실시형태들에 대한 제한을 구성하지 않고, 이들은 다른 컴포넌트들, 모듈들, 검출 방법들, 및 구성들을 여기에 기재된 원리들을 이용하여 구현될 수도 있다. 예를 들면, 상이한 타입의 센서들이 안경들이 착용되고 있는 때를 결정하기 위하여, 사용자 입력을 검출하기 위하여, 그리고 안경들이 벗겨진 때를 결정하기 위하여 사용될 수도 있다.
도 7은 본 개시의 적어도 몇몇 실시형태들에 따라 배열된, AR 안경에서 근접 감지 메카니즘을 구현하기 위해 사용될 수도 있는 범용 컴퓨팅 디바이스를 예시한다.
컴퓨터 (700) 는 프로세서 (710), 메모리 (720) 및 하나 이상의 드라이브들 (730) 을 포함한다. 드라이브 (730) 및 그들의 연관 컴퓨터 스토리지 매체 이를테면 착탈식 스토리지 매체 (734) (예를 들면, CD-ROM, DVD-ROM) 및 비착탈식 스토리지 매체 (732) (예를 들면, 하드 드라이브 디스크) 가 컴퓨터 판독가능 명령들, 데이터 구조들, 프로그램 모듈들 및 다른 데이터의 스토리지를 컴퓨터 (700) 에 제공할 수도 있다. 드라이브들 (730) 은 운영 시스템 (740), 애플리케이션 프로그램들 (750), 프로그램 모듈들 (760) 및 데이터베이스 (780) 를 포함할 수도 있다. 컴퓨터 (700) 는 사용자 입력 디바이스들 (790) 을 포함할 수도 있고 그들을 통하여 사용자는 커맨드 및 데이터를 입력할 수도 있다. 입력 디바이스 (790) 는 전자 디지타이저, 마이크로폰 (796), 키보드 (794) 및 포인팅 디바이스 이를테면 마우스 디바이스 (792), 트랙볼 디바이스 또는 터치 패드 디바이스를 포함할 수도 있다. 다른 입력 디바이스들은 조이스틱 디바이스, 게임 패드 디바이스, 위성 접시, 스캐너 디바이스 또는 그 밖에 이와 유사한 것을 포함할 수도 있다.
몇몇 실시형태들에 따른 컴퓨터 (700) 를 위한 사용자 입력 디바이스들 중 하나는 AR 안경 센서들 (798) 일 수도 있다. 컴퓨터 (700) 가 AR 애플리케이션 (752) 을 애플리케이션 프로그램들 (750) 하에서 실행하고 있을 때, AR 안경 센서들 (798) 은 사용자 인터페이스 엘리먼트들을 사용자에게 제공할 수도 있고 제공된 사용자 인터페이스 엘리먼트들과 연관된 사용자 액션들 관련하여 컴퓨터 (700) 에 피드백을 제공할 수도 있다. 예를 들면, AR 안경 센서들은 볼륨 제어, 디스플레이 제어, 사용자의 뷰잉 방향, 사용자의 결정의 승낙/거절, 및 유사한 액션들 관련하여 사용자 지시 (indication) 들을 검출할 수도 있다.
이들 및 다른 입력 디바이스들은 시스템 버스 (705) 에 연결된 사용자 입력 인터페이스를 통해 프로세서 (710) 에 연결될 수도 있지만, 다른 인터페이스 및 버스 구조들, 이를테면 병렬 포트, 게임 포트 또는 USB (universal serial bus) 에 의해 연결될 수도 있다. 컴퓨터들 이를테면 컴퓨터 (700) 는 또한 다른 주변 출력 디바이스들 이를테면 스피커 (776), 프린터 (774), 디스플레이 (772) 및 AR 안경 디스플레이들 (778) 를 포함할 수도 있고, 이들은 출력 주변 인터페이스 (770) 또는 그 밖에 이와 유사한 것을 통해 연결될 수도 있다.
메모리 (720), 착탈식 스토리지 디바이스들 (734) 및 비착탈식 스토리지 디바이스들 (732) 은 컴퓨터 스토리지 매체의 예들이다. 컴퓨터 스토리지 미디어는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 테크놀로지, CD-ROM, 디지털 다목적 디스크 (DVD) 또는 다른 광학 스토리지, 자기 카세트, 자기 테이프, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 또는 원하는 정보를 저장하기 위하여 사용될 수도 있고 컴퓨터 (700) 에 의해 액세스될 수도 있는 임의의 다른 매체를 비한정적으로 포함할 수도 있다. 임의의 그런 컴퓨터 스토리지 미디어는 컴퓨터 (700) 의 부분일 수도 있다.
컴퓨터 (700) 는, 네트워크 인터페이스 (706) 에 접속된 원격 컴퓨터와 같은 하나 이상의 컴퓨터들에의 논리 접속을 이용하여 네트워크형 환경에서 동작될 수도 있다. 원격 컴퓨터는 개인 컴퓨터, 서버, 라우터, 네트워크 PC, 피어 디바이스 또는 다른 일반적인 네트워크 노드일 수도 있고, 컴퓨터 (700) 에 대해 위에서 설명된 엘리먼트들의 다수 또는 전부를 포함할 수 있다. 네트워킹 환경들은 오피스에서 흔한, 기업내 WAN (enterprise-wide area network), LAN (local area network), 인트라넷 및 세계적 네트워크 이를테면 인터넷이다. 예를 들면, 본원의 요지에 있어서, 컴퓨터 (700) 는 소스 머신을 포함할 수도 있고 그로부터 데이터가 이송 (migrate) 되며, 원격 컴퓨터는 목적지 머신을 포함하거나 혹은 그 반대일 수도 있다. 하지만, 소스 및 목적지 머신들은 네트워크(들) (708) 또는 임의의 다른 수단에 의해 함께 연결될 필요는 없지만, 대신에 데이터는 소스 플랫폼에 의해 쓰여질 수 있고 목적지 플랫폼 또는 플랫폼들에 의해 판독될 수 있는 임의의 매체를 통해 이송될 수도 있다는 것에 유의해야 한다. LAN 또는 WLAN 네트워킹 환경에서 사용될 때, 컴퓨터 (700) 는 LAN에 네트워크 인터페이스 (706) 또는 어댑터를 통하여 연결될 수도 있다.
네트워크(들) 은 서버, 클라이언트, 스위치, 라우터, 모뎀, ISP (Internet service provider), 및 임의의 적절한 통신 매체 (예를 들면, 유선 또는 무선 통신) 을 채용하는 임의의 토폴로지 (topology) 를 포함할 수도 있다. 몇몇 실시형태들에 따른 시스템은 정적 또는 동적 네트워크 토폴로지를 가질 수도 있다. 네트워크(들) 은 보안 네트워크 이를테면 기업내 네트워크 (enterprise network) (예를 들면, LAN, WAN, 또는 WLAN), 비보안 네트워크 이를테면 무선 개방 네트워크 (예를 들면, IEEE 802.11 무선 네트워크), 또는 세계적 네트워크 이를테면 예를 들면 인터넷을 포함할 수도 있다. 네트워크(들) 은 또한 함께 동작하도록 적응된 복수의 구별되는 네트워크들을 포함할 수도 있다. 네트워크(들) 은 여기에 기재된 노드들 간에 통신을 제공하도록 적응된다. 비제한적인 예시로서, 네트워크(들) 은 무선 매체 이를테면 음향, RF, 적외선 및 다른 무선 매체를 포함할 수도 있다.
네트워크 통신 링크는 통신 매체의 일 예일 수도 있다. 통신 미디어는 통상적으로 컴퓨터 판독가능 명령들, 데이터 구조들, 프로그램 모듈들, 또는 반송파 또는 다른 전송 메카니즘과 같은 변조된 데이터 신호에서의 다른 데이터에 의해 구체화될 수도 있고, 임의의 정보 전달 매체를 포함할 수도 있다. "변조된 데이터 신호 (modulated data signal)" 는 신호에서 정보를 인코딩하도록 하는 그러한 방식으로 설정 또는 변경된 하나 이상의 특징들을 갖는 신호일 수도 있다. 비한정적인 예시로서, 통신 미디어는 유선 네트워크 또는 직접 유선 접속 (direct-wired connection) 과 같은 유선 미디어, 그리고 음향, RF (radio frequency), 마이크로파, IR (적외선) 및 다른 무선 미디어와 같은 무선 미디어를 포함할 수도 있다. 여기서 사용된 컴퓨터 판독가능 미디어라는 용어는 스토리지 미디어 및 통신 미디어 양자 모두를 포함할 수도 있다.
컴퓨터 (700) 는 휴대전화, PDA (personal data assistant), 개인 미디어 플레이어 디바이스, 무선 웹-와치 디바이스, 개인용 헤드셋 디바이스, 애플리케이션 특정 디바이스, 또는 위의 기능들 중 어느 것을 포함하는 하이브리드 디바이스와 같은 소형 폼 팩터 포터블 (또는 모바일) 전자 디바이스의 부분으로서 구현될 수도 있다. 컴퓨터 (700) 는 또한 랩톱 컴퓨터 및 비랩톱 컴퓨터 구성들 양자 모두를 포함하는 개인용 컴퓨터로서 구현될 수도 있다. 또한, 컴퓨터 (700) 는 범용 또는 특수화된 서버의 부분으로서 또는 네트워크형 시스템으로서 구현될 수도 있다.
도 8은 본 개시의 적어도 몇몇 실시형태들에 따라 배열된, AR 안경에서 근접 감지 메카니즘을 구현하기 위해 사용될 수도 있는 전용 프로세서를 예시한다. 도면 (800) 에서 프로세서 (810) 는 AR 안경 (예를 들면, AR 안경 (330)) 에 통신적으로 연결되거나 AR 안경으로 임베딩될 수도 있는 컴퓨팅 디바이스의 부분일 수도 있다.
프로세서 (810) 는 다수의 검출 모듈 (840) 들을 포함할 수도 있다. 각 검출 모듈은 센서 (예를 들면, 센서들 (840-1 내지 840-N)) 과 연관될 수도 있다. 검출 모듈 (840) 은 착용자의 머리, 코, 안경이 접히거나 또는 개방되는 것과 그밖에 이와 유사한 것의 센서의 검출을 표시하는 전압 측정과 같은 센서 출력을 검출하도록 구성될 수도 있다. 검출 모듈 (840) 은 결정 모듈 (830) 에 센서 검출 (들) 을 표시하는 출력을 제공하도록 구성될 수도 있다. 결정 모듈 (830) 은 모니터된 파라미터 및 연관된 센서 정보에 기초하여 결정을 내리도록 구성될 수도 있다. 예를 들면, 모니터된 파라미터는 착용자의 머리 또는 코, 폴딩 개방되는 안경의 암들, 또는 플립업 피쳐 포지션의 검출에 기초하여 AR 안경이 착용되고 있는지일 수도 있다.
데이터베이스 (880) 는 결정 모듈 (830) 이 결정을 내리는 것을 돕기 위해 모니터된 파라미터와 연관된 데이터를 저장하도록 구성될 수도 있다. 예를 들면, 데이터베이스 (880) 는, 센서들 (840-1 내지 840-N) 로부터 예상 전압 측정 값들과 대응하는 파라미터 값들 (예를 들면, 사용중이거나 또는 그렇지 않은 안경) 을 리스팅하는 룩업 테이블 (880-1 내지 880-N) 을 포함할 수도 있다. 룩업 테이블에 검출 모듈 출력들을 비교할 때, 결정 모듈 (830) 은 AR 안경이 파워업되야 한다는 것을 결정하고 프로세서 (810) 가 안경을 위해 전력 공급 모듈을 활성화하는 것을 가능하게 하도록 구성될 수도 있다.
다른 실시형태들에 따르면, 다른 파라미터들 이를테면 AR 안경들의 동작 제어는 센서들 (840-1 내지 840-N) 로부터의 입력들에 기초하여 모니터되고 제어될 수도 있다. 각 센서는 하나의 검출 모듈과 연관될 수도 있다. 다르게는, 다수의 센서들이 단일 검출 모듈에 의해 모니터될 수도 있다. 또한, 다수의 결정 모듈들이 상이한 기능들을 위해 채용될 수도 있다. 메모리 (820) 는 결정 모듈 (830) 및/또는 검출 모듈 (840) 을 위한 명령들을 저장하도록 구성될 수도 있고, 이들은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로서 구현될 수도 있다. 프로세서 (810) 는 직접 전기적 연결 또는 네트워크형 통신 (예를 들면, 네트워크(들) (808)) 을 통해 다른 컴퓨팅 디바이스들 및/또는 데이터 저장부 이를테면 스토리지 설비 (850) 와 통신할 수도 있다.
예시적인 실시형태들은 또한 방법들을 포함할 수도 있다. 이들 방법들은 여기에 기재된 구조들을 포함하여 임의의 수의 방식들로 구현될 수 있다. 하나의 그러한 방식은 본 개시에 기재된 타입의 디바이스들의 머신 동작에 의한다. 다른 선택적인 방식은 방법들의 하나 이상의 개개의 동작들이 하나 이상이 인간 오퍼레이터가 동작들 중 일부를 수행하는 한편 다른 동작들은 머신들에 의해 수행되는 것과 함께 수행되는 것이다. 이들 인간 오퍼레이터들은 서로 함께 위치될 필요는 없지만, 각각은 오직, 프로그램의 일부를 수행하는 머신과 함께 있을 수 있다. 다른 예들에서, 인간 상호작용은 머신 자동화된 미리선택된 기준에 의해서와 같이 자동화될 수 있다.
도 9는 여기에 기재된 적어도 몇몇 실시형태들에 따라 배열된 도 7의 컴퓨터 (700) 또는 도 8의 전용 프로세서 (810) 와 같은 컴퓨팅 디바이스에 의해 수행될 수도 있는 예시적인 방법을 예시하는 플로우 도이다. 블록 (922, 924 및 926) 에 기재된 동작들은 컴퓨터 (700) 의 드라이브 (740) 또는 프로세서 (810) 의 메모리 (820) 와 같은 컴퓨터 판독가능 매체에서 컴퓨터 실행가능 명령들로서 저장될 수도 있다.
증강 현실 시스템에서 근접 센서들을 채용하는 프로세스는 "센서 신호 수신" 동작 (922) 으로 시작될 수도 있다. 동작 (922) 에서, 센서 출력은 도 2의 AR 안경 (220) 상의 센서들 (222, 224 및 224) 과 같은 AR 안경 상의 복수의 센서들 중 하나로부터 수신된다. 센서들은 AR 안경 상의 다양한 전략적 위치들로 통합되어 여기에 지재된 바처럼 (예를 들면, 동작 상태에서) 안경 상태 또는 사용자 입력을 검출할 수도 있다.
동작 (922) 다음에 "상태/사용자 입력 결정" 동작 (924) 이 뒤따를 수도 있다. 동작 (924) 에서, 수신된 신호들은 안경 상태 또는 사용자 입력을 결정하기 위하여 프로세싱될 수도 있다. 예를 들면, 모니터된 상태는 안경 암들의 포지션일 수도 있다. 암들이 개방되면, 사용자가 AR 안경을 사용할 의도라는 추론이 내려질 수도 있고 안경이 자동적으로 파워업될 수도 있다. 마찬가지로, 안경의 암들 사이의 사용자의 머리 (또는 안경의 브리지 아래의 사용자의 코) 의 검출은 안경을 사용할 의도를 표시할 수도 있다. 프로세싱은 룩업 테이블에서 예상된 값들에 수신된 신호의 값을 비교하고 상태를 결정하는 것을 포함할 수도 있다. 적어도 하나의 센서들의 머리 움직임 또는 터칭과 같은 사용자 입력은 또한, 비슷한 방식으로 프로세싱될 수도 있는 신호를 생성할 수도 있다. 수신된 신호는 검출 모듈 (840) 과 같은 검출 모듈에 의해 프로세싱되고 도 8의 프로세서 (810) 와 같은 프로세서에 의해 프로세싱될 수도 있다.
동작 (924) 다음에 "대응 액션 수행" 동작 (926) 이 뒤따를 수도 있다. 동작 (926) 에서, 프로세서 (810) 는 수신된 센서 입력에 대응하는 액션을 수행하도록 동작 모듈에 명령할 수도 있다. 예를 들면, 전력 공급 모듈은 머리의 검출 또는 안경의 개방 포지션에 응답하여 AR 안경들을 파워업하도록 명령될 수도 있다. 마찬가지로, 센서들을 통한 사용자 입력은 오디오 볼륨 제어, 디스플레이 특성들 (예를 들면, 밝기) 등을 조정하는 것과 같은 동작 모듈들을 활성화 또는 제어하기 위하여 사용될 수도 있다.
위에서 설명된 프로세스에 포함된 동작들은 예시 목적을 위한 것이다. 근접 센서 구비 AR 안경은 더 적은 수 또는 추가 동작들을 갖는 유사한 프로세스들에 의해 구현될 수도 있다. 몇몇 예들에서, 동작들은 상이한 순서로 수행될 수도 있다. 몇몇 다른 예들에서, 다양한 동작들이 제거될 수도 있다. 또 다른 예들에서, 다양한 동작들은 추가 동작들로 분할되거나 또는 더 적은 수의 동작들로 함께 결합될 수도 있다.
도 10은 여기에 설명된 적어도 몇몇 실시형태들에 따라 배열된 예시적인 컴퓨터 프로그램 제품 (1000) 의 블록도를 예시한다. 도 10에 도시된 바처럼, 몇몇 예들에서, 컴퓨터 프로그램 제품 (1000) 은, 예를 들면 프로세서에 의해 실행될 때, 도 7 및 도 8을 참조하여 상술한 기능을 제공할 수도 있는 머신 판독가능 명령들 (1004) 을 또한 포함할 수도 있는 신호 베어링 매체 (signal bearing medium; 1002) 를 포함할 수도 있다. 따라서, 예를 들면, 프로세서 (810) 와 관련하여, 검출 모듈 (840) 및 결정 모듈 (830) 은 여기에 기재된 근접 센서들을 채용하는 것과 연관된 액션들을 수행하기 위해 매체 (1002) 에 의해 프로세서 (810) 에 전해진 명령들 (1004) 에 응답하여 도 10 에 도시된 하나 이상의 작업 (task) 들을 착수할 수도 있다. 그러한 명령들 중 일부는 센서 신호 수신, 상태/사용자 입력 결정, 및/또는 대응 액션 수행을 포함할 수도 있다.
몇몇 구현들에서, 도 10에 도시된 신호 베어링 매체 (1002) 는 비한정적으로, 하드 디스크 드라이브, CD (Compact Disc), DVD (Digital Video Disk), 디지털 테이프, 메모리 등과 같은 컴퓨터 판독가능 매체 (1006) 를 포함할 수도 있다. 몇몇 구현들에서, 신호 베어링 매체 (1002) 는, 비한정적으로, 메모리, R/W (read/write) CD, R/W DVD 등과 같은 기록가능 매체 (1008) 를 포함할 수도 있다. 몇몇 구현들에서, 신호 베어링 매체 (1002) 는 비한정적으로, 디지털 및/또는 아날로그 통신 매체 (예를 들면, 광섬유 케이블, 도파관, 유선 통신 링크, 무선 통신 링크 등) 와 같은 통신 매체 (1010) 를 포함할 수도 있다. 따라서, 예를 들면, 프로그램 제품 (1000) 은 RF 신호 베어링 매체 (1002) 에 의해 프로세서 (504) 의 하나 이상의 모듈들로 전해질 수도 있고, 여기서 신호 베어링 매체 (1002) 는 무선 통신 매체 (1010) (예를 들면, IEEE 802.11 표준을 따르는 무선 통신) 에 의해 전해진다.
몇몇 예들에서, 본 개시는 근접 센서들에 기초하여 착용가능한 AR (augmented reality) (220) 디스플레이에 적응적으로 전력을 공급하도록 구성된 시스템을 기술한다. 센서는 검출 신호를 생성하도록 구성되고, 여기서 그 검출 신호는 착용자의 머리의 존재, 착용자의 머리의 포지션 및/또는 착용가능한 AR 디스플레이의 상태 중 하나 이상을 나타낸다. 시스템은 또한 센서에 연결된 프로세서 (810) 를 포함하고, 여기서 그 프로세서는 센서로부터의 검출 신호에 기초하여 착용가능한 AR 디스플레이가 파워업되야 하는지를 결정하고, 착용가능한 AR 디스플레이가 파워업되야 할 때 착용가능한 AR 디스플레이를 파워업하도록 구성된다.
착용가능한 AR 디스플레이 (220) 의 상태는 착용가능한 AR 디스플레이의 암들이 개방 포지션 또는 폐쇄 포지션에 있는 것을 포함한다. 센서 (448) 는 유도 센서, 자기 센서, 소나 (sonar) 센서, 광학 센서, 와전류 센서, 기계적 스위치, 또는 열 적외선 센서일 수도 있다. 센서 (448) 는 또한 커패시턴스 차를 감지하는 것에 기초하여 착용자의 머리의 존재, 착용자의 몸통에 대한 착용자의 머리의 포지션, 및/또는 착용가능한 AR 디스플레의 상태 중 하나 이상을 검출하도록 구성된 커패시턴스 센서일 수도 있다.
시스템은 또한, 상기 착용가능한 AR 디스플레이 (220) 의 좌측 암, 우측 암, 브리지 및/또는 림 중 하나 이상에 부착되는 복수의 센서들 (222, 224, 226) 을 포함할 수도 있다. 복수의 센서들 (222, 224, 226) 은 착용가능한 AR 디스플레이 (220) 의 적어도 하나의 동작 파라미터를 제어하기 위해 사용자 입력을 수신하도록 구성된다. 착용가능한 AR 디스플레이 (220) 의 동작 파라미터는 오디오 제어 또는 디스플레이 제어를 포함할 수도 있다. 시스템은 또한 적어도 하나의 힌지를 통해 착용가능한 AR 디스플레이 (220) 의 림에 부착된 가동부 (334, 335) 를 포함할 수도 있고, 여기서 플립업 가동부는 적어도 하나의 추가 센서 (337, 339) 를 포함한다. 가동부 (334, 335) 는 착용가능한 AR 디스플레이의 투시형 컴포넌트를 블록킹하는 커버 또는 디스플레이일 수도 있다. 착용가능한 AR 디스플레이 (220) 의 상태는 가동부 (334, 335) 가 플립업된 포지션 및 플립다운된 포지션에 있는 것을 포함할 수도 있다. 또한, 가동부 (334, 335) 의 포지션은 적어도 하나의 힌지 (331) 또는 적어도 하나의 추가 센서 (337, 339) 에 의한 검출에 기초하여 결정될 수도 있다.
추가의 예들에서, 본 개시는 근접 센서들 (222, 224, 226) 에 기초하여 착용가능한 증강 현실 (AR) 디스플레이 (220) 에 적응적으로 전력 공급하도록 구성된 시스템을 기술한다. 시스템은 레퍼런스 노드 (444) 에 연결된 커패시티브 센서 (448) 를 포함하고, 여기서 센서 (448) 는 레퍼런스 노드 (444) 와 외부 노드 (445) 사이의 커패시턴스 값 차이를 측정하기 위하여 구성된다. 시스템 (100) 은 또한 센서 (448) 에 연결된 전압 측정 디바이스 (446) 를 포함한다. 그 전압 측정 디바이스 (446) 는 입력으로서 값 차이를 수신하도록 구성되고 또한 착용가능한 AR 디스플레이 (220) 에 언제 전력을 제공할지를 결정하도록 구성되는 데이터 출력을 제공하도록 구성된다. 레퍼런스 노드 (444) 는 레퍼런스 커패시턴스일 수도 있고 외부 노드 (445) 는 사람 (218) 일 수도 있다.
시스템은 또한 전압 측정 디바이스에 연결된 프로세서 (810) 를 포함할 수도 있다. 프로세서는 전압 측정 디바이스 (446) 로부터 데이터 출력을 수신하고, 룩업 테이블 (880-1 내지 880-N) 에서의 복수의 저장된 값들에 데이터 출력을 비교하고, 착용가능한 AR 디스플레이 (220) 에 언제 전력을 제공할지를 결정하도록 구성된다. 이것은 시 평균 (time average), 시간 필터 (temporal filter) 및 유사한 파라미터들을 채용하는 신호 의존 알고리즘에 의해 달성될 수도 있다. 프로세서 (810) 는 또한 복수의 저장된 값들에의 상기 데이터 출력의 비교에 응답하여 저전력 모드로 착용가능한 AR 디스플레이 (220) 를 전환시키도록 구성된다. 센서 (448) 는 근처 그라운드 및 표유 전자계에 대한 감도를 감소시키기 위한 액티브 실드 (active shield; 684) 를 포함한다. 센서 (448) 는 소수성 재료로 코팅되어 센서 측정에 대한 물 및/또는 땀의 간섭을 방지할 수도 있다.
또한 추가의 예들에서, 본 개시는 근접 센서들 (222, 224, 226) 을 통하여 착용가능한 증강 현실 (AR) 디스플레이 (220) 의 동작 양태의 제어 방법을 기술한다. 그 방법은 착용가능한 AR 디스플레이의 좌측 암, 우측 암, 브리지 및/또는 림 중 하나 이상에 부착되는 복수의 센서들 중 적어도 하나로부터 센스 신호를 수신하는 단계 (922) ; 수신된 센스 신호에 기초하여 착용자의 머리의 존재, 착용자의 머리의 포지션, 사용자 입력 및/또는 착용가능한 AR 디스플레이의 상태 중 하나 이상을 결정하는 단계 (924) ; 및 결정에 응답하여 착용가능한 AR 디스플레이의 동작 양태와 연관된 액션을 수행하는 단계 (926) 를 포함한다.
착용가능한 AR 디스플레이 (220) 의 동작 양태와 연관된 액션은 AR 디스플레이를 파워업하는 것, AR 디스플레이를 파워다운하는 것, AR 디스플레이를 저전력 모드로 전환시키는 것, 오디오 제어를 조정하는 것 및/또는 디스플레이 제어를 조정하는 것 중 하나 이상을 포함한다. 그 방법은 또한 복수의 센서들 (222, 224, 226) 로부터 복수의 센스 신호들을 수신하는 단계를 더 포함할 수도 있고, 여기서, 복수의 센서들은, 커패시티브 센서, 유도 센서, 자기 센서, 소나 (sonar) 센서, 광학 센서, 와전류 센서, 또는 열 적외선 센서 중 하나 이상이다. 그 방법은, 착용자의 몸통에 대한 착용자 (218) 의 머리의 연속적인 포지션들을 검출하는 것에 응답하여, 검출된 좌우 모션에 기초하여 부정적인 사용자 응답 및 검출된 상하 모션에 기초하여 긍정적인 사용자 응답 중 하나 이상을 추론하는 단계를 더 포함할 수도 있다.
다른 예들에서, 본 개시는 근접 센서들 (222, 224, 226) 을 통하여 착용가능한 증강 현실 (AR) 디스플레이 (220) 의 동작 양태를 제어하기 위한 명령들 (1004) 이 저장된 컴퓨터 판독가능 저장 매체 (1002) 를 기술한다. 그 명령들은 착용가능한 AR 디스플레이 (220) 에 부착된 복수의 센서들 (222, 224, 226) 에서 수신된 센스 신호에 기초하여 착용자의 머리의 존재, 착용자의 머리의 포지션, 사용자 입력 및/또는 착용가능한 AR 디스플레이의 상태 중 하나 이상을 감지하는 것을 포함할 수도 있다.
그 명령들은 또한, 감지된 착용자의 머리의 존재 및/또는 착용가능한 AR 디스플레이의 상태 중 하나 이상에 기초하여 착용가능한 AR 디스플레이를 파워업할지 또는 파워다운할지를 결정하는 것; 감지된 착용자의 머리의 포지션에 기초하여 사용자 응답을 추론하는 것; 및 추론된 사용자 응답 또는 감지된 사용자 입력 중 하나에 응답하여 착용가능한 AR 디스플레이의 동작 양태와 연관된 액션을 결정하는 것을 포함한다. 이들 액션들은 프로세서 (810) 에서 수행될 수도 있다. 착용가능한 AR 디스플레이 (220) 의 상태는 착용가능한 AR 디스플레이의 암들이 열린 포지션 또는 닫힌 포지션 중 하나에 있거나 및/또는 착용가능한 AR 디스플레이의 가동부 (334, 335) 가 플립업된 포지션 또는 플립다운된 포지션 중 하나에 있는 것 중 하나 이상을 포함한다.
시스템들의 양태들의 하드웨어와 소프트웨어 구현들 사이의 남은 구별은 거의 존재하지 않는다; 하드웨어 또는 소프트웨어의 사용은 일반적으로 (그러나, 어떤 맥락에서 하드웨어와 소프트웨어 사이의 선택이 중요해질 수도 있다는 점에서, 항상 그렇지는 않게) 비용 대 효율 트레이드오프를 나타내는 설계 선택이다. 여기에 설명된 프로세서들 및/또는 시스템들 및/또는 다른 테크놀로지들이 달성될 수도 있고 (예를 들면, 하드웨어, 소프트웨어, 및/또는 펌웨어), 그리고 바람직한 수단 (vehicle) 은 프로세스들 및/또는 시스템들 및/또는 다른 테크놀로지들이 전개되는 맥락에 따라 변화하게 될 다양한 수단들이 존재한다. 예를 들면, 구현자가 속력 및 정확도가 가장 중요하다고 결정하는 경우, 그 구현자는 주로 하드웨어 및/또는 펌웨어 수단을 선택할 수도 있다; 유연성이 가장 중요한 경우, 구현자는 주로 소프트웨어 구현을 선택할 수도 있다; 또는 또 다시 다르게는, 구현자는 하드웨어, 소프트웨어 및/또는 펌웨어의 어떤 조합을 선택할 수도 있다.
이전의 상세한 설명은 블록도, 플로우차트 및/또는 예들의 이용을 통해 디바이스들 및/또는 프로세스들의 다양한 실시형태들을 설명했다. 그러한 블록도, 플로우차트 및/또는 예들이 하나 이상의 기능들 및/또는 동작들을 포함하는 한, 그러한 블록도, 플로우차트, 똔느 예들 내의 각 기능 및/또는 동작은, 개별적으로 및/또는 집합적으로, 광범위한 하드웨어, 소프트웨어, 펌웨어 또는 사실상 이들의 임의의 조합에 의해 구현될 수도 있다는 것이 당업자에 의해 이해될 것이다. 일 실시형태에서, 여기에 설명된 요지의 몇몇 부분들은 ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), DSP (digital signal processor), 또는 다른 통합 포맷들을 통해 구현될 수도 있다. 하지만, 당업자는 여기에 개시된 실시형태들 중 몇몇 양태들은, 전체적으로 또는 부분적으로, 집적 회로에서, 하나 이상의 컴퓨터들 상에서 실행하는 하나 이상의 컴퓨터 프로그램들로서 (예를들면, 하나 이상의 컴퓨터 시스템들 상에서 실행되는 하나 이상의 프로그램들로서), 하나 이상의 프로세서들 상에서 실행하는 하나 이상의 프로그램들로서 (예를들면, 하나 이상의 마이크로프로세서들 상에서 실행하는 하나 이상의 프로그램들로서), 펌웨어로서, 또는 사실상 이들의 임의의 조합으로서, 동등하게 구현될 수도 있다는 것과, 소프트웨어 및 또는 펌웨어를 위한 회로 설계 및/또는 코드 작성은 본 개시에 비추어 당업자의 능력 내에 충분히 있음을 인식할 것이다.
본 개시는, 다양한 양태들의 예시로서 의도된, 본원에서 설명된 특정 실시형태들의 면에 제한되지 않는다. 그의 사상 및 범위를 이탈함이 없이 많은 변경 및 변화들이 이루어질 수 있음은 당업자에게 자명할 것이다. 여기에 열거된 것들에 부가하여, 본 개시의 범위내에서 기능적으로 등가인 방법 및 장치들이, 이전의 설명들로부터 당업자에 자명할 것이다. 그러한 변경 및 변화들은 첨부된 청구항들의 범위 내에 속하는 것으로 의도되어 있다. 본 개시는 그러한 청구항들에 부여된 등가물들의 전체 범위와 함께, 첨부된 청구항들의 용어에 의해서만 제한되야 한다. 본 개시는 물론 변화가능한 특정 방법, 재료 및 구성 (configuration) 들에 제한되지 않는다는 것이 이해되야 한다. 또한, 여기에 사용된 전문용어는 오직 특정 실시형태들을 설명하기 위한 것이고 제한하는 것으로 의도되지 않았음이 이해되야 한다.
부가적으로, 당업자는 여기에 설명된 요지의 메카니즘은 다양한 형태의 프로그램 제품으로서 분배될 수 있고, 여기에 설명된 요지의 예시적인 실시형태는 실제로 분배를 수행하기 위해 사용되는 신호 베어링 매체의 특정 타입에 상관없이 적용된다는 것을 인식할 것이다. 신호 베어링 매체의 예들은: 기록 가능한 타입의 매체 이를테면 플로피 디스크, 하드 디스크 드라이브 (hard disk drive), CD (Compact Disc), DVD (Digital Video Disk), 디지털 테이프, 컴퓨터 메모리 등; 및 송신 타입 매체 이를테면 디지털 및/또는 아날로그 통신 매체 (예를 들면, 광섬유 케이블, 도파관, 유선 통신 링크, 무선 통신 링크 등) 을 비한정적으로 포함한다.
당업자는 여기에 설명된 방식으로 디바이스들 및/또는 프로세스들을 기술하고, 그 후에 그러한 기술된 디바이스들 및/또는 프로세스들을 데이터 프로세싱 시스템으로 통합하기 위해 엔지니어링 관행 (engineering practices) 을 이용하는 것이 당해 기술 분야에서 일반적이라는 것을 인식할 것이다. 즉, 여기에 설명된 디바이스들 및/또는 프로세스들 중 적어도 일부는 합당한 량의 실험을 통해 데이터 프로세싱 시스템으로 통합될 수도 있다. 당업자는 통상적인 데이터 프로세싱 시스템이 일반적으로 하나 이상의 시스템 유닛 하우징, 비디오 디스플레이 디바이스, 메모리 이를테면 휘발성 및 비휘발성 메모리, 프로세서들 이를테면 마이크로프로세서들 및 디지털 신호 프로세서들, 컴퓨터 엔티티 이를테면 운영 시스템, 드라이버, 그래픽 유저 인터페이스 및 애플리케이션 프로그램, 하나 이상의 상호작용 디바이스들, 이를테면 터치 패드 또는 스크린, 및/또는 피드백 루프 및 제어 모듈들 (예를 들면, 전력을 AR 안경에 제공하는 것 또는 AR 안경의 다양한 동작 파라미터들을 조정하는 것) 을 포함하는 제어 시스템을 포함한다는 것을 인식할 것이다.
통상적인 데이터 프로세싱 시스템은 데이터 컴퓨팅/통신 및/또는 네트워크 컴퓨팅/통신 시스템에서 통상적으로 알려진 것들과 같은 임의의 적합한 상용 컴포넌트들을 이용하여 구현될 수도 있다. 여기에 설명된 요지는 때때로 다른 컴포넌트들 내에 포함되거나, 다른 컴포넌트들과 연관된, 상이한 컴포넌트들을 예시한다. 그러한 도시된 아키텍처들은 단순한 예시들이고, 사실 같은 기능을 달성하는 많은 다른 아키텍처들이 구현될 수도 있다는 것이 이해되야 한다. 개념적인 의미에서, 같은 기능을 달성하기 위한 컴포넌트들의 임의의 배열은 원하는 기능이 달성되도록 효과적으로 "연관" 된다. 그러므로, 특정 기능을 달성하기 위하여 여기에서 결합된 임의의 2개 컴포넌트들은, 아키텍처 또는 중간 컴포넌트들에 상관없이, 원하는 기능이 달성되도록 서로 "연관" 되는 것으로 볼 수도 있다. 마찬가지로, 그렇게 연관된 임의의 2개 컴포넌트들은 또한, 원하는 기능을 달성하기 위하여 서로 "작동가능하게 접속" 또는 "작동가능하게 연결" 되는 것으로 볼 수도 있고, 그렇게 연관될 수 있는 임의의 2개의 컴포넌트들은 또한 원하는 기능을 달성하기 위하여 서로 "작동가능하게 연결가능한" 것으로 볼 수도 있다. 동작 가능하게 연결가능한 것의 특정 예들은 물리적으로 연결가능한 및/또는 물리적으로 상호작용하는 컴포넌트들 및/또는 무선 상호작용가능한 및/또는 무선 상호작용하는 컴포넌트들 및/또는 논리적으로 상호작용하는 및/또는 논리적으로 상호작용가능한 컴포넌트들을 비한정적으로 포함한다.
여기에서 실질적으로 어느 복수형 및/또는 단수형 용어의 사용에 대하여, 당업자는, 문맥 및/또는 애플리케이션에 적절하게 복수형으로부터 단수형으로 그리고/또는 단수형으로부터 복수형으로 옮길 수 있다. 다양한 단수형/복수형 순열 (permutation) 은 명료성을 위해 여기에서 명시적으로 설명될 수도 있다.
일반적으로, 여기에서, 그리고 특히 첨부된 청구항들 (첨부된 청구항들의 몸체부) 에서 사용된 용어들은 일반적으로 "개방형" 용어로서 의도된다는 것이 당업자에 의해 이해될 것이다 (예를 들면, "포함하는" 은 "비한정적으로 포함하는"으로, 용어 "갖는" 은 "적어도 갖는" 으로, 용어 "포함한다"는 "비한정적으로 포함한다" 등으로 해석되야 한다). 또한, 도입된 청구항 기재의 지정된 수가 의도되는 경우, 그러한 의도는 청구항에 명시적으로 기재될 것이고, 그러한 기재의 부재시에는 그러한 의도가 존재하지 않는다는 것이 당업자에 의해 이해될 것이다. 예를 들면, 이해를 돕는 것으로서, 다음 첨부된 청구항들은 청구항 기재를 도입하는데 "적어도 하나" 및 "하나 이상" 의 도입구들의 사용을 포함할 수도 있다. 하지만, 그러한 구들의 사용은, 부정관사 "a" 또는 "an" 에 의한 청구항 기재의 도입이, 그러한 도입된 청구항 기재를 포함하는 어느 특정 청구항을 오직 하나의 그러한 기재를 포함하는 실시형태들로 한정하는 것으로 해석되지 않아야 하는데, 같은 청구항이 "하나 이상" 또는 "적어도 하나" 및 부정관사 "a" 또는 "an" 등의 도입구를 포함하는 경우에도 그러하다 (예를 들면, "a" 및/또는 "an" 은 "적어도 하나" 또는 "하나 이상" 을 의미하는 것으로 해석되야 한다); 동일한 것이 청구항 기재를 도입하기 위하여 사용된 정관사의 사용에도 적용된다. 부가적으로, 도입된 청구항 기재의 지정된 수가 명시적으로 기재되는 경우에도, 당업자는 그러한 기재가 적어도 기재된 수를 의미 (예를 들면, 다른 수식어 없는 "2 기재" 의 맨 기재 (bare recitation) 는 적어도 2 기재 또는 2 이상의 기재를 의미) 하는 것으로 해석되야 한다는 것을 이해할 것이다.
게다가, "A, B 및 C 중 적어도 하나 등" 와 유사한 관습이 사용되는 그러한 경우들에서, 일반적으로 그러한 구조는 당업자가 그 관습을 이해하는 의미로 의도된다 (예를 들면, "A, B 및 C 중 적어도 하나를 갖는 시스템" 은 A만을, B만을, C만을, A 및 B를 함께, A 및 C를 함께, B 및 C를 함께, 및/또는 A, B 및 C를 함께 갖는 등의 시스템을 비한정적으로 포함한다). 게다가, "A, B 또는 C 중 적어도 하나 등" 와 유사한 관습이 사용되는 그러한 경우들에서, 일반적으로 그러한 구조는 당업자가 그 관습을 이해하는 의미로 의도된다 (예를 들면, "A, B 또는 C 중 적어도 하나를 갖는 시스템" 은 A만을, B만을, C만을, A 및 B를 함께, A 및 C를 함께, B 및 C를 함께, 및/또는 A, B 및 C를 함께 갖는 등의 시스템을 비한정적으로 포함한다). 또한, 2 이상의 대안의 용어들을 제공하는 사실상 임의의 이접 단어 및/또는 어구는, 상세한 설명, 청구항 또는 도면에 있든지간에, 용어들 중 하나, 용어들 중 어느 하나, 또는 양자 모두의 용어들을 포함하는 가능성을 고려하는 것으로 이해되야 함이 당업자에 의해 이해될 것이다. 예를 들면, 용어 "A 또는 B" 는 "A" 또는 "B" 또는 "A 및 B" 의 가능성을 포함하는 것으로 이해될 것이다.
또한, 본 개시의 피쳐들 (features) 또는 양태들이 마쿠쉬 그룹으로 기술되는 경우, 당업자는, 본 개시가 또한 그에 의해 마쿠쉬 그룹의 임의의 개개의 멤버 (member) 또는 멤버들의 서브그룹 (subgroup) 으로 기술된다는 것을 이해할 것이다.
어느 그리고 모든 목적으로, 이를테면 작성된 설명을 제공하는 것에 관하여, 여기에 개시된 모든 범위들은 또한 어느 그리고 모든 가능한 하위범위들 및 그 하위범위들의 조합을 포함한다는 것이 당업자에 의해 이해될 것이다. 어느 열거된 범위는 같은 범위가 적어도 동등한 1/2들, 1/3들, 1/4들, 1/5들, 1/10들 등으로 분할되는 것을 충분히 기술하고 가능하게 하는 것으로 용이하게 이해될 수 있다. 비한정적인 예로서, 여기에 논의된 각 범위는 하위 1/3, 중간 1/3 및 상위 1/3 등으로 손쉽게 분할될 수 있다. 또한 당업자에 의해 이해되는 바처럼 "까지", "적어도", "초과", "미만" 등과 같은 모든 언어들은 언급된 수를 포함하며 위에서 논의된 바처럼 하위범위들로 이후에 분할될 수 있는 범위들을 지칭한다. 마지막으로, 당업자에 의해 이해되는 바처럼, 범위는 각 개개의 멤버를 포함한다. 따라서, 예를 들면, 1-3개 셀들을 갖는 그룹은 1, 2 또는 3개의 셀들을 갖는 그룹들을 지칭한다. 유사하게, 예를 들면, 1-5개 셀들을 갖는 그룹은 1, 2, 3, 4 또는 5개의 셀들을 갖는 그룹들을 지칭하는 등이다.
다양한 양태들 및 실시형태들이 여기에 개시되었지만, 다른 양태들 및 실시형태들이 당업자에게 자명할 것이다. 여기에 개시된 다양한 양태들 및 실시형태들은 예시를 위한 것이고 제한적인 것으로 의도되지 않았으며, 진정한 범위 및 사상은 다음의 청구항들에 의해 나타내어진다.

Claims (24)

  1. 근접 센서들에 기초하여 착용가능한 증강 현실 (AR) 디스플레이에 적응적으로 전력 공급하도록 구성된 시스템으로서,
    상기 착용가능한 AR 디스플레이의 좌측 암, 우측 암, 브리지 및/또는 림 중 하나 이상에 부착되는 복수의 센서들로서, 상기 센서들은,
    검출 신호를 생성하되, 상기 검출 신호는 착용자의 머리의 포지션 및/또는 상기 착용가능한 AR 디스플레이의 상태 중 하나 이상을 나타내며;
    하나 이상의 사용자 인터페이스 엘리먼트들을 제공하되, 상기 하나 이상의 사용자 인터페이스 엘리먼트들은 상기 센서들을 탭핑 또는 터칭하는 것 중 하나를 통해 상기 착용가능한 AR 디스플레이의 적어도 하나의 동작 파라미터를 제어하는 것을 가능하게 하도록 구성되는, 상기 복수의 센서들; 및
    상기 센서들에 연결된 프로세서로서, 상기 프로세서는 상기 센서들로부터의 상기 검출 신호에 기초하여 상기 착용가능한 AR 디스플레이가 파워업되야 하는지를 결정하고, 상기 착용가능한 AR 디스플레이가 파워업되야 할 때 상기 착용가능한 AR 디스플레이를 파워업하도록 구성되는, 상기 프로세서를 포함하는, 시스템.
  2. 제 1 항에 있어서,
    상기 착용가능한 AR 디스플레이의 상태는 상기 착용가능한 AR 디스플레이의 암들이 개방 포지션 또는 폐쇄 포지션 중 하나에 있는 것을 포함하는, 시스템.
  3. 제 1 항에 있어서,
    상기 센서들은 유도 센서, 자기 센서, 소나 (sonar) 센서, 광학 센서, 와전류 (Eddy-current) 센서, 기계적 스위치, 또는 열 적외선 센서 중 하나 이상을 포함하는, 시스템.
  4. 제 1 항에 있어서,
    상기 센서들 중 적어도 하나는 커패시턴스 차이를 감지하는 것에 기초하여 상기 착용자의 머리의 존재, 상기 착용자의 몸통에 대한 상기 착용자의 머리의 포지션, 및 상기 착용가능한 AR 디스플레이의 상태 중 하나 이상을 검출하도록 구성된 커패시턴스 센서인, 시스템.
  5. 삭제
  6. 제 1 항에 있어서,
    상기 복수의 센서들은 상기 착용가능한 AR 디스플레이의 상기 적어도 하나의 동작 파라미터를 제어하기 위한 사용자 입력을 수신하도록 구성되는, 시스템.
  7. 제 6 항에 있어서,
    상기 착용가능한 AR 디스플레이의 상기 적어도 하나의 동작 파라미터는 오디오 제어 또는 디스플레이 제어 중 하나를 포함하는, 시스템.
  8. 제 1 항에 있어서,
    적어도 하나의 힌지를 통해 상기 착용가능한 AR 디스플레이의 림에 부착된 가동부를 더 포함하고, 상기 가동부는 적어도 하나의 추가 센서를 포함하는, 시스템.
  9. 제 8 항에 있어서,
    상기 가동부는 상기 착용가능한 AR 디스플레이의 투시형 컴포넌트를 블록킹하는 커버 또는 디스플레이 중 하나인, 시스템.
  10. 제 8 항에 있어서,
    상기 착용가능한 AR 디스플레이의 상태는 상기 가동부가 플립업된 포지션 및 플립다운된 포지션 중 하나에 있는 것을 포함하는, 시스템.
  11. 제 10 항에 있어서,
    상기 가동부의 포지션은 상기 적어도 하나의 힌지 및 상기 적어도 하나의 추가 센서 중 하나에 의한 검출에 기초하여 결정되는, 시스템.
  12. 근접 센서들에 기초하여 착용가능한 증강 현실 (AR) 디스플레이에 적응적으로 전력 공급하도록 구성된 시스템으로서,
    상기 착용가능한 AR 디스플레이의 좌측 암, 우측 암, 브리지 및/또는 림 중 하나 이상에 부착되는 복수의 센서들로서, 상기 센서들 중 적어도 하나는 레퍼런스 노드에 연결된 커패시티브 센서로, 상기 커패시티브 센서는 레퍼런스 노드와 외부 노드 사이의 커패시턴스의 값 차이를,
    그라운드에 정전용량적으로 (capacitively) 연결된, 착용자의 머리 근처의 작은 평행 플레이트를 갖는 회로의 특성의 결정;
    하나 이상의 센서 플레이트들 사이의 전하 수송의 결정; 및
    2 개의 센서 플레이트들 사이에 미지의 유전체를 갖는 상기 2 개의 센서 플레이트들의 커패시턴스 변화의 결정
    중 하나에 의해 측정하도록 구성되는, 상기 복수의 센서들; 및
    상기 커패시티브 센서에 연결된 전압 측정 디바이스로서, 상기 값 차이를 입력으로서 수신하도록 구성되고, 또한 상기 착용가능한 AR 디스플레이에 언제 전력을 제공할지를 결정하도록 구성되는 데이터 출력을 제공하도록 구성되는, 전압 측정 디바이스를 포함하는, 시스템.
  13. 제 12 항에 있어서,
    상기 레퍼런스 노드는 레퍼런스 커패시턴스인, 시스템.
  14. 제 12 항에 있어서,
    상기 외부 노드는 사람인, 시스템.
  15. 제 12 항에 있어서,
    상기 전압 측정 디바이스에 연결된 프로세서를 더 포함하고, 상기 프로세서는 상기 전압 측정 디바이스로부터 상기 데이터 출력을 수신하고, 룩업 테이블에서의 복수의 저장된 값들에 상기 데이터 출력을 비교하고, 상기 착용가능한 AR 디스플레이에 언제 전력을 제공할지를 결정하도록 구성되는, 시스템.
  16. 제 15 항에 있어서,
    상기 프로세서는 또한 상기 복수의 저장된 값들에의 상기 데이터 출력의 비교에 응답하여 저전력 모드로 상기 착용가능한 AR 디스플레이를 전환시키도록 구성되는, 시스템.
  17. 제 12 항에 있어서,
    상기 커패시티브 센서는 근처 그라운드 및 표유 전자계에 대한 감도를 감소시키기 위한 액티브 실드를 포함하는, 시스템.
  18. 제 12 항에 있어서,
    상기 커패시티브 센서는 소수성 재료로 코팅되어 물 및/또는 땀의 센서 측정 간섭을 방지하는, 시스템.
  19. 근접 센서들을 통해 착용가능한 증강 현실 (AR) 디스플레이의 동작 양태의 제어 방법으로서,
    상기 착용가능한 AR 디스플레이의 좌측 암, 우측 암, 브리지 및/또는 림 중 하나 이상에 부착되는 복수의 센서들 중 적어도 하나로부터 센스 신호를 수신하는 단계로서, 상기 복수의 센서들 중 적어도 하나는, 상기 수신된 센스 신호의 값을 결정하기 위해서 레퍼런스 커패시턴스와 상기 AR 디스플레이의 착용자 사이의 커패시턴스의 값 차이를 측정하도록 구성된, 커패시티브 센서로, 상기 커패시티브 센서는 상기 레퍼런스 커패시턴스를 통해 전력이 공급되는, 상기 수신하는 단계;
    상기 수신된 센스 신호에 기초하여 상기 착용자의 머리의 포지션, 사용자 입력 및/또는 상기 착용가능한 AR 디스플레이의 상태 중 하나 이상을 결정하는 단계로서, 상기 착용자의 머리, 상기 사용자 입력 및/또는 상기 착용가능한 AR 디스플레이의 상태를 결정하기 위해서 상기 수신된 센스 신호의 값은 룩업 테이블에서 예상된 값들과 비교되는, 상기 결정하는 단계; 및
    상기 결정에 응답하여 상기 착용가능한 AR 디스플레이의 동작 양태와 연관된 액션을 수행하는 단계를 포함하는, 착용가능한 증강 현실 (AR) 디스플레이의 동작 양태의 제어 방법.
  20. 제 19 항에 있어서,
    상기 착용가능한 AR 디스플레이의 동작 양태와 연관된 액션은 상기 AR 디스플레이를 파워업하는 것, 상기 AR 디스플레이를 파워다운하는 것, 상기 AR 디스플레이를 저전력 모드로 전환시키는 것, 오디오 제어를 조정하는 것 및/또는 디스플레이 제어를 조정하는 것 중 하나 이상을 포함하는, 착용가능한 증강 현실 (AR) 디스플레이의 동작 양태의 제어 방법.
  21. 제 19 항에 있어서,
    상기 복수의 센서들은 커패시티브 센서, 유도 센서, 자기 센서, 소나 (sonar) 센서, 광학 센서, 와전류 (Eddy-current) 센서, 또는 열 적외선 센서 중 하나 이상을 포함하는, 착용가능한 증강 현실 (AR) 디스플레이의 동작 양태의 제어 방법.
  22. 제 19 항에 있어서,
    상기 착용자의 몸통에 대한 상기 착용자의 머리의 연속적인 포지션들을 검출하는 것에 응답하여, 검출된 좌우 모션에 기초하여 부정적인 사용자 응답 및 검출된 상하 모션에 기초하여 긍정적인 사용자 응답 중 하나 이상을 추론하는 단계를 더 포함하는, 착용가능한 증강 현실 (AR) 디스플레이의 동작 양태의 제어 방법.
  23. 센서들을 통해 착용가능한 증강 현실 (AR) 디스플레이의 동작 양태의 제어를 위한 명령들이 저장된 컴퓨터 판독가능 메모리 디바이스로서,
    상기 명령들은,
    상기 착용가능한 AR 디스플레이의 좌측 암, 우측 암, 브리지 및/또는 림 중 하나 이상에 부착된 복수의 센서들로서, 상기 복수의 센서들 중 적어도 하나는 커패시티브 센서인, 상기 복수의 센서들에서, 수신된 센스 신호에 기초하여 착용자의 머리의 포지션, 사용자 입력 및/또는 상기 착용가능한 AR 디스플레이의 상태 중 하나 이상을 감지하고, 하나 이상의 사용자 인터페이스 엘리먼트를 제공함으로써 상기 착용자가 탭핑 및 터칭 중 하나를 통해 상기 착용가능한 AR 디스플레이의 적어도 하나의 동작 파라미터를 제어하는 것을 가능하게 하는 것;
    프로세서에서, 상기 착용가능한 AR 디스플레이의 상태에 기초하여 상기 착용가능한 AR 디스플레이를 파워업할지 또는 파워다운할지를 결정하는 것으로서, 상기 상태는 상기 수신된 센스 신호의 값을 룩업 테이블에서 예상된 값들과 비교하는 것에 의해 결정되고, 상기 수신된 센스 신호의 값은 레퍼런스 커패시턴스와 상기 착용자 사이의 커패시턴스의 값 차이를 측정하는 상기 커패시티브 센서에 의해 결정되는 것;
    상기 프로세서에서, 감지된 상기 착용자의 머리의 포지션에 기초하여 사용자 응답을 추론하는 것; 및
    상기 프로세서에서, 추론된 상기 사용자 응답 또는 감지된 사용자 입력 중 하나에 응답하여 상기 착용가능한 AR 디스플레이의 동작 양태와 연관된 액션을 결정하는 것을 포함하는, 컴퓨터 판독가능 메모리 디바이스.
  24. 제 23 항에 있어서,
    상기 착용가능한 AR 디스플레이의 상태는, 상기 착용가능한 AR 디스플레이의 암들이 개방 포지션 또는 폐쇄 포지션 중 하나에 있거나 및/또는 상기 착용가능한 AR 디스플레이의 가동부가 플립업된 포지션 또는 플립다운된 포지션 중 하나에 있는 것 중 하나 이상을 포함하는, 컴퓨터 판독가능 메모리 디바이스.
KR1020127028682A 2010-07-20 2010-07-20 증강 현실 근접 감지 KR101431366B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2010/042532 WO2012011893A1 (en) 2010-07-20 2010-07-20 Augmented reality proximity sensing

Publications (2)

Publication Number Publication Date
KR20130029070A KR20130029070A (ko) 2013-03-21
KR101431366B1 true KR101431366B1 (ko) 2014-08-19

Family

ID=45497091

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127028682A KR101431366B1 (ko) 2010-07-20 2010-07-20 증강 현실 근접 감지

Country Status (5)

Country Link
US (2) US9606612B2 (ko)
JP (1) JP5512884B2 (ko)
KR (1) KR101431366B1 (ko)
CN (1) CN102893236B (ko)
WO (1) WO2012011893A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019074169A1 (ko) * 2017-10-11 2019-04-18 주식회사 카이비전 움직임감지 증강현실 글라스

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9167242B1 (en) * 2010-05-04 2015-10-20 Leif Meyer Sensor measurement system and method
JP2012048659A (ja) * 2010-08-30 2012-03-08 Canon Inc 画像処理装置、画像処理方法
US9144041B2 (en) * 2011-12-14 2015-09-22 Microchip Technology Incorporated Capacitive/inductive proximity detection for Wi-Fi protection
GB201203005D0 (en) 2012-02-22 2012-04-04 Polyphotonix Ltd Medical apparatus and method
US20160071550A1 (en) * 2014-09-04 2016-03-10 Vixs Systems, Inc. Video system for embedding excitement data and methods for use therewith
CN103677356B (zh) * 2012-09-03 2018-03-23 联想(北京)有限公司 电子设备
US9779550B2 (en) 2012-10-02 2017-10-03 Sony Corporation Augmented reality system
US9977503B2 (en) 2012-12-03 2018-05-22 Qualcomm Incorporated Apparatus and method for an infrared contactless gesture system
US9016857B2 (en) * 2012-12-06 2015-04-28 Microsoft Technology Licensing, Llc Multi-touch interactions on eyewear
US20140195968A1 (en) * 2013-01-09 2014-07-10 Hewlett-Packard Development Company, L.P. Inferring and acting on user intent
US9092664B2 (en) * 2013-01-14 2015-07-28 Qualcomm Incorporated Use of EMG for subtle gesture recognition on surfaces
JP6380374B2 (ja) * 2013-02-22 2018-08-29 ソニー株式会社 ヘッドマウントディスプレイ
CN104007889B (zh) * 2013-02-27 2018-03-27 联想(北京)有限公司 一种反馈方法和电子设备
US9401048B2 (en) * 2013-03-15 2016-07-26 Qualcomm Incorporated Methods and apparatus for augmented reality target detection
DE102013207064A1 (de) 2013-04-19 2014-10-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Auswahl einer Informationsquelle zur Anzeige auf einer Datenbrille
DE102013207063A1 (de) 2013-04-19 2014-10-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Auswählen einer Informationsquelle aus einer Mehrzahl von Informationsquellen zur Anzeige auf einer Anzeige einer Datenbrille
WO2016117970A1 (en) * 2015-01-23 2016-07-28 Lg Electronics Inc. Head mounted display and method of controlling therefor
KR102086511B1 (ko) * 2013-07-25 2020-03-09 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
US9575721B2 (en) 2013-07-25 2017-02-21 Lg Electronics Inc. Head mounted display and method of controlling therefor
KR102028761B1 (ko) * 2013-07-26 2019-10-04 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운티드 디스플레이 및 그 제어 방법
US9183612B2 (en) 2013-09-04 2015-11-10 Qualcomm Incorporated Wearable display device use-based data processing control
KR101510340B1 (ko) 2013-10-14 2015-04-07 현대자동차 주식회사 신체 착용 컴퓨터
KR102208195B1 (ko) 2013-11-29 2021-01-27 삼성전자주식회사 머리 착용형 디스플레이 장치에서 디스플레이 화면을 제어하는 방법, 및 머리 착용형 디스플레이 장치
US8958158B1 (en) * 2013-12-03 2015-02-17 Google Inc. On-head detection for head-mounted display
CN103677211B (zh) * 2013-12-09 2016-07-06 华为软件技术有限公司 实现增强现实应用的装置及方法
CN104808777B (zh) * 2014-01-24 2018-01-19 北京奇虎科技有限公司 判断头戴式智能设备操作有效性的装置和方法
WO2015109938A1 (zh) * 2014-01-24 2015-07-30 北京奇虎科技有限公司 判断头戴式智能设备操作有效性、鉴权信息有效性的装置和方法
US9664902B1 (en) 2014-02-05 2017-05-30 Google Inc. On-head detection for wearable computing device
US10798459B2 (en) 2014-03-18 2020-10-06 Vixs Systems, Inc. Audio/video system with social media generation and methods for use therewith
CN103869323B (zh) * 2014-04-02 2016-03-09 王静 一种头盔式彩色图像声纳及其成像方法
JP2015205114A (ja) * 2014-04-23 2015-11-19 アルプス電気株式会社 眼鏡型電子機器
EP3143459A4 (en) 2014-05-11 2017-06-21 Addon Optics Ltd. Adhesive optical film to convert an eyeglass lens to a progressive lens
KR102303115B1 (ko) 2014-06-05 2021-09-16 삼성전자 주식회사 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법
CN105204608A (zh) * 2014-06-13 2015-12-30 广州杰赛科技股份有限公司 一种基于热敏现实增强互动装置
CN105302282A (zh) * 2014-06-13 2016-02-03 广州杰赛科技股份有限公司 一种基于热敏的现实增强系统
CN105320249A (zh) * 2014-06-13 2016-02-10 广州杰赛科技股份有限公司 一种现实增强的交互方法
CN105278658A (zh) * 2014-06-13 2016-01-27 广州杰赛科技股份有限公司 一种基于热敏的显示增强方法
KR102227087B1 (ko) * 2014-07-08 2021-03-12 엘지전자 주식회사 글래스 타입 단말기 및 그것의 제어방법
US9799143B2 (en) 2014-08-15 2017-10-24 Daqri, Llc Spatial data visualization
US9830395B2 (en) * 2014-08-15 2017-11-28 Daqri, Llc Spatial data processing
US9799142B2 (en) 2014-08-15 2017-10-24 Daqri, Llc Spatial data collection
KR20160023212A (ko) * 2014-08-21 2016-03-03 엘지전자 주식회사 글래스 타입의 이동 단말기 및 그 제어방법
JP6340301B2 (ja) 2014-10-22 2018-06-06 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
WO2016069398A2 (en) 2014-10-24 2016-05-06 Emagin Corporation Microdisplay based immersive headset
US9946340B2 (en) 2014-11-06 2018-04-17 Kabushiki Kaisha Toshiba Electronic device, method and storage medium
US20160227868A1 (en) * 2015-02-10 2016-08-11 Daqri, Llc Removable face shield for augmented reality device
KR102439993B1 (ko) 2015-02-27 2022-09-06 삼성전자주식회사 방열 장치를 구비한 전자 장치 및 이의 제어 방법
US10216604B2 (en) * 2015-03-27 2019-02-26 Ca, Inc. Monitoring environmental parameters associated with computer equipment
WO2016156600A2 (en) * 2015-04-02 2016-10-06 Essilor International (Compagnie Generale D'optique) A monitoring component of the position of a head mounted device
EP3104252B1 (en) * 2015-06-09 2020-11-11 Nokia Technologies Oy Transition of a head mounted display from operation in a first power mode to operation in a second power mode
JP6407824B2 (ja) 2015-09-01 2018-10-17 株式会社東芝 メガネ型ウエアラブル端末およびこの端末を用いる方法
DE102015016228A1 (de) * 2015-12-16 2017-06-22 Focke & Co. (Gmbh & Co. Kg) Verfahren zum Betreiben einer Verpackungsanlage für Tabakartikel
US9846970B2 (en) * 2015-12-16 2017-12-19 Intel Corporation Transitioning augmented reality objects in physical and digital environments
US20170193302A1 (en) * 2016-01-05 2017-07-06 Daqri, Llc Task management system and method using augmented reality devices
CN108780228B (zh) 2016-01-19 2021-04-20 奇跃公司 利用映像的增强现实系统和方法
AU2017257549B2 (en) 2016-04-26 2021-09-09 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
US10089071B2 (en) 2016-06-02 2018-10-02 Microsoft Technology Licensing, Llc Automatic audio attenuation on immersive display devices
US10095311B2 (en) * 2016-06-15 2018-10-09 Immersion Corporation Systems and methods for providing haptic feedback via a case
CN107664841A (zh) * 2016-07-29 2018-02-06 鸿富锦精密电子(郑州)有限公司 智能眼镜及控制智能眼镜休眠唤醒的方法
US10127728B2 (en) 2016-09-30 2018-11-13 Sony Interactive Entertainment Inc. Facial feature views of user viewing into virtual reality scenes and integration of facial features into virtual reality views into scenes
CN106569339B (zh) * 2016-11-08 2019-11-15 歌尔科技有限公司 Vr头戴设备以及vr头戴设备的控制方法
CN106444041A (zh) * 2016-11-28 2017-02-22 苏州瓦纳斯数字科技有限公司 一种可调节近视度数的vr穿戴设备
CN106405844A (zh) * 2016-11-28 2017-02-15 苏州瓦纳斯数字科技有限公司 一种vr眼镜近视度数调节的方法
CN106791765A (zh) * 2016-11-29 2017-05-31 宇龙计算机通信科技(深圳)有限公司 视图界面的切换方法、装置和虚拟现实设备
US10241587B2 (en) 2016-12-22 2019-03-26 Microsoft Technology Licensing, Llc Magnetic tracker power duty cycling
CN106707512B (zh) * 2016-12-26 2023-10-27 中科海微(北京)科技有限公司 一种低功耗智能ar系统及智能ar眼镜
JP6896266B2 (ja) * 2017-04-04 2021-06-30 学校法人 中央大学 頭部筋活動検知装置
DE102018002772A1 (de) * 2017-04-06 2018-10-11 Konstantin Roggatz Minimalistische Brille mit Glasfaser induziertem hoch aufgelösten integralen Lichtfeld zur Einblendung von erweiterten virtuellen Realitäten
US10452822B2 (en) * 2017-05-02 2019-10-22 Intel Corporation Wearable devices and associated security apparatus
US20180329486A1 (en) * 2017-05-14 2018-11-15 Phillip Lucas Williams System of Avatar Management within Virtual Reality Environments
US11163155B1 (en) 2017-12-18 2021-11-02 Snap Inc. Eyewear use detection
EP3729185B1 (en) 2017-12-21 2024-01-17 Snap Inc. Wearable devices
GB2569599B (en) * 2017-12-21 2023-02-15 Snap Inc Wearable devices
US10451882B2 (en) * 2018-03-16 2019-10-22 Sharp Kabushiki Kaisha Hinged lens configuration for a compact portable head-mounted display system
US10820086B2 (en) 2018-05-30 2020-10-27 Bose Corporation Audio eyeglasses with gesture control
DE102018215850A1 (de) * 2018-09-18 2020-03-19 Bayerische Motoren Werke Aktiengesellschaft Datenbrille mit Sicherheitsmechanismus
CN109407834B (zh) 2018-10-08 2021-12-03 京东方科技集团股份有限公司 电子设备、计算机设备、空间定位系统及方法
KR102629149B1 (ko) 2019-01-03 2024-01-26 삼성전자주식회사 외부 광에 따라 디스플레이의 특성을 변경하는 전자 장치 및 방법
US11215832B2 (en) * 2019-08-27 2022-01-04 Lg Electronics Inc. Electronic device
US11526212B1 (en) * 2019-09-25 2022-12-13 Amazon Technologies, Inc. System to determine don/doff of wearable device
US11378821B2 (en) 2019-09-26 2022-07-05 AddOn Optics Ltd. Progressive lens and method of manufacture thereof
US11232834B2 (en) 2019-10-29 2022-01-25 Qualcomm Incorporated Pose estimation in extended reality systems
CN112782871A (zh) * 2019-11-11 2021-05-11 亿昇(深圳)眼镜科技有限公司 一种智能眼镜腿及其使用方法
KR102391211B1 (ko) * 2020-06-02 2022-04-28 (주)웰팩토리 스마트케어 기능성 게임플랫폼 장치
US11839829B2 (en) * 2020-06-11 2023-12-12 Universal City Studios Llc Wearable visualization device with a retractable cover
CN114545623B (zh) * 2020-11-24 2023-07-18 华为技术有限公司 智能眼镜的控制方法及智能眼镜
KR20220105194A (ko) * 2021-01-18 2022-07-27 삼성디스플레이 주식회사 표시 장치 및 표시 장치 제어 방법
CN114265212A (zh) * 2021-12-02 2022-04-01 华为终端有限公司 智能眼镜和智能眼镜佩戴检测方法
US20240036360A1 (en) * 2022-07-26 2024-02-01 Apple Inc. Wear Detection
KR102520378B1 (ko) * 2022-12-13 2023-04-11 주식회사 세전더블유엠에스 전기 융착식 이음관용 파이프 삽입 깊이 확인방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008013110A1 (fr) * 2006-07-25 2008-01-31 Nikon Corporation Appareil de sortie et appareil d'affichage d'image
JP2009130494A (ja) * 2007-11-21 2009-06-11 Nikon Corp 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663502B2 (en) 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
US7243945B2 (en) 1992-05-05 2007-07-17 Automotive Technologies International, Inc. Weight measuring systems and methods for vehicles
US7415126B2 (en) 1992-05-05 2008-08-19 Automotive Technologies International Inc. Occupant sensing system
US7660437B2 (en) 1992-05-05 2010-02-09 Automotive Technologies International, Inc. Neural network systems for vehicles
US5422653A (en) 1993-01-07 1995-06-06 Maguire, Jr.; Francis J. Passive virtual reality
US5506730A (en) 1993-09-09 1996-04-09 Litton Systems, Inc. Flip-up helmet mount for night vision goggle
US5969698A (en) 1993-11-29 1999-10-19 Motorola, Inc. Manually controllable cursor and control panel in a virtual image
US5802479A (en) 1994-09-23 1998-09-01 Advanced Safety Concepts, Inc. Motor vehicle occupant sensing systems
US6275146B1 (en) 1996-04-23 2001-08-14 Philip W. Kithil Vehicle occupant sensing
JPH1164780A (ja) * 1997-08-12 1999-03-05 Olympus Optical Co Ltd 頭部装着型映像表示装置
JP2001522063A (ja) 1997-10-30 2001-11-13 ザ マイクロオプティカル コーポレイション 眼鏡インターフェースシステム
US6356194B1 (en) * 1998-01-12 2002-03-12 Honda Giken Kogyo Kabushiki Kaisha Occupant detecting system
US7256770B2 (en) * 1998-09-14 2007-08-14 Microsoft Corporation Method for displaying information responsive to sensing a physical presence proximate to a computer input device
US7375728B2 (en) 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
JP2003076353A (ja) 2001-09-04 2003-03-14 Sharp Corp ヘッドマウント型表示装置
US8152991B2 (en) * 2005-10-27 2012-04-10 Nanomix, Inc. Ammonia nanosensors, and environmental control system
US7500746B1 (en) * 2004-04-15 2009-03-10 Ip Venture, Inc. Eyewear with radiation detection system
WO2005043218A1 (ja) 2003-10-30 2005-05-12 Brother Kogyo Kabushiki Kaisha 画像表示装置
US20050122119A1 (en) * 2003-12-05 2005-06-09 Touchram Llc Low noise proximity sensing system
US7375701B2 (en) 2004-07-01 2008-05-20 Carestream Health, Inc. Scanless virtual retinal display system
US7667962B2 (en) * 2004-08-20 2010-02-23 Mullen Jeffrey D Wireless devices with flexible monitors and keyboards
US7143648B2 (en) 2004-09-29 2006-12-05 Ferrolabs, Inc. Magnetofluidic accelerometer with capacitive sensing of inertial body position
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
JP2006205930A (ja) 2005-01-28 2006-08-10 Konica Minolta Photo Imaging Inc 映像表示装置
US7487118B2 (en) 2005-05-06 2009-02-03 Crutchfield Corporation System and method of image display simulation
CN101222957B (zh) 2005-07-14 2012-01-11 查尔斯·D·休斯顿 基于gps的观众和参与方的体育比赛系统和方法
US8050876B2 (en) * 2005-07-18 2011-11-01 Analog Devices, Inc. Automatic environmental compensation of capacitance based proximity sensors
US7599762B2 (en) 2005-08-24 2009-10-06 Rockwell Automatino Technologies, Inc. Model-based control for crane control and underway replenishment
US7868874B2 (en) * 2005-11-15 2011-01-11 Synaptics Incorporated Methods and systems for detecting a position-based attribute of an object using digital codes
US8120584B2 (en) * 2006-12-21 2012-02-21 Cypress Semiconductor Corporation Feedback mechanism for user detection of reference location on a sensing device
US20080253627A1 (en) 2007-04-11 2008-10-16 Searete LLC, a limited liability corporation of Compton scattered X-ray visualization, imaging, or information provider using image combining
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
US8817061B2 (en) 2007-07-02 2014-08-26 Cisco Technology, Inc. Recognition of human gestures by a mobile phone
JP5067850B2 (ja) 2007-08-02 2012-11-07 キヤノン株式会社 システム、頭部装着型表示装置、その制御方法
JP5388534B2 (ja) 2008-10-09 2014-01-15 キヤノン株式会社 画像処理装置およびその方法、頭部装着型ディスプレイ、プログラム、記録媒体
WO2010042884A2 (en) * 2008-10-10 2010-04-15 Internet Services, Llc Haptic otuput device for use with haptic encoded media
EP2389152A4 (en) * 2009-01-20 2016-05-11 Univ Northeastern MULTI-USER SMARTGLOVE FOR REHABILITATION BASED ON VIRTUAL ENVIRONMENTS
US8698760B2 (en) * 2009-10-29 2014-04-15 Cypress Semiconductor Corporation Method and apparatus for identification of touch panels
WO2011084709A2 (en) * 2009-12-17 2011-07-14 Mc10, Inc. Methods and apparatus for conformal sensing of force and/or change in motion
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008013110A1 (fr) * 2006-07-25 2008-01-31 Nikon Corporation Appareil de sortie et appareil d'affichage d'image
JP2009130494A (ja) * 2007-11-21 2009-06-11 Nikon Corp 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019074169A1 (ko) * 2017-10-11 2019-04-18 주식회사 카이비전 움직임감지 증강현실 글라스

Also Published As

Publication number Publication date
WO2012011893A1 (en) 2012-01-26
CN102893236A (zh) 2013-01-23
US20120056847A1 (en) 2012-03-08
JP5512884B2 (ja) 2014-06-04
US9606612B2 (en) 2017-03-28
JP2013528871A (ja) 2013-07-11
CN102893236B (zh) 2015-11-25
US20170199560A1 (en) 2017-07-13
KR20130029070A (ko) 2013-03-21
US10437309B2 (en) 2019-10-08

Similar Documents

Publication Publication Date Title
KR101431366B1 (ko) 증강 현실 근접 감지
US10635179B2 (en) Apparatus, systems, and methods for facilitating user interaction with electronic devices
US10649212B2 (en) Ground plane adjustment in a virtual reality environment
KR102385756B1 (ko) 가상 현실 환경에서 몰입된 때의 안티 트립
CN106575154B (zh) 全息对象的智能透明度
KR102308736B1 (ko) 삼차원 혼합 현실 뷰포트
US11331045B1 (en) Systems and methods for mitigating neuromuscular signal artifacts
US11287886B1 (en) Systems for calibrating finger devices
US11889291B2 (en) Head-related transfer function
US9223451B1 (en) Active capacitive sensing on an HMD
KR20240009975A (ko) 아이웨어 디바이스 동적 전력 구성
KR20240008359A (ko) 오디오 향상 증강 현실
US20190273396A1 (en) Apparatus, systems, and methods for sharing power between devices via wearers&#39; bodies
US11847794B1 (en) Self-tracked controller
US10656710B1 (en) Apparatus, systems, and methods for sensing biopotential signals via compliant electrodes
US20240012246A1 (en) Methods, Apparatuses And Computer Program Products For Providing An Eye Tracking System Based On Flexible Around The Lens Or Frame Illumination Sources
US20240012473A1 (en) Methods, Apparatuses And Computer Program Products For Providing Multi-Functional Optical Modules With Micro-Light Emitting Diodes As Eye Tracking Illumination Sources
WO2022235250A1 (en) Handheld controller with thumb pressure sensing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170629

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180718

Year of fee payment: 5