KR102321132B1 - 웨어러블 매개 현실 시스템 및 방법 - Google Patents

웨어러블 매개 현실 시스템 및 방법 Download PDF

Info

Publication number
KR102321132B1
KR102321132B1 KR1020177004691A KR20177004691A KR102321132B1 KR 102321132 B1 KR102321132 B1 KR 102321132B1 KR 1020177004691 A KR1020177004691 A KR 1020177004691A KR 20177004691 A KR20177004691 A KR 20177004691A KR 102321132 B1 KR102321132 B1 KR 102321132B1
Authority
KR
South Korea
Prior art keywords
image
sensor
computing device
projection
camera
Prior art date
Application number
KR1020177004691A
Other languages
English (en)
Other versions
KR20170036725A (ko
Inventor
레니트라 엠 듀램
글렌 제이 앤더슨
존 씨 위스트
지우세페 라파
Original Assignee
인텔 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코포레이션 filed Critical 인텔 코포레이션
Publication of KR20170036725A publication Critical patent/KR20170036725A/ko
Application granted granted Critical
Publication of KR102321132B1 publication Critical patent/KR102321132B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

웨어러블 컴퓨팅 디바이스로부터 이미지를 투사하기 위한 기술이 제공된다. 웨어러블 컴퓨팅 디바이스는 하나 이상의 센서로부터의 출력 및/또는 카메라에 의해 캡처된 이미지에 기초하여 사용자 시야 내로 이미지를 투사하도록 구성된 프로젝터를 포함한다. 웨어러블 컴퓨팅 디바이스는 터치 입력 디바이스를 또한 포함할 수 있다. 웨어러블 컴퓨팅 디바이스는 터치 입력 디바이스로부터 수신된 신호에 기초하여 사용자의 터치에 응답하여 이미지를 투사할 수 있다.

Description

웨어러블 매개 현실 시스템 및 방법 {WEARABLE MEDIATED REALITY SYSTEM AND METHOD}
현대 의복 및 다른 웨어러블 액세서리(wearable accessories)는 컴퓨팅 또는 다른 진보된 전자 기술을 합체할 수 있다. 이러한 컴퓨팅 및/또는 진보된 전자 기술은 다양한 기능적인 이유로 합체될 수 있고 또는 순수하게 미관적인 이유로 합체될 수 있다. 이러한 의복 및 다른 웨어러블 액세서리는 일반적으로 "웨어러블 기술" 또는 "웨어러블 컴퓨팅 디바이스"라 칭한다.
그러나, 웨어러블 디바이스는 통상적으로 사용가능한 디스플레이 공간의 견지에서 상당히 단점이 많다. 더 구체적으로, 사용자가 디바이스와 상호작용하는 데 이용가능한 디스플레이 공간의 양은 종종 제한된다. 이는 시계, 신발, 안경, 귀고리 등과 같은 웨어러블 디바이스에 대해 특히 그러하다. 제한된 디스플레이 공간은 디바이스의 기능성 및 사용가능성에 직접 영향을 미친다.
웨어러블 컴퓨팅 디바이스로부터의 투사(projection)는 소형 웨어러블 디스플레이에서 가능한 것보다 상당히 더 큰 영역을 갖는 디스플레이를 생성할 수 있다. 그러나, 투사된 디스플레이와 상호작용하기 위한 종래의 기술은 카메라, 미러, 및 웨어러블 센서(예를 들어, 장갑, 핑거팁 센서 등)를 필요로 한다. 이러한 부가의 장비는 웨어러블 컴퓨팅 디바이스와 연계된 사용가능성 및 사용자 경험에 불리할 수 있다.
도 1은 매개 현실 시스템(mediated reality system)의 실시예를 도시하고 있다.
도 2a 내지 도 2d는 이미지를 투사하는 매개 현실 시스템의 부분의 예를 도시하고 있다.
도 3은 도 1의 매개 현실 시스템의 부분의 예를 도시하고 있다.
도 4는 매개 현실 시스템의 다른 실시예를 도시하고 있다.
도 5 내지 도 7은 실시예에 따른 논리 흐름의 예를 도시하고 있다.
도 8은 실시예에 따른 저장 매체를 도시하고 있다.
도 9는 실시예에 따른 프로세싱 아키텍처를 도시하고 있다.
다양한 실시예는 일반적으로 매개 현실을 생성하기 위한 시스템에 관한 것이다. 달리 말하면, 본 발명은 웨어러블 컴퓨팅 디바이스로부터 디스플레이를 투사하고 디스플레이와 상호작용하는 것을 제공한다. 더 구체적으로, 몇몇 예에서, 본 발명은 터치 입력 디바이스(예를 들어, 트랙 패드, 터치 디스플레이 등) 및 프로젝터를 갖는 웨어러블 컴퓨팅 디바이스를 제공한다. 동작 중에, 프로젝터는 디스플레이를 투사할 수 있고 반면에 터치 입력 디바이스는 사용자가 터치 입력 디바이스를 거쳐 투사된 디스플레이와 상호작용할 수 있게 한다. 다른 예로서, 프로젝터를 갖는 웨어러블 컴퓨팅 디바이스가 제공된다. 웨어러블 컴퓨팅 디바이스는 사용자 콘텍스트(context)에 기초하여 표면 상에 이미지를 투사하도록 구성된다. 더 구체적으로, 디바이스는 사용자 콘텍스트에 기초하여 특정 표면 상에 특정 관점에서 이미지를 투사하도록 구성되는데, 여기서 특정 표면 및 특정 관점은 이미지가 원하는 시간에 사용자 시야 내에 있게 투사되도록 선택된다.
이제, 도면이 참조되는데, 도면에서는 유사한 도면 부호가 전체에 걸쳐 유사한 요소를 나타내는데 사용된다. 이하의 설명에서, 설명을 위해, 수많은 특정 상세가 그 철저한 이해를 제공하기 위해 설명된다. 그러나, 신규한 실시예는 이들 특정 상세 없이도 실시될 수 있다는 것이 명백할 것이다. 다른 경우에, 공지의 구조체 및 디바이스는 그 설명을 용이하게 하기 위해 블록도 형태로 도시된다. 의도는 청구범위의 범주 내의 모든 수정, 등가물, 및 대안을 커버하는 것이다.
도 1은 웨어러블 컴퓨팅 디바이스(100)를 구비하는 매개 현실 시스템(1000)의 실시예의 블록도이다. 일반적으로, 웨어러블 컴퓨팅 디바이스(100)는 표면(300) 상에 이미지를 투사하여, 투사된 이미지(200)를 생성하도록 구성된 것으로 도시되어 있다. 더 구체적으로, 컴퓨팅 디바이스(100)는 시야 내에 있는 표면(예를 들어, 표면(300)) 상에 이미지를 투사하도록 구성된다. 본 명세서에 사용될 때, 시야는 물리적 범위, 지리학적 범위, 또는 다른 범위일 수 있다. 특히, 시야는 인간(예를 들어, 하나 이상의 육안)에 의한 또는 전자 디바이스에 의한(예를 들어, 시각적 입력 디바이스 등에 의한) 지각이 가능한 범위일 수도 있다. 본 명세서에 제시된 예에서, 제시의 명료화를 위해, 용어 시야는 사용자의 관점과 동의어로 사용된다. 예를 들어, 컴퓨팅 디바이스(100)는 디바이스(100)의 사용자의 관점에 대응하는 시야 내에 투사된 이미지(200)를 생성하도록 구성될 수 있다. 그러나, 예는 이 맥락에 한정되는 것은 아니다.
더욱이, 웨어러블 컴퓨팅 디바이스(100)는 표면, 콘텍스트, 물체, 및/또는 터치 입력을 검출하고, 검출된 표면, 콘텍스트, 물체, 및/또는 터치 입력에 기초하여 프로젝터에 의해 투사될 이미지를 생성하도록 구성될 수 있다. 표면(300)은 예를 들어, 벽, 거리, 테이블 등일 수 있다는 것을 주목하는 것이 중요하다. 부가적으로, 표면(300)은 공기 또는 다른 방식의 투명한 또는 불명확한 표면일 수 있다. 이와 같이, 이미지가 그 위에 투사되는 것의 맥락에서 용어 "표면"은 한정적인 것은 아니다.
다양한 실시예에서, 웨어러블 컴퓨팅 디바이스(100)는 프로세서 구성요소(110), 그래픽 프로세싱 구성요소(GPU)(120), 저장 장치(130), 프로젝터(140), 카메라(150), 터치 입력 디바이스(160), 인터페이스(170), 및 센서(들)(180) 중 하나 이상을 구비한다. 저장 장치(130)는 제어 루틴(131), 이미지(132), 검출된 표면(들)(133), 콘텍스트 정보(134), 라이프 로깅(life logging) 정보(135), 센서 판독치(136), 및 프로젝터 제어 디렉티브(directive)(137) 중 하나 이상을 저장한다.
도시되지는 않았지만, 웨어러블 컴퓨팅 디바이스(100)는 네트워크를 거쳐 하나 이상의 다른 컴퓨팅 디바이스(도 4 참조)에 동작가능하게 접속될 수 있다. 특히, 웨어러블 컴퓨팅 디바이스(100)는 정보(예를 들어, 콘텍스트 정보, 라이프 로깅 정보, 디스플레이 정보, 터치 입력 정보 등)를 전달하는 신호를 네트워크를 통해 다른 컴퓨팅 디바이스(도 4 참조)와 교환할 수 있다. 더욱이, 이하에 더 상세히 설명되는 바와 같이, 디바이스(100)와 함께 설명된 동작 및/또는 메모리(120) 내에 저장된 것으로서 도시된 데이터는 웨어러블 컴퓨팅 디바이스(100)에 통신적으로 접속된 하나 이상의 컴퓨팅 디바이스 상에서 수행되고 그리고/또는 저장될 수 있다.
웨어러블 컴퓨팅 디바이스(100)에서, 제어 루틴(131)은 다양한 기능을 수행하도록 로직을 구현하기 위해 메인 프로세서 구성요소 및/또는 GPU로서 이들의 역할에서 프로세서 구성요소(110) 및/또는 GPU(120) 상에서 동작하는 인스트럭션의 시퀀스를 구체화한다. 제어 루틴(131)을 실행시에, 프로세서 구성요소(110) 및/또는 GPU(120)는 프로젝터(140)에 의해 투사될 이미지(132)를 결정한다. 일반적으로, 프로세서 구성요소(110) 및/또는 GPU(120)는 터치 입력 디바이스(160)로부터의 입력, 콘텍스트 정보(134), 라이프 로깅 정보(135), 및/또는 센서 판독치(136)에 기초하여 이미지(132)를 결정한다. 다양한 이미지가 웨어러블 컴퓨팅 디바이스에 의해 투사될 수 있다는 것이 이해되어야 한다. 더욱이, 특정 이미지(예를 들어, 이미지(132))는 그 일부가 구현 종속적일 수 있는 다수의 인자에 기초하여 다양할 것이다. 몇개의 예가 제시의 목적으로 여기에 제공되었지만, 이들은 한정이 되도록 의도된 것은 아니다.
몇몇 예에서, 프로세서 구성요소(110) 및/또는 GPU(120)는 웨어러블 컴퓨팅 디바이스 상에서 실행될 수 있는 특정 애플리케이션에 기초하여 이미지(132)를 결정할 수 있다. 예를 들어, 웨어러블 컴퓨팅 디바이스는 예를 들어, 이메일 애플리케이션, 연락처 관리 애플리케이션, 웹브라우저, 맵핑 애플리케이션, 휘트니스 애플리케이션, 증강 현실 애플리케이션 등과 같은, 하나 이상의 애플리케이션을 실행하도록 구성될 수 있다. 프로세서 구성요소(110) 및/또는 GPU(120)는 애플리케이션의 하나 이상의 사용자 인터페이스 구성요소에 기초하여 이미지(132)를 결정할 수 있다.
제어 루틴(131)을 실행시에, 프로세서 구성요소(110) 및/또는 GPU(120)는 프로젝터(140)가 표면(300) 상에 이미지(132)를 투사하게 하여, 투사된 이미지(200)를 생성한다. 일반적으로, 프로세서 구성요소(110) 및/또는 GPU(120)는 프로젝터(140)가 특정 표면(예를 들어, 표면(300)) 상에 이미지를 투사하게 하고 적절한 특성(예를 들어, 배향, 컬러, 키스톤 보정, 밝기 등)이 적절한 시간에 사용자의 관점 내에 있게 한다.
예시적인 이미지, 프로세서 구성요소(110) 및/또는 GPU(120)에 의한 이미지의 결정, 및 프로세싱 구성요소(110)에 의한 특정 표면의 선택이 이하에 더 상세히 설명된다. 그러나, 이러한 동작을 설명하기에 앞서, (i) 콘텍스트 정보(134)를 생성하는 것 및 (ii) 라이프 로깅 정보(135)를 생성하는 것의 예를 설명하는 것이 유리하다.
콘텍스트 정보 생성
몇몇 예에서, 프로세서 구성요소(110) 및/또는 GPU(120)는 콘텍스트 정보(134)에 기초하여 이미지(132)를 결정할 수 있다. 부가적으로, 프로세서 구성요소(110)는 콘텍스트 정보(134)에 기초하여 표면(300) 및/또는 표면(300) 상에 이미지(132)를 투사하기 위한 방법 또는 형태를 결정할 수 있다. 일반적으로, 콘텍스트 정보(134)는 웨어러블 컴퓨팅 디바이스(100) 및/또는 웨어러블 컴퓨팅 디바이스의 사용자 및/또는 주위 환경의 특정 "콘텍스트"의 표시를 포함할 수 있다. 특히, 콘텍스트 정보(134)는 액티비티 레벨, 소셜 세팅, 위치, 근접 컴퓨팅 디바이스(들), 디바이스 또는 사용자의 환경, 사용자 특성(예를 들어, 신장, 체중, 장애 등), 사용자 이동, 날짜/시간 파라미터, 운송 파라미터(예를 들어, 자동차, 항공기, 자전거 등), 디바이스 특성, 근접 사용자, 안전 파라미터, 보안 파라미터, 인증 파라미터, 센서 정보 등의 표시를 포함할 수 있다.
몇몇 예에서, 프로세싱 구성요소(110)는 센서 판독치(136)로부터 콘텍스트 정보(134)를 결정할 수 있다. 센서 판독치(136)는 센서(180)로부터 수신된 하나 이상의 신호, 판독치, 표시, 또는 정보에 대응할 수 있다. 몇몇 예에서, 센서(180)는 가속도계를 포함할 수 있다. 제어 루틴(131)을 실행시에, 프로세싱 구성요소(110)는 가속도계로부터의 출력을 수신하고 센서 판독치(136)로서 출력을 저장할 수 있다. 콘텍스트 정보(134)는 이어서, 가속도계로부터의 출력에 부분적으로 기초하여 결정된 액티비티 레벨(예를 들어, 이동하지 않는 것과 달리는 것 사이의 범위 등)의 표시를 포함할 수 있다.
몇몇 예에서, 센서(180)는 마이크로폰을 포함할 수 있다. 제어 루틴(131)을 실행시에, 프로세싱 구성요소(110)는 마이크로폰으로부터 출력을 수신하고 센서 판독치(136)에서 출력을 저장할 수 있다. 콘텍스트 정보(134)는 이어서, 마이크로폰으로부터의 출력에 부분적으로 기초하여 결정된 소셜 세팅(예를 들어, 가정에서, 지하철에서, 자동차 내에서, 사무실에서 등)의 표시를 포함할 수 있다.
몇몇 예에서, 센서(180)는 광 센서를 포함할 수 있다. 제어 루틴(131)을 실행시에, 프로세싱 구성요소(110)는 광 센서로부터 출력을 수신하고 센서 판독치(136)에서 출력을 저장할 수 있다. 콘텍스트 정보(134)는 이어서, 광 센서로부터의 출력에 부분적으로 기초하여 결정된 주위광의 표시를 포함할 수 있다.
센서(180)는 센서 어레이일 수 있고, 임의의 수의 센서를 포함할 수 있다는 것을 주목하는 것이 중요하다. 더욱이, 센서(180) 중 하나 이상은 웨어러블 컴퓨팅 디바이스(100)(예를 들어, 도 1에 도시된 바와 같이) 내에 배치될 수 있고, 센서(180) 중 하나 이상은 웨어러블 컴퓨팅 디바이스(100) 외부에 배치될 수 있다. 특히, 웨어러블 컴퓨팅 디바이스(100)는 센서(180)로부터 출력 및 신호(예를 들어, 센서 판독치의 표시를 포함함)를 수신하기 위해 센서(180)(예를 들어, 근접도 비콘, 날씨 스테이션, 사물 인터넷(Internet of Things) 등)에 통신가능하게 결합될 수 있다.
몇몇 예에서, 프로세서 구성요소(110)는 카메라(150)로부터 수신된 출력으로부터 콘텍스트 정보(134)를 결정할 수 있다. 예를 들어, 프로세서 구성요소(110)는 카메라(150)에 의해 캡처된 이미지의 표시를 포함하는 카메라로부터의 출력을 수신하고 센서 판독치(136)로서 이미지를 저장할 수 있다. 콘텍스트 정보(134)는 이어서, 카메라(150)로부터 캡처된 이미지에 부분적으로 기초하여 결정된 프라이버시 레벨(예를 들어, 그룹 내에 있는지, 하나 이상의 알려진 개인과 함께 있는지, 혼자 있는지 등)의 표시를 포함할 수 있다.
라이프 로깅 정보 생성
몇몇 예에서, 프로세싱 구성요소(110)는 센서 판독치(136) 및/또는 카메라 출력(150)으로부터 라이프 로깅 정보(135)를 결정할 수 있다. 예를 들어, 전술된 바와 같이, 센서 판독치는 카메라(150)에 의해 캡처된 이미지의 표시를 포함할 수 있다. 프로세싱 구성요소(110)는 이미지에 부분적으로 기초하여 라이프 로깅 정보(135)를 결정할 수 있다. 예를 들어, 프로세서 구성요소(110)는 방문된 위치, 아이템의 배치(예를 들어, 열쇠, 리모콘, 지갑 등)를 식별하고 이러한 정보의 표시를 라이프 로깅 정보(135)로서 저장할 수 있다.
몇몇 예에서, 센서(180)는 글로벌 포지셔닝 시스템(global positioning system: GPS) 센서를 포함할 수 있다. 제어 루틴(131)을 실행시에, 프로세싱 구성요소(110)는 GPS로부터 출력을 수신하고 출력을 센서 판독치(136)로서 저장할 수 있다. 라이프 로깅 정보(135)는 이어서, GPS 센서로부터의 출력에 부분적으로 기초하여 결정된 GPS 트랙, 방문된 영역, 특정 위치에서의 시간 등의 표시를 포함할 수 있다.
몇몇 예에서, 프로세서 구성요소(110)는 카메라(150)로부터 수신된 출력으로부터 라이프 로깅 정보(135)를 결정할 수 있다. 예를 들어, 라이프 로깅 정보(135)는 카메라(150)로부터 캡처된 이미지에 부분적으로 기초하여 결정된 아이템(예를 들어, 열쇠, 지갑, 리모콘 등)이 마지막으로 목격된 위치의 표시를 포함할 수 있다.
이미지 투사
전술된 바와 같이, 프로세싱 구성요소(110) 및/또는 GPU(120)는 이미지(132)를 결정한다. 부가적으로, 프로세싱 구성요소(110)는 이미지(1232)가 위에 투사되는 표면을 선택할 뿐만 아니라 다양한 투사 특성을 결정한다. 예를 들어, 프로세싱 구성요소(110) 및/또는 GPU(120)는 애플리케이션의 하나 이상의 사용자 인터페이스 요소, 콘텍스트 정보(134), 및/또는 라이프 로깅 정보(135)에 기초하여 이미지(132)를 결정할 수 있다.
프로세싱 구성요소(110) 및/또는 GPU(120)는 애플리케이션을 위한 사용자 인터페이스를 포함하도록 이미지(132)를 생성할 수 있다. 더욱이, 프로세싱 구성요소(110) 및/또는 GPU(120)는 터치 입력 디바이스(160)로부터 수신된 입력에 기초하여 이미지(132)를 생성하도록 구성될 수 있다. 예를 들어, 이미지(132)는 이메일 애플리케이션을 위한 사용자 인터페이스를 포함할 수 있다. 프로세싱 구성요소(110) 및/또는 GPU(120)는 터치 입력 디바이스(160)로부터 수신된 터치 입력의 표시를 포함하여, 이메일 애플리케이션 및 신호를 위한 사용자 인터페이스에 기초하여 이미지(132)를 생성할 수 있다. 더 구체적으로, 이미지(132)는 이메일 애플리케이션을 위한 사용자 인터페이스를 포함할 수 있고, 터치 입력 디바이스로부터의 입력에 기초하여 동적으로 변경될 수 있다.
몇몇 예에서, 프로세싱 구성요소(110) 및/또는 GPU(120)는 라이프 로깅 정보(135)에 기초하여 이미지(132)를 생성하도록 구성될 수 있다. 예를 들어, 이미지(132)는 하나 이상의 실제 물체(들) 위에, 주위에, 또는 인접하여 투사될 표시기(예를 들어, 화살표, 별, 윤곽, 라벨 등)를 포함할 수 있다. 이러한 방식으로, 웨어러블 컴퓨팅 디바이스(100)는 증강 현실, 특히 실제 현실을 최소한으로 침입하는 증강 현실을 제공할 수 있다. 예를 들어, 프로세싱 구성요소(110) 및/또는 GPU(120)는 그 최종 알려진 위치가 라이프 로깅 정보(135) 내에 기록되어 있는 물체를 강조하기 위해 이미지(132)를 생성할 수 있다. 다른 예로서, 프로세싱 구성요소(110) 및/또는 GPU는 라이프 로깅 정보(135) 내에 기록된 경로 또는 코스를 재추적하기 위해 이미지(132)를 생성할 수 있다.
몇몇 예에서, 프로세싱 구성요소(110) 및/또는 GPU(120)는 콘텍스트 정보(134)에 기초하여 이미지(132)를 생성하도록 구성될 수 있다. 예를 들어, 이미지(132)는 휘트니스 애플리케이션을 위한 사용자 인터페이스를 포함할 수 있다. 프로세싱 구성요소(110) 및/또는 GPU(120)는 휘트니스 애플리케이션 및 콘텍스트 정보(134)를 위한 사용자 인터페이스에 기초하여 이미지(132)를 생성할 수 있다. 특히, 이미지(132)는 콘텍스트 정보에 기초하여 변화하는 사용자 인터페이스의 구성요소를 갖는 휘트니스 애플리케이션을 위한 사용자 인터페이스를 포함할 수 있다. 예를 들어, 사용자 인터페이스는 콘텍스트 정보(134)에 기초하여 변화하는 카운트를 갖는 "반복 카운터"(예를 들어, 카운트업, 카운트다운 등)를 포함할 수 있다. 전술된 바와 같이, 콘텍스트 정보(134)는 센서(180)로부터 수신된 신호에 기초하여 이동의 표시를 포함할 수 있다.
이에 따라, 콘텍스트 정보(134)는 반복 이동이 생성하는(예를 들어, 센서(180)로부터 수신된 신호에 기초하여) 횟수를 포함할 수 있다. 이러한 정보는 이미지(132) 내에 표현될 수 있다. 특히 특정 예에서, 콘텍스트 정보(134)는 완료된 운동(예를 들어, 싯업, 푸시업, 풀업, 스쿼트, 벤치 프레스 등)의 반복 횟수를 표현할 수 있다. 프로세싱 구성요소(110) 및/또는 GPU(120)는 반복의 횟수의 표시를 포함하는 이미지(132)를 생성하도록 구성될 수 있다. 예를 들어, 이미지(132)는 완료된 반복의 수, 공지의 반복의 세트 내에 남아 있는 반복의 수 등을 포함할 수 있다.
몇몇 예에서, 프로세싱 구성요소(110) 및/또는 GPU(120)는 콘텍스트 정보(134)에 기초하여 이미지(132)를 생성하도록 구성될 수 있다. 예를 들어, 이미지(132)는 맵핑 애플리케이션을 위한 사용자 인터페이스를 포함할 수 있다. 프로세싱 구성요소(110) 및/또는 GPU(120)는 콘텍스트 정보(134) 내의 위치 정보(예를 들어, GPS 위치, 거리 인식 정보 등)에 기초하여 취하는 방향 또는 경로를 표시하기 위해 투사될 표시기(예를 들어, 화살표 등)를 포함하도록 이미지(132)를 생성할 수 있다. 프로세싱 구성요소(110) 및/또는 GPU(120)는 변화하는 콘텍스트 정보(예를 들어, 변화하는 위치 등)에 기초하여 이미지(132)를 동적으로 변화할 수 있다.
제어 루틴(131)을 실행시에, 프로세싱 구성요소(110)는 웨어러블 디바이스(100)에 인접한 표면(예를 들어, 표면(300))의 수를 검출한다. 몇몇 예에서, 프로세서 구성요소(110)는 웨어러블 컴퓨팅 디바이스(100)에 인접한 표면의 표시를 포함하여, 카메라(150)로부터 신호를 수신할 수 있다. 특히, 프로세서 구성요소(110)는 웨어러블 컴퓨팅 디바이스(100)에 인접한 표면으로서, 벽, 테이블, 플로어, 도로, 빌딩, 데스크의 에지 등을 검출할 수 있다. 달리 말하면, 프로세싱 구성요소(110)는 카메라(150)로부터 출력을 수신하고 출력에 적어도 부분적으로 기초하여 웨어러블 컴퓨팅 디바이스에 인접한 다수의 표면을 검출할 수 있다. 부가적으로, 프로세싱 구성요소(110)는 검출된 표면(133)으로서 검출된 표면의 표시를 저장할 수 있다. 몇몇 예에서, 프로세싱 구성요소(110)는 콘텍스트 정보(134) 및/또는 센서 판독치(136)에 기초하여 공간(예를 들어, 공기) 내의 점으로서 표면을 검출할 수 있다. 특히, 프로세싱 구성요소(110)는 콘텍스트 정보(134) 및/또는 센서 판독치(136) 내에 포함된 사용자의 머리의 위치, 사용자의 눈의 방향 등의 표시로부터 공간 내의 점을 검출할 수 있다.
제어 루틴(131)을 실행시에, 프로세싱 구성요소(110)는 그 위에 이미지(132)를 투사하기 위한 표면을 결정한다. 더 구체적으로, 프로세싱 구성요소(110)는 이미지(132)가 그 위에 투사될 표면(300)을 결정한다. 일반적으로, 프로세싱 구성요소(110)는 검출된 표면(133)으로부터 표면(300)을 결정한다. 몇몇 예에서, 프로세싱 구성요소(110)는 프로젝터(140)에 기초하여 표면(300)을 결정한다. 예를 들어, 프로세싱 구성요소(110)는 검출된 표면(133) 및 프로젝터(140)가 그 위에 투사하는 것이 가능한 표면의 유형(예를 들어, 편평도, 광택, 착색 등)에 기초하여 표면(300)을 결정할 수 있다. 몇몇 예에서, 프로젝터(140)는 홀로그래픽 프로젝터일 수 있다. 이와 같이, 검출된 표면(133)은 공기, 유리, 또는 다른 유형(예를 들어, LCD, CRT 등)의 프로젝터가 그 위에 투사하는 것이 적합하지 않을 수 있는 표면을 포함할 수 있다.
몇몇 예에서, 프로세싱 구성요소(110)는 이미지(132)의 콘텐트; 및 콘텍스트 정보(134) 및/또는 라이프 로깅 정보(135)에 기초하여 검출된 표면으로부터 표면(300)을 결정할 수 있다. 예를 들어, 이미지(132)가 맵핑 애플리케이션을 포함하면, 프로세싱 구성요소(110)는 콘텍스트 정보(134) 내에 표시된 이동 속도 및/또는 콘텍스트 정보(134) 내에 표시된 사용자의 관점에 기초하여 표면(300)을 결정할 수 있다. 특히, 프로세싱 구성요소(110)는 도로, 빌딩벽 등이 될 표면을 결정할 수 있다. 부가적으로, 프로세싱 구성요소(110)는 콘텍스트 정보(134)에 기초하여 투사된 이미지(200)의 초점 및/또는 해상도를 조정할 수 있다. 예를 들어, 콘텍스트 정보가 사용자의 머리가 이동하는 것(예를 들어, 사용자가 싯업 등을 행하는 것)을 표시하면, 프로세싱 구성요소(110)는 사용자의 머리가 이동함에 따라 이미지가 사용자에 초점을 유지할 수 있도록 투사된 이미지(200)의 초점을 동적으로 조정할 수 있다.
다른 예로서, 이미지(132)가 개인 및/또는 기밀 정보를 포함하면, 프로세싱 구성요소(110)는 콘텍스트 정보(134) 내에 표시된 소셜 세팅 및/또는 사용자의 관점에 기초하여 표면(300)을 결정할 수 있다. 특히, 프로세싱 구성요소(110)는 사용자에 의해 뷰잉가능하지만 소셜 세팅에서 다른 사람에 의해서는 뷰잉가능하지 않은 표면이 될 표면(300)을 결정할 수 있다.
제어 루틴(131)을 실행시에, 프로세싱 구성요소(110)는 프로젝터 제어 디렉티브(137)를 생성한다. 일반적으로, 프로젝터 제어 디렉티브(137)는 표면(300) 상에 이미지(132)를 투사하도록 프로젝터(140)에 표시하여, 투사된 이미지(200)를 생성한다. 몇몇 예에서, 프로세싱 구성요소(110)는 이미지(132)를 투사하기 위한 배향의 표시를 포함하도록 프로젝터 제어 디렉티브(137)를 생성할 수 있다. 몇몇 예에서, 프로세싱 구성요소(110)는 이미지(132)를 위한 컬러의 표시를 포함하도록 프로젝터 제어 디렉티브(137)를 생성할 수 있다. 몇몇 예에서, 프로세싱 구성요소(110)는 이미지(132)를 위한 키스톤 보정의 표시를 포함하도록 프로젝터 제어 디렉티브(137)를 생성할 수 있다. 몇몇 예에서, 프로세싱 구성요소(110)는 이미지(132)를 위한 최적의 컬러 팔레트의 표시를 포함하도록 프로젝터 제어 디렉티브(137)를 생성할 수 있다.
몇몇 예에서, 프로세싱 구성요소(110)는 이미지를 투사하는데 사용된 전력을 보존하도록 프로젝터 제어 디렉티브(137)를 생성할 수 있다. 특히, 프로세싱 구성요소(110)는 투사된 이미지(200)가 전력 소비가 감소되는 이러한 방식으로 사용자 관점에 대해 표시되도록 프로젝터 제어 디렉티브(137)를 생성할 수 있다. 예를 들어, 운동을 수행하는 사용자는 표면(300)으로부터 주기적으로 얼굴을 돌릴 수 있다(예를 들어, 반복 운동 도중, 또는 달리기 과정 중의 매 걸음마다). 이와 같이, 프로젝터 제어 디렉티브(137)는 프로젝터(140)가 이미지(132)를 주기적으로 투사하게 할 수 있다. 특히, 프로젝터(140)는 사용자가 표면(300)을 보는 것으로 예측될 때의 기간 중에 이미지(132)를 투사할 수 있고 사용자가 표면(300)을 보는 것으로 예측되지 않을 때 이미지(132)를 투사하지 않을 수 있다.
다양한 실시예에서, 프로세서 구성요소(110) 및/또는 프로세서 구성요소(210)는 임의의 광범위한 상업적으로 입수가능한 프로세서를 포함할 수 있다. 또한, 이들 프로세서 구성요소의 하나 이상은 다수의 프로세서, 멀티-스레드 프로세서(multi-threaded processor), 멀티-코어 프로세서(다수의 코어가 동일한 또는 개별 다이 상에 공존하건간에), 및/또는 다수의 물리적으로 분리된 프로세서가 소정의 방식으로 링크되어 있는 소정의 다른 다양한 멀티-프로세서 아키텍처를 포함할 수 있다.
다양한 실시예에서, GPU(120)는 임의의 광범위한 상업적으로 입수가능한 그래픽 프로세싱 유닛을 포함할 수 있다. 또한, 이들 그래픽 프로세싱 유닛의 하나 이상은 전용 메모리, 멀티 스레드 프로세싱 및/또는 소정의 다른 병렬 프로세싱 기능을 가질 수 있다.
다양한 실시예에서, 저장 장치(130)는 가능하게는 전력의 비중단된 제공을 필요로 하는 휘발성 기술을 포함하여, 그리고 가능하게는 이동식일 수도 있고 아닐 수도 있는 기계 판독가능 저장 매체의 사용을 수반하는 기술을 포함하여, 임의의 광범위한 정보 저장 장치 기술에 기초할 수 있다. 따라서, 이들 저장 장치의 각각은 이들에 한정되는 것은 아니지만, 판독 전용 메모리(read-only memory: ROM), 랜덤 액세스 메모리(random-access memory: RAM), 동적 RAM(DRAM), 더블-데이터-레이트 DRAM(DDR-DRAM), 동기식 DRAM(SDRAM), 정적 RAM(SRAM), 프로그램가능 ROM(PROM), 소거가능 프로그램가능 ROM(EPROM), 전기적 소거가능 프로그램가능 ROM(EEPROM), 플래시 메모리, 폴리머 메모리(예를 들어, 강자성 폴리머 메모리), 오보닉 메모리, 상 변화 또는 강유전성 메모리, 실리콘-산화물-질화물-산화물-실리콘(silicon-oxide-nitride-oxide-silicon: SONOS) 메모리, 자기 또는 광학 카드, 하나 이상의 개별 강자성 디스크 드라이브, 또는 하나 이상의 어레이로 편성된 복수의 저장 디바이스(예를 들어, 독립 디스크 어레이의 중복 어레이 또는 RAID 어레이로 편성된 다수의 강자성 디스크 드라이브)를 포함하여, 임의의 광범위한 유형(또는 유형의 조합)의 저장 디바이스를 포함할 수 있다. 이들 저장 장치의 각각은 단일의 블록으로서 도시되어 있지만, 이들 중 하나 이상은 상이한 저장 장치 기술에 기초할 수 있는 다수의 저장 디바이스를 포함할 수 있다는 것이 주목되어야 한다. 따라서, 예를 들어, 이들 도시된 저장 장치의 각각 중 하나 이상은, 이에 의해 프로그램 및/또는 데이터가 소정 형태의 기계-판독가능 저장 매체 상에 저장되고 전달될 수 있는 광학 드라이브 또는 플래시 메모리, 비교적 장기간 동안 프로그램 및/또는 데이터를 로컬하게 저장하기 위한 강자성 디스크 드라이브, 및 프로그램 및/또는 데이터로의 비교적 신속한 액세스를 가능하게 하는 하나 이상의 휘발성 고체 상태 메모리(예를 들어, SRAM 또는 DRAM)의 조합을 표현할 수 있다. 이들 저장 장치는 동일한 저장 장치 기술에 기초하여 다수의 저장 구성요소로 구성될 수 있지만, 이는 사용시에 특정화의 결과로서 개별적으로 유지될 수 있다는 것이 또한 주목되어야 한다(예를 들어, 몇몇 DRAM 디바이스는 메인 저장 장치로서 이용되고, 반면에 다른 DRAM 디바이스는 그래픽 콘트롤러의 별개의 프레임 버퍼로서 이용됨).
다양한 실시예에서, 프로젝터(140)는 예를 들어, LCD 프로젝터, CRT 프로젝터, LED 프로젝터, DLP 프로젝터, 홀로그래픽 프로젝터 등과 같은 임의의 다양한 프로젝터를 포함할 수 있다.
다양한 실시예에서, 카메라(150)는 3D 카메라를 포함하여, 이미지를 캡처하도록 구성된 전자 센서를 포함하는 임의의 다양한 카메라일 수 있다.
다양한 실시예에서, 터치 입력 디바이스(160)는 사용자 터치에 응답하여 출력을 생성하도록 구성된 임의의 다양한 디바이스일 수 있다. 예를 들어, 터치 입력 디바이스(160)는 용량성 터치 디바이스, 전기기계 터치 디바이스 등일 수 있다.
다양한 실시예에서, 인터페이스(170)는 컴퓨팅 디바이스가 설명된 바와 같이 다른 디바이스에 결합되는 것을 가능하게 하는 임의의 광범위한 시그널링 기술을 이용할 수 있다. 이들 인터페이스의 각각은 이러한 결합을 가능하게 하기 위해 필수 기능성의 적어도 일부를 제공하는 회로를 포함할 수 있다. 그러나, 이들 인터페이스의 각각은 또한 프로세서 구성요소의 대응하는 것들에 의해 실행된(예를 들어, 프로토콜 스택 또는 다른 특징을 구현하기 위해) 인스트럭션의 시퀀스로 적어도 부분적으로 구현될 수 있다. 전기 및/또는 광학 도전성 케이블링이 이용되는 경우에, 이들 인터페이스는 RS-232C, RS-422, USB, 이더넷(IEEE-802.3) 또는 IEEE-1394를 비한정적으로 포함하는, 임의의 광범위한 산업 표준에 순응하는 시그널링 및/또는 프로토콜을 이용할 수 있다. 무선 신호 전송의 사용이 수반되는 경우에, 이들 인터페이스는 IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.16, 802.20(통상적으로 "모바일 광대역 무선 액세스(Mobile Broadband Wireless Access)"라 칭함); 블루투스(Bluetooth); 지그비(ZigBee); 또는 범용 패킷 무선 서비스(GSM/GPRS)를 갖는 GSM, CDMA/1xRTT, 글로벌 진화를 위한 향상된 데이터 레이트(Enhanced Data Rates for Global Evolution: EDGE), 진화 데이터 온리/최적화(Evolution Data Only/Optimized: EV-DO), 데이터 및 음성을 위한 진화(Evolution For Data and Voice: EV- DV), 고속 하향링크 패킷 액세스(High Speed Downlink Packet Access: HSDPA), 고속 상향링크 패킷 액세스(High Speed Uplink Packet Access: HSUPA), 4G LTE와 같은 셀룰러 무선전화 서비스 등을 비한정적으로 포함하는, 임의의 다양한 산업 표준에 순응하는 시그널링 및/또는 프로토콜을 이용할 수 있다.
다양한 예에서, 센서(들)(180)는 예를 들어, 가속도계, 마이크로폰, 자이로스코프, GPS 센서, 자기 센서 등과 같은 하나 이상의 센서를 포함할 수 있다.
도 2a 내지 도 2d는 프로젝터 제어 디렉티브(137) 및 이미지(132)에 기초하여 프로젝터(140)에 의해 투사될 수 있는 예시적인 투사된 이미지(200)를 도시하고 있다. 일반적으로, 이미지(132)는 투사된 이미지(200)의 표시를 포함한다. 특히, 이미지(132)는 프로젝터(140)가 광을 투사하여 표면(300) 상에 표시되는 투사된 이미지(200)를 생성하데 필요한 데이터를 포함한다.
도 2a를 더 구체적으로 참조하면, 이미지(132) 및 프로젝터 제어 디렉티브(137)에 기초하여 프로젝터(140)에 의해 투사될 수 있는 예시적인 투사된 이미지(201)가 도시되어 있다. 도시된 바와 같이, 투사된 이미지(201)는 사용자 인터페이스(UI) 구성요소(211, 212, 213)를 갖는 UI(210)를 포함한다. 이메일 애플리케이션의 맥락에서, UI 구성요소(211, 212, 213)는 메일박스 내의 이메일에 대응할 수 있다. 투사된 이미지(201)는 강조된 섹션(220)을 또한 포함한다. 강조된 섹션(220)은 터치 입력 디바이스(160)로부터 수신된 신호에 기초하여 동적으로 변경될 수 있다. 예를 들어, 사용자는 터치 입력 디바이스(160)를 사용하여 UI 구성요소(211, 212, 213)를 통해 "스크롤"할 수 있다.
도 2b를 더 구체적으로 참조하면, 이미지(132) 및 프로젝터 제어 디렉티브(137)에 기초하여 프로젝터(140)에 의해 투사될 수 있는 예시적인 투사된 이미지(202)가 도시되어 있다. 도시된 바와 같이, 투사된 이미지(202)는 물체(301) 주위에 투사될 수 있다. 특히 다수의 물체(예를 들어 301-1, 301-2, 301-3, 301-4, 301-5)가 표면(300) 상에 도시되어 있다. 프로세서 구성요소(110)는 물체(301) 중 하나를 인식하고 인식된 물체 상에, 위에, 주위에 또는 인접하여 이미지를 투사하도록 구성될 수 있다. 예를 들어 ,이미지(202)는 물체(301-5) 주위의 표면(300) 상에 투사된 것으로 도시되어 있다. 이와 같이, 웨어러블 컴퓨팅 디바이스(100)는 사용자 열쇠와 같은 사용자를 위한 물체를 "강조"하거나 "포인팅"할 수 있다.
도 2c를 더 구체적으로 참조하면, 이미지(132) 및 프로젝터 제어 디렉티브(137)에 기초하여 프로젝터(140)에 의해 투사될 수 있는 예시적인 투사된 이미지(203)가 도시되어 있다. 도시된 바와 같이, 이미지(203)는 사용자 인터페이스(UI) 구성요소(231)를 갖는 UI(230)를 포함한다. 휘트니스 애플리케이션의 맥락에서, UI 구성요소(231)는 반복 카운터, 타이머 등에 대응할 수 있다. UI 구성요소(231)는 콘텍스트 정보(134)(예를 들어, 검출된 이동, 이동 시작 이후로 경과 시간 등)에 기초하여 동적으로 변경될 수 있다. 예를 들어, UI 구성요소(231)는 사용자가 액티비티의 반복 횟수 및/또는 경과 시간을 확인할 수 있도록 동적으로 변경될 수 있다.
도 2d를 더 구체적으로 참조하면, 이미지(132) 및 프로젝터 제어 디렉티브(137)에 기초하여 프로젝터(140)에 의해 투사될 수 있는 예시적인 투사된 이미지(204)가 도시되어 있다. 도시된 바와 같이, 투사된 이미지(204)는 표면(300) 상에 투사될 수 있는 표시기(예를 들어, 화살표)이다. 예를 들어, 맵핑 애플리케이션의 맥락에서, 표시기는 진행을 위한 방향의 시각적 표시를 제공하기 위해 표면(예를 들어, 인도 등) 상에 투사될 수 있다. 표시기는 콘텍스트 정보(134)(예를 들어, 검출된 이동, 검출된 위치 등)에 기초하여 동적으로 변경될 수 있다(예를 들어, 만곡된 화살표, 정지 신호 등).
도 3은 도 1의 매개 현실 시스템(1000)의 부분의 블록도이다. 일반적으로, 도 3은 시스템(1000)의 동작의 양태를 도시하고 있다. 다양한 실시예에서, 제어 루틴(131)은 운영 체제, 디바이스 드라이버 및/또는 애플리케이션 레벨 루틴(예를 들어, 소위 디스크 매체 상에 제공된 "소프트웨어 스위트", 원격 서버로부터 얻어진 "애플릿" 등) 중 하나 이상을 포함할 수 있다. 운영 체제가 포함되는 경우에, 운영 체제는 프로세서 구성요소(110) 및/또는 GPU(120) 중 어떠한 대응하는 것들에 대해서도 적절한 임의의 광범위한 입수가능한 운영 체제일 수 있다. 하나 이상의 디바이스 드라이버가 포함되는 경우에, 이들 디바이스 드라이버는 웨어러블 컴퓨팅 시스템(100)의 하드웨어 또는 소프트웨어 구성요소이든, 임의의 광범위한 다른 구성요소를 위한 지지를 제공할 수 있다.
도 3에 도시된 바와 같이, 제어 루틴(131)(예를 들어, 제어 루틴(131-1))은 표면 검출기(1314) 및 투사 조정기(projection coordinator)(1315)를 포함한다. 부가적으로, 몇몇 예에서, 제어 루틴(131)(예를 들어, 제어 루틴(131-2))은 콘텍스트 엔진(1311), 라이프 로깅 엔진(1312), 및 물체 인식 엔진(1313)을 포함한다. 몇몇 실시예에서, 콘텍스트 정보(134) 및 라이프 로깅 정보(135) 뿐만 아니라 물체 인식 및 추적의 생성이 다른 컴퓨팅 디바이스(도 4 참조)에 의해 수행될 수 있다는 것을 주목하는 것이 중요하다. 예를 들어, 웨어러블 컴퓨팅 디바이스에 통신적으로 접속된(예를 들어, 무선 네트워크 등을 거쳐) 컴퓨팅 디바이스는 더 연산적으로 집약적인 동작을 수행할 수 있다. 더욱이, 몇몇 정보(예를 들어, 콘텍스트 정보(134) 및/또는 라이프 로깅 정보(135))는 다른 컴퓨팅 디바이스 상에 저장될 수 있어, 예를 들어 웨어러블 컴퓨팅 디바이스(100) 상에 이용가능한 메모리를 보존한다.
일반적으로, 제어 루틴(131)은 이미지(132)가 표면(300) 상에 투사되게 하여, 투사된 이미지(200)를 생성한다. 특히, 제어 루틴(131)은 표면, 콘텍스트, 물체, 및/또는 터치 입력을 검출한다. 제어 루틴(131)은 사용자에 의해 뷰잉가능하게 될 특정 특성을 갖고 특정 표면 상에 프로젝터에 의해 투사될 이미지를 생성한다. 이미지, 표면, 및 특성은 검출된 표면, 콘텍스트, 물체, 및/또는 터치 입력에 기초하여 결정된다.
투사 조정기(1315)는 웨어러블 컴퓨팅 디바이스(100)의 콘텍스트의 표시를 포함하는 콘텍스트 정보(134)에 기초하여 프로젝터 제어 디렉티브(137)를 생성한다. 특히, 콘텍스트는 센서(180)로부터의 출력(예를 들어, 센서 판독치(136))에 기초하여 디바이스(100)의 콘텍스트에 관한 정보를 포함한다. 프로젝터 제어 디렉티브(137)는 프로젝터(140)가 표면(300) 상에 이미지(132)를 투사하게 하여, 투사된 이미지(200)가 사용자 뷰 및/또는 초점 내에 있게 한다.
몇몇 예에서, 투사 조정기(1315)는 콘텍스트 정보(134) 및 터치 입력 디바이스(160)로부터의 출력에 기초하여 프로젝터 제어 디렉티브를 생성한다. 더 구체적으로, 투사 조정기(1315)는 사용자가 터치 입력 디바이스(160)를 통해 투사된 이미지(200)와 상호작용하게 할 수 있다.
몇몇 예에서, 투사 조정기(1315)는 이미지를 그 위에 투사할 표면(예를 들어, 표면(300))을 결정한다. 특히, 투사 조정기(1315)는 표면 검출기에 의해 검출된 하나 이상의 표면으로부터 표면을 결정할 수 있다. 표면 검출기(1314)는 장치에 인접한 하나 이상의 표면을 검출한다. 몇몇 예에서, 표면 검출기(1314)는 카메라(150)로부터 캡처된 이미지에 기초하여 디바이스(100)에 인접한 표면을 검출한다. 투사 조정기(1315)는 사용자의 관점의 표시에 기초하여, 그 위에 이미지를 투사하기 위한 표면을 결정할 수 있다. 특히, 콘텍스트는 예를 들어 센서 판독치(136) 및/또는 카메라(150)에 의해 캡처된 이미지에 기초하여, 사용자의 관점의 표시를 포함할 수 있다.
몇몇 예에서, 투사 조정기(1315)는 (i) 사용자의 관점 및 (ii) 사용자의 관점 내의 표면을 결정한다. 예를 들어, 투사 조정기(1315)는 사용자의 관점을 추적하는데 사용된 다양한 디바이스로부터 수신된 센서 출력 및/또는 신호로부터의 사용자의 관점을 결정할 수 있다. 특히, 투사 조정기(135)는 눈 추적 디바이스, 머리 착용식 카메라, 및/또는 광의 검출가능한 투사(예를 들어, 광 검출기 등에 의해 검출됨)로부터 수신된 신호로부터 사용자의 관점을 결정할 수 있다.
부가적으로, 투사 조정기(1315)는 예를 들어, 배향, 키스톤 보정, 및 최적 컬러 팔레트 등과 같은 이미지를 투사하기 위한 하나 이상의 특성을 결정할 수 있다. 이러한 특성은 콘텍스트 정보(134), 라이프 로깅 정보(135), 또는 다른 정보에 기초할 수 있다. 프로젝터 제어 디렉티브(137)는 프로젝터(140)가 원하는 특성을 갖는 이미지(132)를 투사하게 하기 위한 이들 특성을 포함할 수 있다.
몇몇 예에서, 콘텍스트는 액티비티 레벨이다. 예를 들어, 센서(180)는 가속도계를 포함할 수 있다. 이와 같이, 콘텍스트 정보(134)는 가속도계로부터 수신된 신호에 기초하는 액티비티 레벨의 표시를 포함할 수 있다. 몇몇 예에서, 콘텍스트 정보(134)는 카메라로부터 캡처된 이미지에 기초할 수 있다. 특히, 콘텍스트 정보는 카메라(150)에 의해 캡처된 이미지에 적용된 이미지 분석 기술(예를 들어, 얼굴 인식, 위치 인식 등)에 기초하여 결정될 수 있는 것과 같은, 소셜 세팅의 표시를 포함할 수 있다.
몇몇 예에서, 센서(180)는 글로벌 포지셔닝 시스템(GPS) 센서를 포함한다. 이러한 예에서, 콘텍스트 정보(134)는 디바이스(100)의 위치의 표시를 포함할 수 있다.
몇몇 예에서, 제어 루틴(131)은 콘텍스트 엔진(1311)을 포함한다. 이러한 예에서, 콘텍스트 엔진은 네트워크 접속된 컴퓨팅 디바이스로부터 콘텍스트 정보(134)를 수신하도록 구성될 수 있다. 다른 예로서, 콘텍스트 엔진(1311)은 센서 판독치(136) 및/또는 카메라(150)에 의해 캡처된 이미지에 기초하여 콘텍스트 정보(134)를 결정하도록 구성될 수 있다.
몇몇 예에서, 투사 조정기(1315)는 라이프 로깅 정보(135)에 기초하여 프로젝터 제어 디렉티브(137)를 생성한다. 일반적으로, 라이프 로깅 정보(135)는 센서 판독치(136) 및/또는 카메라(150)에 의해 캡처된 이미지에 적어도 부분적으로 기초하여 디바이스(100)의 이력의 표시를 포함한다. 특히, 라이프 로깅 정보(135)는 디바이스에 의해 방문된 위치의 이력, 특정 물체가 배치되어 있는 장소 등을 포함할 수 있다.
몇몇 예에서, 제어 루틴은 라이프 로깅 엔진(1312)을 포함한다. 이러한 예에서, 라이프 로깅 엔진(1312)은 네트워크 접속된 컴퓨팅 디바이스로부터 라이프 로깅 정보(135)를 수신하도록 구성될 수 있다. 다른 예로서, 라이프 로깅 엔진(1312)은 센서 판독치(136) 및/또는 카메라(150)에 의해 캡처된 이미지에 기초하여 라이프 로깅 정보(135)를 결정하도록 구성될 수 있다.
몇몇 예에서, 제어 루틴(131)은 물체 인식 엔진(1313)을 포함할 수 있다. 일반적으로, 물체 인식 엔진은 카메라(150)에 의해 캡처된 이미지 내의 물체를 식별하거나 인식하도록 구성된다. 예를 들어, 물체 인식 엔진(1313)은 카메라(150)에 의해 캡처된 이미지 내의 특정 아이템(예를 들어, 열쇠, 지갑, 안경, 리모콘 등)을 검출할 수 있다. 이에 따라, 물체 인식 엔진(1313)은 디바이스(100)의 사용자 또는 착용자의 시야 내의 또는 뷰잉된 물체를 검출하도록 구성될 수 있다.
도 4는 매개 현실 시스템(1001)을 도시하고 있다. 도시된 바와 같이, 시스템(1001)은 표면(300) 상에 이미지를 투사하여, 투사된 이미지(200)를 생성하도록 구성된 웨어러블 컴퓨팅 디바이스(100)를 포함한다. 부가적으로, 시스템(1001)은 네트워크(600)를 통해 웨어러블 컴퓨팅 디바이스(100)에 통신적으로 결합된 서버(400) 및 제 2 웨어러블 컴퓨팅 디바이스(500)를 포함한다. 시스템(1001)은 도 1 및 도 3의 시스템(1000)과 함께 설명된다. 부가적으로, 제 2 웨어러블 컴퓨팅 디바이스(500)는 전술된 웨어러블 컴퓨팅 디바이스(100)에 실질적으로 유사할 수 있다. 특히, 제 2 웨어러블 컴퓨팅 디바이스(500)는 표면(301) 상에 이미지를 투사하여, 투사된 이미지(205)를 생성하는 것으로 도시되어 있다.
일반적으로, 서버(400)는 웨어러블 컴퓨팅 디바이스(100) 및/또는 제 2 웨어러블 컴퓨팅 디바이스(500)로부터 센서 판독치(136)를 수신하고 콘텍스트 정보(134) 및 라이프 로깅 정보(135)를 결정하도록 구성될 수 있다. 부가적으로, 서버(400)는 웨어러블 컴퓨팅 디바이스(100 및/또는 500)의 카메라(150)에 의해 캡처된 이미지 내의 물체를 인식하도록 구성될 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 전술된 바와 같이 이미지(132) 및 프로젝터 제어 디렉티브(137)를 생성하도록 구성될 수 있다. 더욱이, 웨어러블 컴퓨팅 디바이스(100)는 제 2 웨어러블 컴퓨팅 디바이스(500)와 조화하여 이미지(132) 및 프로젝터 제어 디렉티브(137)를 생성하도록 구성될 수 있다. 더 구체적으로, 서버(400)는 디바이스(100) 및 디바이스(500)의 모두로부터 센서 판독치에 기초하여 콘텍스트 정보(134) 및 라이프 로깅 정보(135)를 결정하도록 구성될 수 있다. 이와 같이, 웨어러블 컴퓨팅 디바이스(100)는 양 디바이스(100, 500)로부터 센서 판독치에 기초하여 이미지(132) 및 프로젝터 제어 디렉티브(137)를 생성할 수 있다. 더욱이, 웨어러블 컴퓨팅 디바이스(100)는 디바이스(500)의 투사 기능, 디바이스(500)에 인접한 표면 등에 기초하여 이미지(132) 및 프로젝터 제어 디렉티브(137)를 생성할 수 있다.
몇몇 예에서, 디바이스(100, 500)는 동일한 표면 상의 이미지의 투사를 조정할 수 있다. 더 구체적으로, 표면(300) 및 표면(301)은 몇몇 예에서 동일한 표면일 수 있다.
도 5 내지 도 7은 시스템(1000) 내의 구성요소에 의해 구현될 수 있는 논리 흐름의 예시적인 실시예를 도시하고 있다. 도시된 논리 흐름은 본 명세서에 설명된 하나 이상의 실시예에 의해 실행된 동작의 일부 또는 모두를 대표할 수 있다. 더 구체적으로, 논리 흐름은 적어도 제어 루틴(131)을 실행하는데 있어서 프로세서 구성요소(110) 및/또는 GPU(120)에 의해 수행된 동작을 예시할 수 있다. 논리 흐름은 도 1, 도 2a 내지 도 2d 및 도 3을 참조하여 설명되었지만, 예는 이 맥락에서 한정되는 것은 아니다.
도 5를 더 구체적으로 참조하면, 논리 흐름(1100)이 도시되어 있다. 논리 흐름(1100)은 블록 1110에서 시작할 수 있다. 블록 1110에서, 매개 현실 시스템의 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소(예를 들어, 시스템(1000)의 웨어러블 컴퓨팅 디바이스(100)의 프로세서 구성요소(110))가 인접 표면을 검출한다. 예를 들어, 웨어러블 컴퓨팅 디바이스(100)는 제어 루틴(131)의 투사 조정기(1315)의 실행에 의해 표면(300)을 포함하여 인접 표면을 검출하고 검출된 표면(133)으로서 인접 표면의 표시를 저장하도록 유도될 수 있다.
블록 1120으로 계속하면, 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소는 콘텍스트 정보에 부분적으로 기초하여 검출된 표면으로부터 표면을 결정한다. 예를 들어, 투사 조정기(1315)는 콘텍스트 정보(134)에 기초하여 검출된 표면(133)으로부터 표면(300)을 결정할 수 있다. 특히, 투사 조정기(1315)는, 투사된 이미지(200)가 사용자의 관점 및 초점 내에 있도록 사용자의 관점 및/또는 초점의 표시를 포함하여, 콘텍스트 정보(134)에 기초하여 표면(300)을 결정할 수 있다.
블록 1130으로 계속하면, 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소는 프로젝터가 결정된 표면 상에 이미지를 투사하게 하도록 투사 제어 디렉티브를 생성한다. 예를 들어, 투사 조정기(1315)는 프로젝터(400)가 이미지(132)를 표면(300) 상에 투사하게 하도록 프로젝터 제어 디렉티브(137)를 생성할 수 있다.
도 6을 더 구체적으로 참조하면, 논리 흐름(1200)이 도시되어 있다. 논리 흐름(1200)은 블록 1210에서 시작할 수 있다. 블록 1210에서, 매개 현실 시스템의 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소(예를 들어, 시스템(1000)의 웨어러블 컴퓨팅 디바이스(100)의 프로세서 구성요소(110))가 투사를 활성화하기 위한 요청을 수신한다. 예를 들어, 투사 조정기(1315)는 웨어러블 컴퓨팅 디바이스(100)의 투사 특징을 활성화하기 위한 요청을 수신할 수 있다(예를 들어, 음성 명령을 거쳐, 모션 제스처를 거쳐, 터치 제스처를 거쳐, 버튼 누름을 거쳐 등).
블록 1220으로 계속하면, 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소는 인접 표면을 검출한다. 예를 들어, 웨어러블 컴퓨팅 디바이스(100)는 제어 루틴(131)의 투사 조정기(1315)의 실행에 의해 표면(300)을 포함하여 인접 표면을 검출하고 검출된 표면(133)으로서 인접 표면의 표시를 저장하도록 유도될 수 있다.
블록 1230으로 계속하면, 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소는 콘텍스트 정보에 부분적으로 기초하여 검출된 표면으로부터 표면을 결정한다. 예를 들어, 투사 조정기(1315)는 콘텍스트 정보(134)에 기초하여 검출된 표면(133)으로부터 표면(300)을 결정할 수 있다. 특히, 투사 조정기(1315)는, 투사된 이미지(200)가 사용자의 관점 및 초점 내에 있도록 사용자의 관점 및/또는 초점의 표시를 포함하여, 콘텍스트 정보(134)에 기초하여 표면(300)을 결정할 수 있다.
블록 1240으로 계속하면, 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소는 사용자의 터치의 표시를 포함하는 신호를 터치 입력 디바이스로부터 수신한다. 예를 들어, 투사 조정기(1315)는 터치 입력 디바이스(160)로부터 신호를 수신한다. 블록 1250으로 계속하면, 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소는 프로젝터가 결정된 표면 상에 이미지를 투사하게 하도록 투사 제어 디렉티브를 생성하고, 이미지는 사용자의 터치의 수신된 표시에 응답한다. 예를 들어, 투사 조정기(1315)는 프로젝터(400)가 이미지(132)를 표면(300) 상에 투사하게 하도록 프로젝터 제어 디렉티브(137)를 생성할 수 있는데, 여기서 투사된 이미지(200)는 사용자의 터치(예를 들어, 터치 입력 디바이스(160)로부터 수신된 신호)에 응답한다.
도 7을 더 구체적으로 참조하면, 논리 흐름(1300)이 도시되어 있다. 논리 흐름(1300)은 블록 1310에서 시작할 수 있다. 블록 1310에서, 매개 현실 시스템의 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소(예를 들어, 시스템(1000)의 웨어러블 컴퓨팅 디바이스(100)의 프로세서 구성요소(110))가 투사를 활성화하기 위한 요청을 수신한다. 예를 들어, 투사 조정기(1315)는 웨어러블 컴퓨팅 디바이스(100)의 투사 특징을 활성화하기 위한 요청을 수신할 수 있다(예를 들어, 음성 명령을 거쳐, 모션 제스처를 거쳐, 터치 제스처를 거쳐, 버튼 누름을 거쳐 등).
블록 1320으로 계속하면, 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소는 인접 표면을 검출한다. 예를 들어, 웨어러블 컴퓨팅 디바이스(100)는 제어 루틴(131)의 투사 조정기(1315)의 실행에 의해 표면(300)을 포함하여 인접 표면을 검출하고 검출된 표면(133)으로서 인접 표면의 표시를 저장하도록 유도될 수 있다.
블록 1330으로 계속하면, 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소는 콘텍스트 정보에 부분적으로 기초하여 검출된 표면으로부터 표면을 결정한다. 예를 들어, 투사 조정기(1315)는 콘텍스트 정보(134)에 기초하여 검출된 표면(133)으로부터 표면(300)을 결정할 수 있다. 특히, 투사 조정기(1315)는, 투사된 이미지(200)가 사용자의 관점 및 초점 내에 있도록 사용자의 관점 및/또는 초점의 표시를 포함하여, 콘텍스트 정보(134)에 기초하여 표면(300)을 결정할 수 있다.
블록 1340으로 계속하면, 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소는 라이프 로깅 정보에 기초하여 물체의 위치를 결정한다. 특히, 프로세서 구성요소는 사용자의 시야 내의 물체의 위치를 결정한다. 예를 들어, 물체 인식 엔진(1313)은 카메라(150)에 의해 캡처된 이미지 내의 물체를 인식하고 캡처된 이미지 및/또는 사용자의 시야 내의 물체의 위치를 결정할 수 있다. 블록 1250으로 계속하면, 웨어러블 컴퓨팅 디바이스의 프로세서 구성요소는 프로젝터가 결정된 표면 상에 이미지를 투사하게 하도록 투사 제어 디렉티브를 생성하고, 이미지는 인식된 물체의 위치를 강조한다. 예를 들어, 투사 조정기(1315)는 프로젝터(400)가 이미지(132)를 표면(300) 상에 투사하게 하도록 프로젝터 제어 디렉티브(137)를 생성할 수 있는데, 여기서 투사된 이미지는 인식된 물체의 위치를 강조한다.
도 8은 저장 매체(2000)의 실시예를 도시하고 있다. 저장 매체(2000)는 제조 물품을 포함할 수 있다. 몇몇 예에서, 저장 매체(2000)는 광학, 자기 또는 반도체 저장 장치와 같은, 임의의 비일시적 컴퓨터 판독가능 매체 또는 기계 판독가능 매체를 포함할 수 있다. 저장 매체(2000)는 논리 흐름(1100, 1200, 및/또는 1300)을 구현하기 위한 인스트럭션과 같은, 다양한 유형의 컴퓨터 실행가능 인스트럭션(2001)을 저장할 수 있다. 컴퓨터 판독가능 또는 기계 판독가능 저장 매체의 예는, 휘발성 메모리 또는 비휘발성 메모리, 이동식 또는 비이동식 메모리, 소거가능 또는 비소거가능 메모리, 기록가능 또는 재기록가능 메모리 등을 포함하여, 전자 데이터를 저장하는 것이 가능한 임의의 탠저블 매체를 포함할 수 있다. 컴퓨터 실행가능 인스트럭션의 예는 소스 코드, 컴파일링된 코드, 해석된 코드, 실행가능 코드, 정적 코드, 동적 코드, 객체 지향성 코드, 시각적 코드 등과 같은 임의의 적합한 유형의 코드를 포함할 수 있다. 예는 이 맥락에 한정되는 것은 아니다.
도 9는 전술된 바와 같은 다양한 실시예를 구현하기 위해 적합한 예시적인 프로세싱 아키텍처(3000)의 실시예를 도시하고 있다. 더 구체적으로, 프로세싱 아키텍처(3000)(또는 그 변형예)는 웨어러블 컴퓨팅 디바이스(100)의 부분으로서 구현될 수 있다.
프로세싱 아키텍처(3000)는 하나 이상의 프로세서, 멀티코어 프로세서, 코프로세서, 메모리 유닛, 칩셋, 콘트롤러, 주변 장치, 인터페이스, 발진기, 타이밍 디바이스, 비디오 카드, 오디오 카드, 멀티미디어 입출력(I/O) 구성요소, 전원 등을 비한정적으로 포함하여, 디지털 프로세싱에 통상적으로 이용되는 다양한 요소를 포함할 수 있다. 본 출원에 사용될 때, 용어 "시스템" 및 "구성요소"는 디지털 프로세싱이 수행되는 컴퓨팅 디바이스의 엔티티를 칭하도록 의도되는데, 그 엔티티는 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행시의 소프트웨어이고, 이들의 예는 이 도시된 예시적인 프로세싱 아키텍처에 의해 제공된다. 예를 들어, 구성요소는 프로세서 구성요소 상에서 실행하는 프로세스, 프로세서 구성요소 자체, 광학 및/또는 자기 저장 매체를 이용할 수 있는 저장 디바이스(예를 들어, 하드 디스크 드라이브, 어레이 내의 다수의 저장 장치 드라이브 등), 소프트웨어 객체, 인스트럭션의 실행가능 시퀀스, 실행의 스레드, 프로그램, 및/또는 전체 컴퓨팅 디바이스(예를 들어, 전체 컴퓨터)일 수 있지만, 이들에 한정되는 것은 아니다. 예시로서, 서버 상에서 실행하는 애플리케이션 및 서버의 모두는 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 상주할 수 있고, 구성요소는 하나의 컴퓨팅 디바이스 상에 로컬화되고 그리고/또는 2개 이상의 컴퓨팅 디바이스 사이에 분산될 수 있다. 또한, 구성요소는 동작을 조정하기 위해 다양한 유형의 통신 매체에 의해 서로 통신적으로 결합될 수 있다. 조정은 정보의 단방향성 또는 양방향성 교환을 수반할 수 있다. 예를 들어, 구성요소는 통신 매체를 통해 통신된 신호의 형태의 정보를 통신할 수 있다. 정보는 하나 이상의 신호 라인에 할당된 신호로서 구현될 수 있다. 메시지(명령, 상태, 어드레스 또는 데이터 메시지를 포함함)는 이러한 신호 중 하나일 수 있거나 또는 복수의 이러한 신호일 수 있고, 임의의 다양한 접속부 및/또는 인터페이스를 통해 직렬로 또는 실질적으로 병렬로 전송될 수 있다.
도시된 바와 같이, 프로세싱 아키텍처(3000)를 구현하는데 있어서, 컴퓨팅 디바이스는 적어도 프로세서 구성요소(950), 저장 장치(960), 다른 디바이스로의 인터페이스(990), 및 커플링(955)을 포함할 수 있다. 설명되는 바와 같이, 그 의도된 사용 및/또는 사용의 조건을 포함하여, 프로세싱 아키텍처(3000)를 구현하는 컴퓨팅 디바이스의 다양한 양태에 따르면, 이러한 컴퓨팅 디바이스는 비한정적으로 디스플레이 인터페이스(985)와 같은 부가의 구성요소를 추가로 포함할 수 있다.
커플링(955)은 하나 이상의 버스, 점대점 상호접속부, 송수신기, 버퍼, 교차점 스위치, 및/또는 적어도 프로세서 구성요소(950)를 저장 장치(960)에 통신적으로 결합하는 다른 도전체 및/또는 로직을 포함할 수 있다. 커플링(955)은 인터페이스(990), 오디오 서브시스템(970) 및 디스플레이 인터페이스(985) 중 하나 이상에 프로세서 구성요소(950)를 또한 결합할 수 있다(이들 및/또는 다른 구성요소가 중 어느 것이 또한 존재하는지에 따라). 프로세서 구성요소(950)가 커플링(955)에 의해 이와 같이 결합된 상태로, 프로세서 구성요소(950)는 전술된 컴퓨팅 디바이스 중 프로세싱 아키텍처(3000)를 구현하는 어느 것(들)이라도, 상기에 상세히 설명된 작업 중 다양한 것을 수행하는 것이 가능하다. 커플링(955)은 이에 의해 신호가 광학적으로 그리고/또는 전기적으로 전달되는 임의의 다양한 기술 또는 기술의 조합으로 구현될 수 있다. 또한, 커플링(955)의 적어도 일부는 가속 그래픽 포트(Accelerated Graphics Port: AGP), 카드버스(CardBus), 확장형 산업 표준 아키텍처(Extended Industry Standard Architecture: E-ISA), 마이크로 채널 아키텍처(Micro Channel Architecture: MCA), 누버스(NuBus), 주변 장치 상호접속(확장)(PCI-X), PCI 익스프레스(PCI-E), 퍼스널 컴퓨터 메모리 카드 국제 연합(Personal Computer Memory Card International Association: PCMCIA) 버스, 하이퍼트랜스포트(HyperTransport)TM, 퀵패스(QuickPath) 등을 비한정적으로 포함하는 임의의 광범위한 산업 표준에 순응하는 타이밍 및/또는 프로토콜을 이용할 수 있다.
전술된 바와 같이, 프로세서 구성요소(950)(프로세서 구성요소(110 및/또는 210)에 대응함)는 임의의 광범위한 기술을 이용하고 임의의 다수의 방식으로 물리적으로 조합된 하나 이상의 코어로 구현된 임의의 광범위한 상업적으로 입수가능한 프로세서를 포함할 수 있다.
전술된 바와 같이, 저장 장치(960)(저장 장치(130 및/또는 230)에 대응함)는 임의의 광범위한 기술 또는 기술의 조합에 기초하여 하나 이상의 별개의 저장 디바이스로 구성될 수 있다. 더 구체적으로, 도시된 바와 같이, 저장 장치(960)는 휘발성 저장 장치(961)(예를 들어, RAM 기술의 하나 이상의 형태에 기초하는 고체 상태 저장 장치), 비휘발성 저장 장치(962)(예를 들어, 이들의 콘텐트를 보존하기 위해 전력의 일정한 제공을 필요로 하지 않는 고체 상태, 강자성 또는 다른 저장 장치), 및 이동식 매체 저장 장치(963)(예를 들어, 이에 의해 정보가 컴퓨팅 디바이스 사이에 전달될 수 있는 이동식 디스크 또는 고체 상태 메모리 카드 저장 장치) 중 하나 이상을 포함할 수 있다. 가능하게는 다수의 별개의 유형의 저장 장치를 포함하는 것으로서의 저장 장치(960)의 이 도시는 일 유형이 프로세서 구성요소(950)에 의한 데이터의 더 고속 조작을 가능하게 하는 상대적으로 고속 판독 및 기록 기능을 제공하고(그러나, 가능하게는 전력을 일정하게 요구하는 "휘발성" 기술을 사용함) 반면에 다른 유형은 상대적으로 고밀도의 비휘발성 저장 장치를 제공하는(그러나, 가능하게는 상대적으로 저속 판독 및 기록 기능을 제공함) 컴퓨팅 디바이스 내의 하나 초과의 유형의 저장 디바이스의 통상의 사용의 인식에 있다.
상이한 기술을 이용하는 상이한 저장 디바이스의 종종 상이한 특성이 주어지면, 이러한 상이한 저장 디바이스가 상이한 인터페이스를 통해 이들의 상이한 저장 디바이스에 결합된 상이한 저장 장치 콘트롤러를 통해 컴퓨팅 디바이스의 다른 부분에 결합되는 것이 또한 통상적이다. 예로서, 휘발성 저장 장치(961)가 존재하고 RAM 기술에 기초하는 경우에, 휘발성 저장 장치(961)는 가능하게는 행 및 열 어드레싱을 이용하는 휘발성 저장 장치(961)에 적절한 인터페이스를 제공하는 저장 장치 콘트롤러(965a)를 통해 커플링(955)에 통신적으로 결합될 수 있고, 여기서 저장 장치 콘트롤러(965a)는 휘발성 저장 장치(961) 내에 저장된 정보를 보존하는 것을 돕기 위해 열 리프레싱 및/또는 다른 유지보수 작업을 수행할 수 있다. 다른 예로서, 비휘발성 저장 장치(962)가 존재하고 하나 이상의 강자성 및/또는 고체 상태 디스크 드라이브를 포함하는 경우에, 비휘발성 저장 장치(962)는 저장 장치 콘트롤러(965b)를 통해 커플링(955)에 통신적으로 결합될 수 있어 가능하게는 정보의 블록 및/또는 실린더 및 섹터의 어드레싱을 이용하는 비휘발성 저장 장치(962)로의 적절한 인터페이스를 제공한다. 또 다른 예로서, 이동식 매체 저장 장치(963)가 존재하고 기계 판독가능 저장 매체(969)의 하나 이상의 단편을 이용하는 하나 이상의 광학 및/또는 고체 상태 디스크 드라이브를 포함하는 경우에, 이동식 매체 저장 장치(963)는 저장 장치 콘트롤러(965c)를 통해 커플링(955)에 통신적으로 결합될 수 있어 가능하게는 정보의 블록의 어드레싱을 이용하는 이동식 매체 저장 장치(963)로의 적절한 인터페이스를 제공하고, 여기서 저장 장치 콘트롤러(965c)는 기계 판독가능 저장 매체(969)의 수명을 연장하는 것에 특유한 방식으로 판독, 소거 및 기록 동작을 조정할 수 있다.
휘발성 저장 장치(961) 또는 비휘발성 저장 장치(962) 중 하나 또는 다른 하나는, 다양한 실시예를 구현하기 위해 프로세서 구성요소(950)에 의해 실행가능한 인스트럭션의 시퀀스를 포함하는 루틴이 그 각각이 기초하는 기술에 따라 저장될 수 있는 기계 판독가능 저장 매체의 형태의 제조 물품을 포함할 수 있다. 예로서, 비휘발성 저장 장치(962)가 강자성 기반 디스크 드라이브(예를 들어, 소위 "하드 드라이브")를 포함하는 경우에, 각각의 이러한 디스크 드라이브는 통상적으로 자기 응답성 입자의 코팅이 그 위에 침착되고 플로피 디스켓과 같은 저장 매체에 유사한 방식으로 인스트럭션의 시퀀스와 같은 정보를 저장하기 위한 다양한 패턴으로 자기적으로 배향되어 있는 하나 이상의 회전 플래터를 이용한다. 다른 예로서, 비휘발성 저장 장치(962)는 콤팩트 플래시 카드에 유사한 방식으로, 인스트럭션의 시퀀스와 같은 정보를 저장하기 위한 고체 상태 저장 디바이스의 뱅크로 구성될 수 있다. 재차, 실행가능 루틴 및/또는 데이터를 저장하기 위해 상이한 시간에 컴퓨팅 디바이스 내에 상이한 유형의 저장 디바이스를 이용하는 것이 통상적이다. 따라서, 다양한 실시예를 구현하기 위해 프로세서 구성요소(950)에 의해 실행될 인스트럭션의 시퀀스를 포함하는 루틴은 초기에 기계 판독가능 저장 매체(969) 상에 저장될 수 있고, 이동식 매체 저장 장치(963)는 이후에 그 루틴이 실행됨에 따라 프로세서 구성요소(950)에 의한 더 고속 액세스를 가능하게 하기 위해 기계 판독가능 저장 매체(969) 및/또는 휘발성 저장 장치(961)의 계속적인 존재를 필요로 하지 않고 장기간 저장을 위해 비휘발성 저장 장치(962)에 그 루틴을 복사하는데 이용될 수 있다.
전술된 바와 같이, 인터페이스(990)(인터페이스(160 및/또는 260)에 대응함)는 하나 이상의 다른 디바이스에 컴퓨팅 디바이스를 통신적으로 결합하는데 이용될 수 있는 임의의 다양한 통신 기술에 대응하는 임의의 다양한 시그널링 기술을 이용할 수 있다. 재차, 다양한 형태의 유선 또는 무선 시그널링 중 하나 또는 모두가 가능하게는 네트워크 또는 네트워크의 상호접속된 세트를 통해, 프로세서 구성요소(950)가 입출력 디바이스(예를 들어, 도시된 예시적인 키보드(920) 또는 프린터(925)) 및/또는 컴퓨팅 디바이스와 상호작용하는 것을 가능하게 하도록 이용될 수 있다. 임의의 하나의 컴퓨팅 디바이스에 의해 종종 지원되어야 하는 다수의 유형의 시그널링 및/또는 프로토콜의 종종 상당히 상이한 특성의 인식시에, 인터페이스(990)는 다수의 상이한 인터페이스 콘트롤러(995a, 995b, 995c)를 포함하는 것으로서 도시되어 있다. 인터페이스 콘트롤러(995a)는 도시된 키보드(920)와 같은, 사용자 입력 디바이스로부터 직렬로 전송된 메시지를 수신하기 위해 임의의 다양한 유형의 유선 디지털 신호 인터페이스 또는 무선 주파수 무선 인터페이스를 이용할 수 있다. 인터페이스 콘트롤러(995b)는 도시된 네트워크(300)(가능하게는 하나 이상의 링크로 구성된 네트워크, 더 소형 네트워크, 또는 가능하게는 인터넷)를 통해 다른 컴퓨팅 디바이스에 액세스하기 위해 임의의 다양한 케이블링 기반 또는 무선 시그널링, 타이밍 및/또는 프로토콜을 이용할 수 있다. 인터페이스(995c)는 도시된 프린터(925)에 데이터를 전달하기 위해 직렬 또는 병렬 신호 전송의 사용을 가능하게 하는 임의의 다양한 전기 도전성 케이블링을 이용할 수 있다. 인터페이스(990)의 하나 이상의 인터페이스 콘트롤러를 통해 통신적으로 결합될 수 있는 디바이스의 다른 예는 마이크로폰, 리모콘, 스타일러스 펜, 카드 리더, 지문 리더, 가상 현실 상호작용 장갑, 그래픽 입력 태블릿, 조이스틱, 다른 키보드, 망막 스캐너, 터치 스크린의 터치 입력 구성요소, 트랙볼, 다양한 센서, 제스처 및/또는 얼굴 표현을 거쳐 이들 사람에 의해 시그널링된 명령 및/또는 데이터를 수락하기 위해 사람의 이동을 모니터링하는 카메라 또는 카메라 어레이, 사운드, 레이저 프린터, 잉크젯 프린터, 기계적 로봇, 밀링 기계 등을 비한정적으로 포함할 수 있다.
컴퓨팅 디바이스가 디스플레이(예를 들어, 디스플레이(150 및/또는 250)에 대응하는 도시된 예시적인 디스플레이(980))에 통신적으로 결합되는(또는 가능하게는 실제로 합체하는) 경우에, 프로세싱 아키텍처(3000)를 구현하는 이러한 컴퓨팅 디바이스는 디스플레이 인터페이스(985)를 또한 포함할 수 있다. 더 일반화된 유형의 인터페이스가 디스플레이에 통신적으로 결합하는데 이용될 수 있지만, 디스플레이 상에 다양한 형태의 콘텐트를 시각적으로 표시하는데 종종 요구되는 다소 특정화된 부가의 프로세싱, 뿐만 아니라 사용된 케이블링 기반 인터페이스의 다소 특정화된 성질은 종종 바람직한 별개의 디스플레이 인터페이스의 제공을 행한다. 디스플레이(980)의 통신적 커플링에서 디스플레이 인터페이스(985)에 의해 이용될 수 있는 유선 및/또는 무선 시그널링 기술은 임의의 다양한 아날로그 비디오 인터페이스, 디지털 비디오 인터페이스(Digital Video Interface: DVI), 디스플레이포트(DisplayPort) 등을 비한정적으로 포함하는 임의의 다양한 산업 표준에 순응하는 시그널링 및/또는 프로토콜을 사용할 수 있다.
더 일반적으로, 본 명세서에 설명되고 도시된 컴퓨팅 디바이스의 다양한 요소는 다양한 하드웨어 요소, 소프트웨어 요소, 또는 양자의 조합을 포함할 수 있다. 하드웨어 요소의 예는 디바이스, 논리 디바이스, 구성요소, 프로세서, 마이크로프로세서, 회로, 프로세서 구성요소, 회로 요소(예를 들어, 트랜지스터, 저항, 캐패시터, 인덕터 등), 집적 회로, 응용 주문형 집적 회로(application specific integrated circuits: ASIC), 프로그램가능 논리 디바이스(programmable logic devices: PLD), 디지털 신호 프로세서(digital signal processors: DSP), 필드 프로그램가능 게이트 어레이(field programmable gate array: FPGA), 메모리 유닛, 논리 게이트, 레지스터, 반도체 디바이스, 칩, 마이크로칩, 칩셋 등을 포함할 수 있다. 소프트웨어 요소는 소프트웨어 구성요소, 프로그램, 애플리케이션, 컴퓨터 프로그램, 애플리케이션 프로그램, 시스템 프로그램, 소프트웨어 개발 프로그램, 기계 프로그램, 운영 체제 소프트웨어, 미들웨어, 펌웨어, 소프트웨어 모듈, 루틴, 서브루틴, 함수, 방법, 절차, 소프트웨어 인터페이스, 응용 프로그램 인터페이스(API), 인스트럭션 세트, 컴퓨팅 코드, 컴퓨터 코드, 코드 세그먼트, 컴퓨터 코드 세그먼트, 워드, 값, 심벌, 또는 이들의 임의의 조합을 포함할 수 있다. 그러나, 실시예가 하드웨어 요소 및/또는 소프트웨어 요소를 사용하여 구현되는지 여부를 결정하는 것은, 주어진 구현예에 대해 원하는 바와 같이, 원하는 연산 레이트, 전력 레벨, 열 공차, 프로세싱 사이클 버짓, 입력 데이터 레이트, 출력 데이터 레이트, 메모리 리소스, 데이터 버스 속도 및 다른 디자인 또는 성능 제약과 같은 임의의 수의 인자에 따라 다양할 수도 있다.
몇몇 실시예는 표현 "일 실시예" 및 "실시예"를 이들의 파생어와 함께 사용하여 설명될 수 있다. 이들 용어는 실시예와 관련하여 설명된 특정 특징, 구조, 또는 특성이 적어도 하나의 실시예에 포함된다는 것을 의미한다. 본 명세서의 다양한 위치에서 구문 "일 실시예에서"의 출현은 반드시 모두 동일한 실시예를 언급하는 것은 아니다. 또한, 몇몇 실시예는 표현 "결합된" 및 "접속된"을 이들의 파생어와 함께 사용하여 설명될 수 있다. 이들 용어는 반드시 서로에 대한 동의어로서 의도된 것은 아니다. 예를 들어, 몇몇 실시예는 2개 이상의 요소가 서로 직접 물리적 또는 전기적 접촉하고 있는 것을 나타내기 위해 용어 "접속된" 및/또는 "결합된"을 사용하여 설명될 수 있다. 그러나, 용어 "결합된"은 또한 2개 이상의 요소가 서로 직접 접촉하지 않지만, 또한 여전히 서로 협동하고 또는 상호작용하는 것을 의미할 수 있다. 더욱이, 상이한 실시예로부터의 양태 또는 요소는 조합될 수 있다.
발명의 요약서는 독자가 기술적인 개시내용의 성질을 확인하게 하도록 제공된 것이라는 것이 강조된다. 이는 청구범위의 범주 또는 의미를 해석하거나 한정하는데 사용되지 않을 것이라는 이해를 갖고 제출되었다. 게다가, 상기 상세한 설명에서, 다양한 특징은 개시를 능률화하기 위해 단일 실시예에서 함께 그룹화된 것으로 보여질 수 있다. 이러한 개시의 방법은, 청구된 실시예가 각각의 청구항에 명시적으로 언급된 것보다 많은 특징을 요구하는 의도를 반영하는 것으로서 해석되어서는 안된다. 오히려, 이하의 청구범위가 반영하는 바와 같이, 발명적인 요지는 단일의 개시된 실시예의 모든 특징 미만에 있다. 따라서, 이하의 청구범위는 본 명세서에서 상세한 설명에 합체되어 있고, 각각의 청구항은 그 자체로 개별 실시예로서 자립한다. 첨부된 청구범위에서, 용어 "구비하는" 및 "여기에서"는 각각의 용어 "포함하는" 및 "여기서"의 평문 등가물로서 각각 사용된 것이다. 더욱이, 용어 "제 1", "제 2", "제 3" 등은 단지 라벨로서만 사용된 것이고, 이들의 대상에 수치적인 요구를 부여하도록 의도된 것은 아니다.
상기에 설명된 것은 개시된 아키텍처의 예를 포함한다. 물론, 구성요소 및/또는 방법론의 모든 고려가능한 조합을 설명하는 것은 가능하지 않지만, 당 기술 분야의 숙련자는 다수의 다른 조합 및 치환이 가능하다는 것을 인식할 수 있다. 이에 따라, 신규한 아키텍처는 첨부된 청구범위의 사상 및 범주 내에 있는 모든 이러한 변경, 수정 및 변형을 포함하도록 의도된다. 상세한 설명은 이제 다른 실시예에 속하는 예를 제공하는 것으로 이어진다. 이하에 제공된 예는 한정이 되도록 의도되는 것은 아니다.
예 1: 이미지를 투사하도록 구성된 웨어러블 컴퓨팅 디바이스용 장치에 있어서, 장치는 이미지를 투사하기 위한 프로젝터; 출력을 생성하기 위한 센서; 및 프로젝터 및 센서에 동작가능하게 결합된 투사 조정기를 포함하고, 투사 조정기는 센서 출력에 적어도 부분적으로 기초하여 시야를 결정하고; 프로젝터가 시야 내의 표면 상에 이미지를 투사하게 하기 위한 프로젝터 제어 디렉티브를 생성하기 위한 것인 장치.
예 2: 예 1의 장치에 있어서, 센서는 디바이스의 사용자를 위한 콘텍스트 정보를 생성하기 위한 것이고, 투사 조정기는 콘텍스트 정보에 부분적으로 기초하여 투사 제어 디렉티브를 생성하기 위한 것인 장치.
예 3: 예 1의 장치에 있어서, 센서는 제 1 센서이고, 장치는 투사 조정기에 동작가능하게 결합된 제 2 센서를 포함하고, 제 2 센서는 디바이스의 사용자를 위한 콘텍스트 정보를 생성하기 위한 것이고, 투사 조정기는 콘텍스트 정보에 부분적으로 기초하여 투사 제어 디렉티브를 생성하기 위한 것인 장치.
예 4: 예 1의 장치에 있어서, 센서는 눈 추적 디바이스, 카메라, 또는 광 검출기 중 하나 이상을 추가로 포함하고, 투사 조정기는 눈 추적 디바이스, 카메라, 또는 광 검출기로부터 수신된 신호에 기초하여 시야를 결정하기 위한 것인 장치.
예 5: 예 1의 장치에 있어서, 센서는 센서 어레이이고, 센서 어레이는 터치 입력 디바이스를 포함하고, 투사 조정기는 터치 입력 디바이스로부터 수신된 신호에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하기 위한 것인 장치.
예 6: 예 1의 장치에 있어서, 투사 조정기에 동작가능하게 결합된 카메라를 포함하고, 투사 조정기는 카메라에 의해 캡처된 이미지에 부분적으로 기초하여 소셜 세팅의 표시를 포함하는 콘텍스트 정보를 생성하고 소셜 세팅에 부분적으로 기초하여 투사 제어 디렉티브를 생성하기 위한 것인 장치.
예 7: 예 1의 장치에 있어서, 센서는 사용자를 위한 콘텍스트 정보를 생성하기 위한 것이고, 센서는 사용자의 액티비티 레벨을 표시하는 콘텍스트 정보를 생성하기 위한 가속도계를 포함하고, 투사 조정기는 콘텍스트 정보에 부분적으로 기초하여 투사 제어 디렉티브를 생성하기 위한 것인 장치.
예 8: 예 1의 장치에 있어서, 센서는 디바이스를 위한 콘텍스트 정보를 생성하기 위한 것이고, 센서는 디바이스의 위치를 표시하는 콘텍스트 정보를 생성하기 위한 글로벌 포지셔닝 시스템(GPS) 센서를 포함하고, 투사 조정기는 콘텍스트 정보에 부분적으로 기초하여 투사 제어 디렉티브를 생성하기 위한 것인 장치.
예 9: 예 2 내지 8 중 어느 하나의 장치에 있어서, 네트워크 접속된 컴퓨팅 디바이스로부터 콘텍스트 정보를 수신하기 위한 콘텍스트 엔진을 포함하는 장치.
예 10: 예 2 내지 8 중 어느 하나의 장치에 있어서, 센서 출력에 기초하여 콘텍스트 정보를 결정하기 위한 콘텍스트 엔진을 포함하는 장치.
예 11: 예 1의 장치에 있어서, 투사 조정기는 라이프 로깅 정보에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하기 위한 것이고, 라이프 로깅 정보는 센서 출력에 부분적으로 기초하는 디바이스의 이력의 표시를 포함하는 장치.
예 12: 예 1의 장치에 있어서, 투자 조정기에 동작가능하게 결합된 카메라를 포함하고, 투사 조정기는 라이프 로깅 정보에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하기 위한 것이고, 라이프 로깅 정보는 카메라에 의해 캡처된 이미지에 부분적으로 기초하는 디바이스의 이력의 표시를 포함하는 장치.
예 13: 예 12의 장치에 있어서, 투사 조정기는 카메라에 의해 캡처된 이미지 내에 인식된 물체에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하기 위한 것인 장치.
예 14: 예 13의 장치에 있어서, 네트워크 접속된 컴퓨팅 디바이스로부터 인식된 물체의 표시를 수신하기 위한 물체 인식 엔진을 포함하는 장치.
예 15: 예 11 내지 14 중 어느 하나의 장치에 있어서, 네트워크 접속된 컴퓨팅 디바이스로부터 라이프 로깅 정보를 수신하기 위한 라이프 로깅 엔진을 포함하는 장치.
예 16: 예 11 내지 14 중 어느 하나의 장치에 있어서, 센서 출력에 기초하여 라이프 로깅 정보를 결정하기 위한 라이프 로깅 엔진을 포함하는 장치.
예 17: 예 12 내지 14 중 어느 하나의 장치에 있어서, 카메라에 의해 캡처된 이미지에 기초하여 라이프 로깅 정보를 결정하기 위한 라이프 로깅 엔진을 포함하는 장치.
예 18: 예 1의 장치에 있어서, 투사 조정기에 동작가능하게 결합된 표면 검출기를 포함하고, 표면 검출기는 장치에 인접한 하나 이상의 표면을 검출하기 위한 것인 장치.
예 19: 예 18의 장치에 있어서, 투사 조정기 및 표면 검출기에 동작가능하게 결합된 카메라를 포함하고, 표면 검출기는 카메라에 의해 캡처된 이미지에 기초하여 하나 이상의 표면을 검출하기 위한 것인 장치.
예 20: 예 18 내지 19 중 어느 하나의 장치에 있어서, 투사 조정기는 콘텍스트 정보에 적어도 부분적으로 기초하여 하나 이상의 검출된 표면으로부터 이미지를 투사하기 위한 표면을 결정하기 위한 것인 장치.
예 21: 예 20의 장치에 있어서, 콘텍스트 정보는 시야의 표시를 포함하고, 투사 조정기는 시야에 기초하여 하나 이상의 검출된 표면으로부터 표면을 결정하기 위한 것인 장치.
예 22: 예 1 내지 21 중 어느 하나의 장치에 있어서, 프로젝터 제어 디렉티브는 배향의 표시, 키스톤 보정, 또는 최적 컬러 팔레트 중 적어도 하나를 포함하는 장치.
예 23: 예 1 내지 21 중 어느 하나의 장치에 있어서, 장치는 웨어러블 컴퓨팅 디바이스인 장치.
예 24: 예 1 내지 21 중 어느 하나의 장치에 있어서, 웨어러블 컴퓨팅 디바이스는 반지, 시계, 목걸이, 팔찌, 안경, 벨트, 신발, 장갑, 모자, 귀덮개, 귀고리, 보철물, 또는 제거형 의복을 포함하는 장치.
예 25: 예 1 내지 21 중 어느 하나의 장치에 있어서, 시야는 디바이스의 사용자에 의한 지각이 가능한 지리학적 범위인 장치.
예 26: 이미지를 투사하도록 구성된 웨어러블 컴퓨팅 디바이스에 의해 구현된 방법에 있어서, 방법은 하나 이상의 표면을 검출하는 단계; 센서로부터의 출력에 적어도 부분적으로 기초하여 시야 내의 하나 이상의 검출된 표면 중 하나를 결정하는 단계; 및 프로젝터가 시야 내의 표면 상에 이미지를 투사하게 하기 위한 프로젝터 제어 디렉티브를 생성하는 단계를 포함하는 방법.
예 27: 예 26의 방법에 있어서, 눈 추적 디바이스, 카메라, 또는 광 검출기 중 하나 이상으로부터 수신된 신호에 기초하여 시야를 결정하는 단계를 포함하는 방법.
예 28: 예 26의 방법에 있어서, 카메라에 의해 캡처된 이미지에 기초하여 하나 이상의 표면을 검출하는 단계를 포함하는 방법.
예 29: 예 26의 방법에 있어서, 센서는 센서 어레이이고, 센서 어레이는 터치 입력 디바이스를 포함하고, 방법은 터치 입력 디바이스로부터 수신된 신호에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하는 단계를 포함하는 방법.
예 30: 예 26의 방법에 있어서, 디바이스의 사용자를 위한 콘텍스트 정보를 수신하는 단계를 포함하고, 콘텍스트 정보는 센서로부터의 출력에 기초하는 방법.
예 31: 예 26의 방법에 있어서, 콘텍스트 정보를 수신하는 단계를 포함하고, 콘텍스트 정보는 카메라에 의해 캡처된 이미지에 부분적으로 기초하여 소셜 세팅의 표시를 포함하는 방법.
예 32: 예 26의 방법에 있어서, 센서는 가속도계를 포함하고, 방법은 가속도계로부터의 출력에 기초하여 사용자의 액티비티 레벨을 표시하는 콘텍스트 정보를 수신하는 단계를 포함하는 방법.
예 33: 예 26의 방법에 있어서, 센서는 글로벌 포지셔닝 시스템(GPS) 센서를 포함하고, 방법은 GPS 센서로부터의 출력에 기초하여 디바이스의 위치의 표시를 포함하는 콘텍스트 정보를 수신하는 단계를 포함하는 방법.
예 34: 예 30 내지 33 중 어느 하나의 방법에 있어서, 네트워크 접속된 컴퓨팅 디바이스로부터 콘텍스트 정보를 수신하는 단계를 포함하는 방법.
예 35: 예 30 내지 33 중 어느 하나의 방법에 있어서, 센서 출력에 기초하여 콘텍스트 정보를 결정하는 단계를 포함하는 방법.
예 36: 예 26의 방법에 있어서, 라이프 로깅 정보에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하는 단계를 포함하고, 라이프 로깅 정보는 센서 출력에 부분적으로 기초하는 장치의 이력의 표시를 포함하는 방법.
예 37: 예 26의 방법에 있어서, 라이프 로깅 정보에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하는 단계를 포함하고, 라이프 로깅 정보는 카메라에 의해 캡처된 이미지에 부분적으로 기초하는 장치의 이력의 표시를 포함하는 방법.
예 38: 예 37의 방법에 있어서, 카메라에 의해 캡처된 이미지 내에 인식된 물체에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하는 단계를 포함하는 방법.
예 39: 예 38의 방법에 있어서, 네트워크 접속된 컴퓨팅 디바이스로부터 인식된 물체의 표시를 수신하는 단계를 포함하는 방법.
예 40: 예 36 내지 39 중 어느 하나의 방법에 있어서, 네트워크 접속된 컴퓨팅 디바이스로부터 라이프 로깅 정보를 수신하는 단계를 포함하는 방법.
예 41: 예 36 내지 39 중 어느 하나의 방법에 있어서, 센서 출력에 기초하여 라이프 로깅 정보를 결정하는 단계를 포함하는 방법.
예 42: 예 36 내지 39 중 어느 하나의 방법에 있어서, 카메라에 의해 캡처된 이미지에 기초하여 라이프 로깅 정보를 결정하는 단계를 포함하는 방법.
예 43: 예 30 내지 33 중 어느 하나의 방법에 있어서, 콘텍스트에 적어도 부분적으로 기초하여 하나 이상의 검출된 표면으로부터 표면을 결정하는 단계를 포함하는 방법.
예 44: 예 43의 방법에 있어서, 콘텍스트는 시야의 표시를 포함하고, 방법은 시야에 기초하여 하나 이상의 검출된 표면으로부터 표면을 결정하는 단계를 포함하는 방법.
예 45: 예 26 내지 44 중 어느 하나의 방법에 있어서, 시야는 디바이스의 사용자에 의한 지각이 가능한 지리학적 범위인 방법.
예 46: 예 26 내지 44 중 어느 하나의 방법에 있어서, 프로젝터 제어 디렉티브는 배향의 표시, 키스톤 보정, 또는 최적 컬러 팔레트 중 적어도 하나를 포함하는 방법.
예 47: 이미지를 투사하도록 구성된 웨어러블 컴퓨팅 디바이스 상에 실행되는 것에 응답하여, 웨어러블 컴퓨팅 디바이스가 예 26 내지 46 중 어느 하나의 방법을 수행하게 하는 복수의 인스트럭션을 포함하는 적어도 하나의 기계 판독가능 매체.
예 48: 이미지를 투사하도록 구성된 웨어러블 컴퓨팅 디바이스용 장치에 있어서, 장치는 프로세서; 프로세서에 동작가능하게 접속된 프로젝터; 및 프로세서에 의해 실행되는 것에 응답하여, 프로젝터가 예 26 내지 46 중 어느 하나의 방법에 따른 표면 상에 이미지를 투사하게 하는 복수의 인스트럭션을 포함하는 메모리를 포함하는 장치.
예 49: 이미지를 투사하도록 구성된 웨어러블 컴퓨팅 디바이스용 장치에 있어서, 장치는 하나 이상의 표면을 검출하기 위한 수단; 센서로부터의 출력에 적어도 부분적으로 기초하여 시야 내의 하나 이상의 검출된 표면 중 하나를 결정하기 위한 수단; 및 프로젝터가 시야 내의 표면 상에 이미지를 투사하게 하기 위한 프로젝터 제어 디렉티브를 생성하기 위한 수단을 포함하는 장치.
예 50: 예 49의 장치에 있어서, 눈 추적 디바이스, 카메라, 또는 광 검출기 중 하나 이상으로부터 수신된 신호에 기초하여 시야를 결정하기 위한 수단을 포함하는 장치.
예 51: 예 49의 장치에 있어서, 카메라에 의해 캡처된 이미지에 기초하여 하나 이상의 표면을 검출하기 위한 수단을 포함하는 장치.
예 52: 예 49의 장치에 있어서, 센서는 센서 어레이이고, 센서 어레이는 터치 입력 디바이스를 포함하고, 장치는 터치 입력 디바이스로부터 수신된 신호에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하기 위한 수단을 포함하는 장치.
예 53: 예 49의 장치에 있어서, 디바이스의 사용자를 위한 콘텍스트 정보를 수신하기 위한 수단을 포함하고, 콘텍스트 정보는 센서로부터의 출력에 기초하는 장치.
예 54: 예 49의 장치에 있어서, 콘텍스트 정보를 수신하기 위한 수단을 포함하고, 콘텍스트 정보는 카메라에 의해 캡처된 이미지에 부분적으로 기초하여 소셜 세팅의 표시를 포함하는 장치.
예 55: 예 49의 장치에 있어서, 센서는 가속도계를 포함하고, 장치는 가속도계로부터의 출력에 기초하여 사용자의 액티비티 레벨을 표시하는 콘텍스트 정보를 수신하기 위한 수단을 포함하는 장치.
예 56: 예 49의 장치에 있어서, 센서는 글로벌 포지셔닝 시스템(GPS) 센서를 포함하고, 장치는 GPS 센서로부터의 출력에 기초하여 디바이스의 위치의 표시를 포함하는 콘텍스트 정보를 수신하기 위한 수단을 포함하는 장치.
예 57: 예 53 내지 56 중 어느 하나의 장치에 있어서, 네트워크 접속된 컴퓨팅 디바이스로부터 콘텍스트 정보를 수신하기 위한 수단을 포함하는 장치.
예 58: 예 53 내지 56 중 어느 하나의 장치에 있어서, 센서 출력에 기초하여 콘텍스트 정보를 결정하기 위한 수단을 포함하는 장치.
예 59: 예 49의 장치에 있어서, 라이프 로깅 정보에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하기 위한 수단을 포함하고, 라이프 로깅 정보는 센서 출력에 부분적으로 기초하는 장치의 이력의 표시를 포함하는 장치.
예 60: 예 49의 장치에 있어서, 라이프 로깅 정보에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하기 위한 수단을 포함하고, 라이프 로깅 정보는 카메라에 의해 캡처된 이미지에 부분적으로 기초하는 장치의 이력의 표시를 포함하는 장치.
예 61: 예 60의 장치에 있어서, 카메라에 의해 캡처된 이미지 내에 인식된 물체에 또한 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하기 위한 수단을 포함하는 장치.
예 62: 예 61의 장치에 있어서, 네트워크 접속된 컴퓨팅 디바이스로부터 인식된 물체의 표시를 수신하기 위한 수단을 포함하는 장치.
예 63: 예 59 내지 62 중 어느 하나의 장치에 있어서, 네트워크 접속된 컴퓨팅 디바이스로부터 라이프 로깅 정보를 수신하기 위한 수단을 포함하는 장치.
예 64: 예 59 내지 62 중 어느 하나의 장치에 있어서, 센서 출력에 기초하여 라이프 로깅 정보를 결정하기 위한 수단을 포함하는 장치.
예 65: 예 59 내지 62 중 어느 하나의 장치에 있어서, 카메라에 의해 캡처된 이미지에 기초하여 라이프 로깅 정보를 결정하기 위한 수단을 포함하는 장치.
예 66: 예 59 내지 62 중 어느 하나의 장치에 있어서, 콘텍스트에 적어도 부분적으로 기초하여 하나 이상의 검출된 표면으로부터 표면을 결정하기 위한 수단을 포함하는 장치.
예 67: 예 66의 장치에 있어서, 콘텍스트는 시야의 표시를 포함하고, 장치는 시야에 기초하여 하나 이상의 검출된 표면으로부터 표면을 결정하기 위한 수단을 포함하는 장치.
예 68: 예 48 내지 67 중 어느 하나의 장치에 있어서, 시야는 디바이스의 사용자에 의한 지각이 가능한 지리학적 범위인 장치.
예 69: 예 48 내지 67 중 어느 하나의 장치에 있어서, 프로젝터 제어 디렉티브는 배향의 표시, 키스톤 보정, 또는 최적 컬러 팔레트 중 적어도 하나를 포함하는 장치.

Claims (25)

  1. 웨어러블 컴퓨팅 디바이스용 장치에 있어서,
    이미지를 투사하기 위한 프로젝터;
    출력을 생성하기 위한 센서; 및
    상기 프로젝터 및 상기 센서에 동작가능하게 결합된 투사 조정기(projection coordinator)를 포함하고,
    상기 투사 조정기는
    센서 출력에 적어도 부분적으로 기초하여 시야(visual field)를 결정하고;
    라이프 로깅 정보에 부분적으로 기초하여, 상기 프로젝터가 상기 시야 내의 표면 상에 이미지를 투사하게 하고, 상기 이미지가 상기 시야 내에 객체를 강조하는 표시기(indicator)를 포함하도록 하기 위한 프로젝터 제어 디렉티브(directive)를 생성 - 상기 라이프 로깅 정보는 상기 센서 출력에 적어도 부분적으로 기초하는 상기 객체의 이력을 포함함 - 하는
    장치.
  2. 제 1 항에 있어서,
    상기 센서는 눈 추적 디바이스(eye tracking device), 카메라, 또는 광 검출기 중 하나 이상을 추가로 포함하고, 상기 투사 조정기는 상기 눈 추적 디바이스, 상기 카메라, 또는 상기 광 검출기로부터 수신된 신호에 기초하여 시야를 결정하기 위한 것인
    장치.
  3. 제 1 항에 있어서,
    상기 센서는 센서 어레이이고, 상기 센서 어레이는 터치 입력 디바이스를 포함하고, 상기 투사 조정기는 상기 터치 입력 디바이스로부터 수신된 신호에 또한 부분적으로 기초하여 상기 프로젝터 제어 디렉티브를 생성하기 위한 것인
    장치.
  4. 제 1 항에 있어서,
    상기 투사 조정기에 동작가능하게 결합된 카메라를 포함하고, 상기 투사 조정기는 상기 카메라에 의해 캡처된 이미지에 부분적으로 기초하여 소셜 세팅의 표시를 포함하는 콘텍스트 정보(context information)를 생성하고 상기 소셜 세팅에 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하기 위한 것인
    장치.
  5. 제 1 항에 있어서,
    상기 센서는 콘텍스트 정보를 생성하기 위한 것이고, 상기 투사 조정기는 상기 콘텍스트 정보에 부분적으로 기초하여 프로젝터 제어 디렉티브를 생성하기 위한 것이며,
    상기 센서는 사용자의 액티비티 레벨을 표시하는 콘텍스트 정보를 생성하기 위한 가속도계를 포함하거나, 또는 상기 센서는 디바이스의 위치를 표시하는 콘텍스트 정보를 생성하기 위한 글로벌 포지셔닝 시스템(global positioning system: GPS) 센서를 포함하는
    장치.
  6. 제 1 항에 있어서,
    상기 투사 조정기는 라이프 로깅 정보에 또한 부분적으로 기초하여 상기 프로젝터 제어 디렉티브를 생성하고, 상기 라이프 로깅 정보는 상기 센서 출력에 적어도 부분적으로 기초하여 디바이스의 이력의 표시를 포함하는
    장치.
  7. 제 1 항에 있어서,
    상기 투사 조정기에 동작가능하게 결합된 카메라를 포함하고,
    상기 라이프 로깅 정보는 상기 카메라에 의해 캡처된 이미지에 부분적으로 기초하여 디바이스의 이력의 표시를 포함하는
    장치.
  8. 제 7 항에 있어서,
    상기 투사 조정기는 상기 카메라에 의해 캡처된 이미지에서 인식된 물체(object)에 또한 부분적으로 기초하여 상기 프로젝터 제어 디렉티브를 생성하는
    장치.
  9. 제 8 항에 있어서,
    상기 카메라에 의해 캡처된 이미지에 기초하여 상기 라이프 로깅 정보를 결정하는 라이프 로깅 엔진을 포함하는
    장치.
  10. 제 8 항에 있어서,
    네트워크 접속된 컴퓨팅 디바이스로부터 상기 라이프 로깅 정보를 수신하는 라이프 로깅 엔진을 포함하는
    장치.
  11. 제 8 항에 있어서,
    네트워크 접속된 컴퓨팅 디바이스로부터 상기 인식된 물체의 표시를 수신하는 물체 인식 엔진을 포함하는
    장치.
  12. 제 1 항에 있어서,
    상기 투사 조정기에 동작가능하게 결합된 표면 검출기를 포함하고, 상기 표면 검출기는 상기 장치에 인접한 하나 이상의 표면을 검출하기 위한 것인
    장치.
  13. 제 12 항에 있어서,
    상기 투사 조정기 및 상기 표면 검출기에 동작가능하게 결합된 카메라를 포함하고, 상기 표면 검출기는 상기 카메라에 의해 캡처된 이미지에 기초하여 하나 이상의 표면을 검출하기 위한 것인
    장치.
  14. 제 13 항에 있어서,
    상기 투사 조정기는 콘텍스트 정보에 적어도 부분적으로 기초하여 하나 이상의 검출된 표면으로부터 이미지를 투사하기 위한 표면을 결정하기 위한 것인
    장치.
  15. 제 1 항에 있어서,
    상기 프로젝터 제어 디렉티브는 배향의 표시, 키스톤 보정(keystone correction), 또는 최적 컬러 팔레트(optimal color palette) 중 적어도 하나를 포함하는
    장치.
  16. 제 1 항에 있어서,
    상기 시야는 디바이스의 사용자에 의해 지각될 수 있는 지리적 범위인
    장치.
  17. 적어도 하나의 비일시적 기계 판독가능 저장매체에 있어서, 상기 기계 판독가능 저장매체는 웨어러블 컴퓨팅 디바이스 상에서 실행되는 복수의 인스트럭션을 포함하며, 상기 복수의 인스트럭션은 상기 웨어러블 컴퓨팅 디바이스 상에서 실행시, 상기 웨어러블 컴퓨팅 디바이스가
    하나 이상의 표면을 검출하게 하고;
    센서로부터의 출력에 적어도 부분적으로 기초하여 시야 내의 하나 이상의 검출된 표면 중 하나를 결정하게 하고;
    라이프 로깅 정보에 부분적으로 기초하여, 프로젝터가 상기 시야 내의 표면 상에 이미지를 투사하게 하고, 상기 이미지가 상기 시야 내에 객체를 강조하는 표시기(indicator)를 포함하게 하기 위해 프로젝터 제어 디렉티브(directive)를 생성 - 상기 라이프 로깅 정보는 상기 센서 출력에 적어도 부분적으로 기초하는 상기 객체의 이력을 포함함 - 하게 하는
    기계 판독가능 저장매체.
  18. 제 17 항에 있어서,
    상기 복수의 인스트럭션의 실행은 또한 상기 웨어러블 컴퓨팅 디바이스가 카메라에 의해 캡처된 이미지에 기초하여 하나 이상의 표면을 검출하게 하는
    기계 판독가능 저장매체.
  19. 제 17 항에 있어서,
    상기 센서는 센서 어레이이고, 상기 센서 어레이는 터치 입력 디바이스를 포함하고,
    상기 복수의 인스트럭션의 실행은 또한 상기 웨어러블 컴퓨팅 디바이스가 상기 터치 입력 디바이스로부터 수신된 신호에 또한 부분적으로 기초하여 상기 프로젝터 제어 디렉티브를 생성하게 하는
    기계 판독가능 저장매체.
  20. 제 17 항에 있어서,
    상기 복수의 인스트럭션의 실행은 또한 상기 웨어러블 컴퓨팅 디바이스가 네트워크 접속된 컴퓨팅 디바이스로부터 콘텍스트 정보를 수신하게 하는
    기계 판독가능 저장매체.
  21. 제 20 항에 있어서,
    상기 센서는 가속도계이고, 상기 콘텍스트 정보는 장치의 액티비티 레벨의 표시를 포함하는
    기계 판독가능 저장매체.
  22. 제 17 항에 있어서,
    상기 복수의 인스트럭션의 실행은 또한 상기 웨어러블 컴퓨팅 디바이스가 콘텍스트에 적어도 부분적으로 기초하여 하나 이상의 검출된 표면으로부터 표면을 결정하게 하는
    기계 판독가능 저장매체.
  23. 웨어러블 컴퓨팅 디바이스에 의한 이미지 투사 방법에 있어서,
    하나 이상의 표면을 검출하는 단계;
    제 1 센서로부터의 출력에 기초하여 시야를 결정하는 단계;
    제 2 센서로부터의 출력에 적어도 부분적으로 기초하여 상기 시야 내의 하나 이상의 검출된 표면 중 하나를 결정하는 단계; 및
    라이프 로깅 정보에 부분적으로 기초하여, 프로젝터로 하여금, 상기 시야 내의 표면 상에 이미지를 투사하게 하고, 상기 이미지가 상기 시야 내에 객체를 강조하는 표시기(indicator)를 포함하도록 하기 위해 프로젝터 제어 디렉티브(directive)를 생성 - 상기 라이프 로깅 정보는 상기 제 1 센서의 출력 및 상기 제 2 센서의 출력 중 적어도 하나에 적어도 부분적으로 기초하는 상기 객체의 이력을 포함함 - 하는 단계를 포함하는
    이미지 투사 방법.
  24. 제 23 항에 있어서,
    상기 라이프 로깅 정보는 카메라에 의해 캡처된 이미지에 부분적으로 기초하는 장치의 이력의 표시를 포함하는
    이미지 투사 방법.
  25. 제 24 항에 있어서,
    상기 카메라에 의해 캡처된 이미지 내에 인식된 물체에 또한 부분적으로 기초하여 상기 프로젝터 제어 디렉티브를 생성하는 단계를 포함하는
    이미지 투사 방법.
KR1020177004691A 2014-09-23 2015-08-21 웨어러블 매개 현실 시스템 및 방법 KR102321132B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/494,146 US9924143B2 (en) 2014-09-23 2014-09-23 Wearable mediated reality system and method
US14/494,146 2014-09-23
PCT/US2015/046223 WO2016048504A1 (en) 2014-09-23 2015-08-21 Wearable mediated reality system and method

Publications (2)

Publication Number Publication Date
KR20170036725A KR20170036725A (ko) 2017-04-03
KR102321132B1 true KR102321132B1 (ko) 2021-11-02

Family

ID=55526994

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177004691A KR102321132B1 (ko) 2014-09-23 2015-08-21 웨어러블 매개 현실 시스템 및 방법

Country Status (7)

Country Link
US (1) US9924143B2 (ko)
EP (1) EP3198860A4 (ko)
JP (1) JP6515179B2 (ko)
KR (1) KR102321132B1 (ko)
CN (1) CN106576156B (ko)
TW (1) TWI641968B (ko)
WO (1) WO2016048504A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159539B (zh) * 2015-09-10 2018-06-01 京东方科技集团股份有限公司 可穿戴设备的触控响应方法、装置及可穿戴设备
US10891574B2 (en) * 2015-11-17 2021-01-12 Target Brands, Inc. Planogram resetting using augmented reality in a retail environment
JP6561938B2 (ja) * 2016-08-05 2019-08-21 京セラドキュメントソリューションズ株式会社 印刷物処理システム
US10297085B2 (en) 2016-09-28 2019-05-21 Intel Corporation Augmented reality creations with interactive behavior and modality assignments
DE102017200484A1 (de) 2017-01-13 2018-07-19 Audi Ag System zum Ausgeben eines Ausgabesignals an einen Nutzer
CN107577344B (zh) * 2017-09-01 2020-04-28 广州励丰文化科技股份有限公司 一种mr头显设备的互动模式切换控制方法及系统
EP3506661A1 (en) * 2017-12-29 2019-07-03 Nokia Technologies Oy An apparatus, method and computer program for providing notifications

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080111832A1 (en) * 2006-10-23 2008-05-15 International Business Machines Corporation System and method for generating virtual images according to position of viewers
US20100199232A1 (en) * 2009-02-03 2010-08-05 Massachusetts Institute Of Technology Wearable Gestural Interface
JP2014044166A (ja) * 2012-08-28 2014-03-13 Sharp Corp 電子機器、進行方向提示方法およびプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10306578A1 (de) 2003-02-17 2004-08-26 Carl Zeiss Anzeigevorrichtung mit elektrooptischer Fokussierung
WO2005055596A1 (ja) 2003-12-03 2005-06-16 Nikon Corporation 情報表示装置及びワイヤレスリモートコントローラ
JP4747575B2 (ja) * 2003-12-26 2011-08-17 株式会社ニコン 情報表示装置
WO2006074161A2 (en) * 2005-01-03 2006-07-13 Vumii, Inc. Systems and methods for night time surveillance
JP2007121600A (ja) 2005-10-27 2007-05-17 Yokogawa Electric Corp 画像情報表示装置
TWI428726B (zh) * 2007-08-13 2014-03-01 Asustek Comp Inc 可攜式電腦
JP5374906B2 (ja) * 2008-04-07 2013-12-25 株式会社ニコン プロジェクタ
CN101488308B (zh) * 2009-01-21 2011-01-26 东北大学 智能导游系统及方法
US8382295B1 (en) * 2010-06-30 2013-02-26 Amazon Technologies, Inc. Optical assembly for electronic devices
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
KR20130136566A (ko) 2011-03-29 2013-12-12 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US8558759B1 (en) * 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US9652029B2 (en) * 2012-01-09 2017-05-16 Epson Norway Research And Development As Low interference system and method for synchronization, identification and tracking of visual and interactive systems
US8736692B1 (en) * 2012-07-09 2014-05-27 Google Inc. Using involuntary orbital movements to stabilize a video
JP5942840B2 (ja) * 2012-12-21 2016-06-29 ソニー株式会社 表示制御システム及び記録媒体
US9060127B2 (en) * 2013-01-23 2015-06-16 Orcam Technologies Ltd. Apparatus for adjusting image capture settings
US9475422B2 (en) * 2014-05-22 2016-10-25 Applied Invention, Llc Communication between autonomous vehicle and external observers
US10341544B2 (en) * 2014-07-23 2019-07-02 Orcam Technologies Ltd. Determining a matching score between users of wearable camera systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080111832A1 (en) * 2006-10-23 2008-05-15 International Business Machines Corporation System and method for generating virtual images according to position of viewers
US20100199232A1 (en) * 2009-02-03 2010-08-05 Massachusetts Institute Of Technology Wearable Gestural Interface
JP2014044166A (ja) * 2012-08-28 2014-03-13 Sharp Corp 電子機器、進行方向提示方法およびプログラム

Also Published As

Publication number Publication date
TWI641968B (zh) 2018-11-21
EP3198860A4 (en) 2018-09-19
CN106576156B (zh) 2019-07-02
US9924143B2 (en) 2018-03-20
EP3198860A1 (en) 2017-08-02
KR20170036725A (ko) 2017-04-03
TW201621552A (zh) 2016-06-16
WO2016048504A1 (en) 2016-03-31
JP6515179B2 (ja) 2019-05-15
CN106576156A (zh) 2017-04-19
JP2017535095A (ja) 2017-11-24
US20160088268A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
KR102321132B1 (ko) 웨어러블 매개 현실 시스템 및 방법
US20220078370A1 (en) Real time painting of a video stream
US20170330496A1 (en) System and method for rendering images in virtual reality and mixed reality devices
US11398205B2 (en) Reducing latency in augmented reality (AR) displays
US11132842B2 (en) Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device
US20240031678A1 (en) Pose tracking for rolling shutter camera
US20200410741A1 (en) Method and system for creating a neural net based lossy renderer
US12002168B2 (en) Low latency hand-tracking in augmented reality systems
US20220207834A1 (en) Optimizing motion-to-photon latency in mobile augmented reality systems
KR102166697B1 (ko) 머리 착용형 표시 장치에서 사용자 인증을 수행하는 방법 및 그 전자 장치
US9820513B2 (en) Depth proximity layering for wearable devices
US20220375026A1 (en) Late warping to minimize latency of moving objects
EP4341742A1 (en) Late warping to minimize latency of moving objects
EP4272054A1 (en) Motion-to-photon latency augmented reality systems
CN117321472A (zh) 进行后期扭曲以最小化移动对象的延迟
WO2024050460A1 (en) 3d space carving using hands for object capture

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant