KR20170098214A - 안경 디스플레이를 위한 향상된 보기 기능 제공 - Google Patents

안경 디스플레이를 위한 향상된 보기 기능 제공 Download PDF

Info

Publication number
KR20170098214A
KR20170098214A KR1020177013431A KR20177013431A KR20170098214A KR 20170098214 A KR20170098214 A KR 20170098214A KR 1020177013431 A KR1020177013431 A KR 1020177013431A KR 20177013431 A KR20177013431 A KR 20177013431A KR 20170098214 A KR20170098214 A KR 20170098214A
Authority
KR
South Korea
Prior art keywords
smart glasses
transparency
glasses
computing device
capture
Prior art date
Application number
KR1020177013431A
Other languages
English (en)
Inventor
토머 라이더
샤하르 타이트
예브게니 키베이샤
Original Assignee
인텔 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코포레이션 filed Critical 인텔 코포레이션
Publication of KR20170098214A publication Critical patent/KR20170098214A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Abstract

일 실시예에 따른 안경 디스플레이를 위한 향상된 보기 기능을 동적으로 제공하는 메커니즘이 설명된다. 본원에서 설명된 실시예의 방법은 스마트 안경을 포함하는 착용가능한 안경을 포함하는 컴퓨팅 디바이스와 관련한 밝기 상태를 검출하는 것을 포함하고, 밝기 상태의 검출은 상기 밝기 상태에서의 변화를 검출하는 것을 포함할 수 있다. 방법은 밝기 상태에서의 변화의 영향을 평가하는 것과, 밝기 상태에서의 변화에 기초하여 스마트 안경의 턴 온 또는 턴 오프를 가능하게 하는 것을 더 포함할 수 있다.

Description

안경 디스플레이를 위한 향상된 보기 기능 제공{FACILITATING IMPROVED VIEWING CAPABILITIES FOR GLASS DISPLAYS}
본원에서 설명된 실시예들은 일반적으로 컴퓨터에 관한 것이다. 더 구체적으로, 실시예들은 안경 디스플레이를 위한 향상된 보기 기능을 동적으로 제공하는 것에 관한 것이다.
모바일 컴퓨팅 디바이스의 성장에 의해, 착용가능한 디바이스(예를 들어, 스마트 윈도우, 착용가능한 안경과 같은 헤드 마운트 디스플레이(head-mounted display))는 또한 주류 기술이 되는 것에 있어서 인기도 및 분명한 견인력을 얻고 있다. 착용가능한 디바이스의 안경 디스플레이와 같이, 통상적인 안경 디스플레이는 이들의 디스플레이 및 투시(see-through) 기능과 관련하여 한계가 있어, 결국 사용자 경험을 심각하게 떨어뜨릴 수 있다. 예를 들어, 오늘날의 안경 디스플레이는 사용자가 스크린 상의 세부 사항을 보기하는 것을 어렵게 만들어서, 사용자가 외부 광을 차단하도록 어두운 조리개를 찾아야 한다.
첨부 도면의 도면에서 실시예들은 제한이 아닌 예시의 방식으로 도시되었고 유사한 참조 부호는 유사한 구성요소를 지칭한다.
도 1은 일 실시예에 따른 동적 안경 보기 메커니즘을 이용하는 컴퓨팅 디바이스를 도시한다.
도 2a는 일 실시예에 따른 동적 안경 보기 메커니즘을 도시한다.
도 2b는 일 실시예에 따른 스마트 안경을 갖는 컴퓨팅 디바이스를 도시한다.
도 2c는 일 실시예에 따른 스마트 안경을 갖는 조립되지 않은 컴퓨팅 디바이스의 도면을 도시한다.
도 2d는 일 실시예에 따라 스마트 안경이 턴 오프된 디폴트 장면을 도시한다.
도 2e는 일 실시예에 따라 스마트 안경이 턴 온된 향상된 장면을 도시한다.
도 2f는 일 실시예에 따라 선명한 렌즈 및 뿌연 렌즈를 갖는 하나의 안경을 도시한다.
도 3은 일 실시예에 따라 안경 디스플레이를 위한 향상된 보기 기능을 가능하게 하는 방법을 도시한다.
도 4는 일 실시예에 따라 본 개시의 실시예를 구현하기에 적합한 컴퓨터 시스템을 도시한다.
도 5는 일 실시예에 따라 본 개시의 실시예를 구현하기에 적합한 컴퓨터 환경을 도시한다.
다음의 상세한 설명에서, 다양한 특정 상세가 제시된다. 그러나, 본원에서 설명된 실시예들은 이러한 특정 상세 없이 실시될 수 있다. 다른 경우에, 잘 알려진 회로, 구조 및 기술은 이 상세한 설명의 이해를 불분명하게 하지 않도록 자세하게 나타내지 않을 것이다.
실시예들은 안경 디스플레이를 위해 더 양호하고 선명한 보기 기능을 제공한다. 전술된 바와 같이, 착용가능한 디바이스의 디스플레이와 같이, 통상적인 안경 디스플레이는 이들의 디스플레이 기능에 한계가 있어 밝은 배경에서 세부 사항을 보기하는 사용자의 능력을 심각하게 제한한다.
본 명세서에서 추가로 설명되는 바와 같이 실시예들은 임의의 수 및 타입의 기술을 사용하여 안경 디스플레이에 다른 안경 층을 추가함으로써 임의의 수 및 타입의 인자에 기초하여 자동으로 또는 수동으로 활성화될 수 있는 안경 투명도에 대한 더 양호한 제어를 가능하게 한다.
임의의 수 및 타입의 문맥적 및/또는 환경적 변화가 착용가능한 안경과 같은 착용가능한 디바이스를 통한 사용자의 시야에 영향을 줄 수 있다는 것이 고려되어 본 명세서 전반에서 논의될 것이다. 예를 들어, 일 실시예에서, 착용가능한 안경 등과 같은 헤드 마운트 디스플레이와 같은 착용가능한 디바이스에서, 디스플레이스의 가시성은 밝기 레벨, 광 레벨, 주변 환경 등에서의 변화와 같이, 문맥적 및/또는 환경적 변화에 의해 결정적으로 영향을 받는 디바이스 성과에 대한 사용자 경험에 더 중요한 요인이다. 예를 들어, 태양이 떠 있을 때의 야외에서와 같이, 주간(day light)에 또는 광원에 아주 근접하여 사용될 때, 밝은 배경에서, 또는 색, 레이아웃 등을 부정적으로 방해하거나 영향을 줄 수 있는 장면이 사용자의 착용가능한 디바이스의 디스플레이 스크린 상에 디스플레이되어, 광, 배경 등이 너무 밝을 때 사용자가 디스플레이 스크린 상에서 콘텐츠를 보기하는 것을 어렵게 만든다. 디스플레이 스크린 상에서 세부 사항을 보는 것이 어려울 수 있어서, 사용자는 디스플레이 스크린을 제대로 보기하는 것을 가능하게 하는데 긍정적인 영향을 주는 더 어두운 장면 또는 더 양호한 배경을 찾아야 한다.
도 1은 일 실시예에 따른 동적 안경 보기 메커니즘(110)을 이용하는 컴퓨팅 디바이스(100)를 도시한다. 컴퓨팅 디바이스(100)는 도 2에 도시된 바와 같이, 임의의 수 및 타입의 컴포넌트를 포함하는 동적 안경 보기 메커니즘("안경 메커니즘")(110)을 호스팅하기 위한 호스트 머신으로서 역할을 하여 안경 디스플레이를 위한 향상된 보기를 동적으로 제공하도록 하나 이상의 컴포넌트를 효율적으로 이용하는 것이 본 명세서 전반에서 추가로 설명될 것이다.
컴퓨팅 디바이스(100)는 서버 컴퓨터, 데스크탑 컴퓨터 등과 같은, 대형 컴퓨팅 시스템과 같은, 임의의 수 및 타입의 통신 디바이스를 포함할 수 있고, 셋탑 박스(예를 들어, 인터넷 기반 케이블 텔레비전 셋탑 박스 등), GPS(global positioning system) 기반 디바이스 등을 더 포함할 수 있다. 컴퓨팅 디바이스(100)는 스마트폰, 개인용 디지털 보조장치(PDA), 태블릿 컴퓨터, 랩탑 컴퓨터(예를 들어, 울트라북™ 시스템 등), e-리더, 미디어 인터넷 디바이스(MID), 미디어 플레이어, 스마트 텔레비전, 텔레비전 플랫폼, 인텔리전트 디바이스, 컴퓨팅 더스트, 미디어 플레이어, 스마트 바람막이, 스마트 윈도우, 헤드 마운트 디스플레이(HMD)(예를 들어, 광학 헤드 마운트 디스플레이(예를 들어, 착용가능 안경(예를 들어, 구글®글래스™ 등), 헤드 마운트 쌍안경, 게이밍 디스플레이, 군사용 헤드웨어 등) 및 다른 착용가능한 디바이스(예를 들어, 스마트워치, 팔찌, 스마트카드, 보석, 의류 아이템 등) 등을 포함하는 셀룰러 전화와 같은 통신 디바이스로서 역할을 하는 모바일 컴퓨팅 디바이스를 포함할 수 있다.
실시예들은 컴퓨팅 디바이스(100)에 제한되지 않고 스마트 바람막이, 스마트 윈도우(예를 들어, 삼성® 등에 의한 스마트 윈도우) 및/또는 유사한 것과 같은, 보기 목적을 위해 사용되는 임의의 형태 또는 타입의 안경에 적용되고 함께 사용될 수 있다는 것을 고려하여 유의해야 할 것이다. 유사하게, 실시예들은 임의의 타입의 컴퓨팅 디바이스에 제한되지 않고 임의의 수 및 타입의 컴퓨팅 디바이스에 적용되고 함께 사용될 수 있다는 것을 고려하여 유의해야 하지만, 본 명세서 전반에서, 논의의 초점이 착용가능한 안경 등과 같은 착용가능한 디바이스에 대해 유지되어서, 이해의 간결성, 명료성 및 편의성을 위한 예들로서 사용될 수 있다.
컴퓨팅 디바이스(100)는 컴퓨터 디바이스(100)의 하드웨어 및/또는 물리적 리소스와 사용자 사이의 인터페이스로서 역할을 하는 운영 시스템(OS)(106)을 포함할 수 있다. 컴퓨팅 디바이스(100)는 하나 이상의 프로세서(102), 메모리 디바이스(104), 네트워크 디바이스, 드라이버, 또는 유사한 것 뿐만 아니라 터치스크린, 터치 패널, 터치 패드, 가상 또는 보통의 키보드, 가상 또는 보통의 마우스 등과 같은, 입력/출력(I/O) 소스(108)를 더 포함할 수 있다.
"노드", "컴퓨팅 노드", "서버", "서버 디바이스", "클라우드 컴퓨터", "클라우드 서버", "클라우드 서버 컴퓨터", "머신", "호스트 머신", "디바이스", "컴퓨팅 디바이스", "컴퓨터", "컴퓨팅 시스템", 및 유사한 것과 같은 용어는 본 명세서 전반에서 상호교환가능하게 사용될 수 있다는 것에 유의해야한다. 또한 "애플리케이션", "소프트웨어 애플리케이션", "프로그램", "소프트웨어 프로그램", "패키지", "소프트웨어 패키지", "코드", "소프트웨어 코드", 및 유사한 것과 같은 용어는 본 명세서 전반에서 상호교환가능하게 사용될 수 있다는 것에 유의해야할 것이다. 또한, "잡(job)", "입력", "요청", "메시지", 및 유사한 것과 같은 용어가 본 명세서 전반에서 상호교환가능하게 사용될 수 있다. 용어 "사용자"는 컴퓨팅 디바이스(100)를 사용하거나 컴퓨팅 디바이스(100)로 액세스하는 개인 또는 개인의 그룹을 지칭할 수 있다는 것을 고려하여야 한다.
도 2a는 일 실시예에 따른 동적 안경 보기 메커니즘(110)을 도시한다. 일 실시예에서, 안경 메커니즘(110)은 (제한 없이) 검출/지각 로직(201), 상태 평가 로직("상태 로직")(203), 음성 인식 및 명령 로직("음성 로직")(205), 및 제스쳐 인식 및 명령 로직("제스쳐 로직")(207), 투명도 온/오프 로직("온/오프 로직")(209), 투명도 조정 로직("조정 로직")(211), 및 통신/호환성 로직(213)과 같은 임의의 수 및 타입의 컴포넌트를 포함할 수 있다. 컴퓨팅 디바이스(100)(예를 들어, 착용가능한 안경, 스마트 윈도우 등)는 캡쳐/감지 컴포넌트(221)(예를 들어, 광 센서(227), 카메라, 마이크로폰 등을 포함함), 출력 컴포넌트(223)(예를 들어, 온/오프/조정 버튼(229), 디스플레이 안경 스크린 등을 포함함), 스마트 안경(225), 전원(231) 등과 같은, 임의의 수 및 타입의 다른 컴포넌트를 더 포함할 수 있다.
캡쳐/감지 컴포넌트(221)는 하나 이상의 전송 및/또는 캡쳐 디바이스(예를 들어, 카메라, 마이크로폰, 생체인식 센서, 화학적 검출기, 신호 검출기, 파동 검출기, 힘 센서(예를 들어, 가속도계), 조명기 등)와 같은 임의의 수 및 타입의 캡쳐/감지 디바이스를 더 포함하고 임의의 양 및 타입의 이미지(예를 들어, 사진, 비디오, 영화, 오디오/비디오 스트림 등)와 같은 시각적 데이터, 및 오디오 스트림(예를 들어, 소리, 잡음, 진동, 초음파 등)과 같은 비시각적 데이터, 전파(예를 들어, 데이터, 메타데이터, 사인 등을 갖는 무선 신호), 화학적 변화 또는 속성(예를 들어, 습도, 체온 등), 생체인식 측정(예를 들어, 지문 등), 환경적/날씨 상태, 지도 등을 캡쳐하는데 사용될 수 있다. "센서" 및 "검출기"는 본 명세서의 전반에서 상호교환가능하게 참조될 수 있다는 것을 고려하여야 한다. 또한 하나 이상의 캡쳐/감지 컴포넌트(221)는 조명기(예를 들어, 적외선(IR) 조명기), 조명기구, 발전기, 소리 차단기 등과 같이, 데이터를 캡쳐 및/또는 감지하기 위한 하나 이상의 지원 또는 보조 디바이스를 더 포함할 수 있다는 것을 고려하여야 한다.
일 실시예에서, 캡쳐/감지 컴포넌트(221)는 임의의 수 및 타입의 상황을 감지 또는 검출(예를 들어, 모바일 컴퓨팅 디바이스 등과 관련하여 수평, 선형 가속도 등을 추정)하기 위한 임의의 수 및 타입의 감지 디바이스 또는 센서(예를 들어, 선형 가속도계)를 더 포함할 수 있다는 것을 또한 고려하여야 한다. 예를 들어, 캡쳐/감지 컴포넌트(221)는 (제한 없이) 가속도계(예를 들어, 선형 가속도를 측정하는 선형 가속도계 등), 관성 디바이스(예를 들어, 관성 가속도계, 관성 자이로스코프, MEMS(micro-electro-mechanical systems) 자이로스코프, 관성 네비게이터 등), 중력 등에 기인한 중력 가속도에서의 변화를 연구 및 측정하는 중력 경도계와 같은 임의의 수 및 타입의 센서를 포함할 수 있다.
예를 들어, 캡쳐/감지 컴포넌트(221)는 (제한 없이) 청각/시각 디바이스(예를 들어, 카메라, 마이크로폰, 스피커 등), 상황 인지(context-aware) 센서(예를 들어, 온도 센서, 청각/시각디바이스의 하나 이상의 카메라와 함께 작동하는 안면 표정 및 특징 측정 센서, 환경 센서(예를 들어, 배경색, 광 등을 감지), 생체인식 센서(예를 들어, 지문 등을 검출), 캘린더 관리 및 판독 디바이스) 등, GPS 센서, 리소스 요청기, 및 신뢰할 수 있는 실행 환경(TEE) 로직을 더 포함할 수 있다. TEE 로직은 별도로 이용될 수 있거나 리소스 요청기 및/또는 I/O 서브시스템 등의 일부가 될 수 있다.
컴퓨팅 디바이스(100)는 하나 이상의 캡쳐/감지 컴포넌트(221)와 통신하도록 남아있는 하나 이상의 출력 컴포넌트(223) 및 이미지 디스플레이, 음성의 재생 또는 시각화, 지문의 시각화 디스플레이, 터치, 냄새, 및/또는 다른 감지 관련 경험 등의 시각화 표시를 가능하게 하는 안경 메커니즘(110)의 하나 이상의 컴포넌트를 더 포함할 수 있다. 예를 들어 그리고 일 실시예에서, 출력 컴포넌트(223)는 (제한 없이) 광원, 디스플레이 디바이스 또는 스크린, 오디오 스피커, 골전도 스피커, 후각 또는 냄새 시각적 및/또는 비시각적 표현 디바이스, 햅틱 또는 터치 시각적 및/또는 비시각적 표현 디바이스, 애니메이션 디스플레이 디바이스, 생체인식 디스플레이 디바이스, X-레이 디스플레이 디바이스 등을 포함할 수 있다.
컴퓨팅 디바이스(100)는 하나 이상의 네트워크를 통해 하나 이상의 레포지토리(repositories) 또는 데이터베이스와 통신 중일 수 있는데, 여기서 임의의 양 및 타입의 데이터(예를 들어, 실시간 데이터, 이력 콘텐츠, 메타데이터, 리소스, 정책, 기준, 규칙 및 규정, 업그레이드 등)가 저장되고 유지될 수 있다. 유사하게, 컴퓨팅 디바이스(100)는 하나 이상의 네트워크(예를 들어, 클라우드 네트워크, 인터넷, 인트라넷, 사물인터넷("IoT"), 근접 네트워크, 블루투스 등)를 통해 HMD, 착용가능한 디바이스, 스마트 윈도우, 모바일 컴퓨터(예를 들어, 스마트폰, 태블릿 컴퓨터 등), 데스크탑 컴퓨터, 랩탑 컴퓨터 등과 같은 임의의 수 및 타입의 다른 컴퓨팅 디바이스와 통신 중일 수 있다.
도시된 실시예에서, 컴퓨팅 디바이스(100)는 호스팅 안경 메커니즘(110)으로서 도시되었지만, 실시예들은 이러한 것에 제한되지 않고 다른 실시예에서, 안경 메커니즘(110)은 컴퓨팅 디바이스의 다수 또는 조합에 의해 전체적으로 또는 부분적으로 호스팅될 수 있다는 것을 고려하여야 하지만, 본 명세서 전반에서, 이해의 간결성, 명료성, 및 용이성을 위해, 안경 메커니즘(100)은 컴퓨팅 디바이스(100)에 의해 호스팅되는 것으로서 도시된다.
컴퓨팅 디바이스(100)는 안경 메커니즘(110)과 통신하는 하나 이상의 소프트웨어 애플리케이션(예를 들어, 디바이스 애플리케이션, 하드웨어 컴포넌트 애플리케이션, 비지니스/소셜 애플리케이션, 웹사이트 등)을 포함할 수 있다는 것을 고려하여야 하고, 소프트웨어 애플리케이션은 안경 메커니즘(110)의 하나 이상의 동작 또는 기능을 가능하게 하고/거나 함께 작동하는 하나 이상의 사용자 인터페이스(예를 들어, 웹 사용자 인터페이스(WUI), 그래픽 사용자 인터페이스(GUI), 터치스크린 등)를 제공할 수 있다.
전술한 바와 같이, 착용가능한 안경, 스마트 윈도우 등과 같은, 안경 기반 디바이스는 내부 조명, 외부 조명 등과 같이, 변화하는 밝기 상태 또는 다양한 레벨의 밝기에 의해 야기되는 간섭 또는 영향에 적합하게 대응하기에 충분히 잘 갖춰져 있지 않거나 스마트하지 않다. 안경 기반 디바이스가 예를 들어, 주간이나 또는 강력한 광원(예를 들어, 태양) 정면과 같이 도전적인 밝기 상태에서 사용될 때, 광은 디스플레이 스크린(예를 들어, 안경 디스플레이 스크린) 상에서 매우 밝은 배경을 만들 수 있어서 색 및 레이아웃을 심각하게 방해하고 부정적인 영향을 줄 수 있으므로, 사용자가 스크린 상에서 콘텐츠를 보는 것을 매우 어렵게 만들 수 있다. 이는 사용자가 스크린을 적절하게 볼 수 있도록 그저 더 어두운 장면 또는 배경을 찾게 할 수 있는데, 왜냐하면, 사용자가 컴퓨팅 디바이스(100)의 디스플레이 스크린 상에서 콘텐츠를 볼 수 있게 하는데에 있어 더 어두운 배경이 디스플레이 스크린의 콘텐츠에 대해 긍정적인 영향을 줄 수 있기 때문이다.
일 실시예에서, 스마트 안경(225)은 컴퓨팅 디바이스(100)에 추가되거나 통합되어 스마트 안경과 연관된 안경 투명도를 제어하는 것을 가능하게 할 수 있으며, 이는 예를 들어, 환경적 필요성, 변화하는(자연적 또는 인공적) 밝기 상태 등에 기초하여, 수동으로 또는 자동으로 그리고 동적으로 활성화될 수 있고, 본 명세서에서 추가로 설명될 것이다. 예를 들어, 착용가능한 안경과 같은, 착용가능한 디바이스인 컴퓨팅 디바이스(100)의 경우에, 스마트 안경(225)은 도 2b와 관련하여 추가로 도시되는 프리즘과 평행하게 바로 옆에 안경 층으로 삽입될 수 있다. 유사하게, 스마트 윈도우인 컴퓨팅 디바이스(100)의 경우에, 스마트 안경(225) 층은 안경 투명도를 제어하는 것을 달성하도록 이용될 수 있다. 일부 실시예에서, 다수의 층 및 크기의 스마트 안경(225)이 컴퓨팅 디바이스(100)에 통합될 수 있다. 일부 실시예에서, 스마트 안경(225)은 (제한 없이) 일렉트로크로믹(electrochromic), 포토 크로믹(photochromic), 써모크로믹(thermochromic), 또는 부유 입자 등과 같은, 임의의 수 및 타입의 기술 또는 기술들에 기초하여 매우 작은 것부터 다소 큰 것까지 임의의 크기가 될 수 있다. 실시예들은 작거나 큰, 단일 층 또는 블록 층, 또는 임의의 특정 타입 또는 형태의 기술 등에 의존하는 스마트 안경(225)에 제한되지 않는다는 것을 고려하여 유의해야 할 것이다.
일 실시예에서, 검출/지각 로직(201)은 자연적 편차(예를 들어, 구름을 벗어나는 태양, 비가 내리기 시작하는 것, 새벽 또는 황혼에 도달하는 것 등), 인공적 편차(예를 들어, 사용자가 어두운 방으로부터 밝은 외부로 깨어나는 것, 광을 턴 온 및 턴 오프하는 것, 문/창문의 개방 및 폐쇄 등), 또는 이들의 임의의 조합에 기초할 수 있는 밝기 상태에서 환경적 편차("주변 편차" 또는 "주변 변화"로서 또한 지칭됨)를 검출할 수 있다. 밝기 상태에서 하나 이상의 주변 편차가 검출/지각 로직(201)에 의해 검출되면, 이러한 주변 편차에 관한 임의의 정보가 또한 추가 프로세싱을 위해 상태 로직(203)에 제공된다.
다른 실시예에서 그리고 선택적으로, 캡쳐/감지 컴포넌트(221)의 광 센서(227)는 밝기 상태를 검출하고 판정하기 위해 이용되고 컴퓨팅 디바이스(100)에 의해 사용되어 밝기 상태를 검출할 시에, 광 센서(227)가 온/오프 로직(209)을 자동으로 트리거하여 스마트 안경(225)을 턴 온/턴 오프하고/거나 조정 로직(211)이 스마트 안경(225)의 현재 투명도 레벨을 자동으로 그리고 동적으로 조정하도록 지시할 수 있다.
일 실시예에서, 상태 로직(203)은 또한 변화 또는 편차에 관한 정보를 평가하여 스마트 안경(225)의 투명도가 컴퓨팅 디바이스(100)의 출력 컴포넌트(223)의 디스플레이 스크린(예를 들어, 안경 스크린) 상의 콘텐츠를 더 양호하게 보기하기 위해 조정될 필요가 있는지 여부를 판정할 수 있다. 일부 실시예에서, 정보를 평가하는 동안, 상태 로직(203)은 임의의 수 및 타입의 사전정의된 임계치, 사전결정된 상태, 정책, 사용자 선호도, 음성 명령, 제스쳐 등을 고려하여 스마트 안경(225)의 투명도가 조정되어야하는지 여부에 관한 결정에 도달할 수 있다. 예를 들어, 사전정의된 사용자 선호도는 안경 투명도 레벨이 특정 시간(예를 들어, 오전 8시부터 오후 5시, 저녁, 수면 시간 등), 특정 위치(예를 들어, 사무실, 기내, 야외 등) 등에 기초하여 조정되도록 명령할 수 있다.
또한, 일 실시예에서, 임의의 사전정의된 사용자 선호도 이외에, 실시간 사용자 지시가 음성 로직(205), 제스쳐 로직(207), 온/오프 버튼(229) 등을 통해 수신될 수 있고, 이러한 실시간 지시는 프로세스에 통합될 수도 있고, 일부 실시예에서는, 사전정의된 사용자 선호도 및 상태 로직(203)의 평가 결과 등보다 우선권 또는 최우선권이 주어질 수도 있는데, 이에 대해서는 음성 로직(205), 제스쳐 로직(207), 및 온/오프 버튼(229)과 관련하여 추가로 설명할 것이다.
다시 상태 로직(203)을 참조하면, 밝기 상태에서의 변화와 관련한 정보의 평가 시에, 상태 로직(203)이 주변 편차가 사용자에게 보기를 쉽게 하거나 또는 어렵게 할 만큼 크면(예를 들어, 광의 사전정의된 임계치와 비교할 때), 상태 로직(203)은 또한 이 명령어를 조정 로직(211)으로 전달하여 명령어에 기초하여 스마트 안경(225)의 현재 투명도 레벨에 대한 자동 및 동적 조정이 가능하게 할 수 있다.
일 실시예에서, 명령어를 수신할 시에, 조정 로직(211)은 스마트 안경(225)의 투명도 레벨을 자동으로 그리고 동적으로 조정할 수 있다. 예를 들어, 일 실시예에서, 전원(231)은 조정 로직(221)에 의해 트리거되어 추가 전력을 공급하여 스마트 안경(225)이 투명도를 감소시키도록(예를 들어, 스마트 안경(225)을 더 뿌옇게, 더럽게 및/또는 어둡게 만듬) 광을 공급할 수 있어서 사용자가 보기하는 안경 디스플레이 스크린에 더 어두운 배경을 제공하는 역할을 할 수 있어서 스크린 상의 콘텐츠를 더 양호하게 또는 더 선명하게 보기할 수 있다. 다른 실시예에서, 전원(231)이 조정 로직(221)에 의해 트리거되어 스마트 안경(225)의 투명도를 증가시키기 위해(예를 들어, 흐릿함을 감소시킴) 스마트 안경(225)에 더 적은 전력을 공급할 수 있어서, 주변 상태가 더 어두워짐에 따라, 콘텐츠의 더 양호한 보기를 위해 어두운 배경에 대한 필요성을 줄일 수 있다.
일 실시예에서, 스마트 안경(225)의 완전 투명 또는 턴 오프는 스마트 안경(225)의 디폴트 위치로서 간주될 수 있어서 임의의 불필요한 전력의 소비가 방지될 수 있다. 예를 들어, 컴퓨팅 디바이스(100) 상의 불필요한 전력 소비를 회피하기 위해, 디폴트(defualt)로, 온/오프 로직(209)이 투명도를 턴 오프하라는 명령어를 수신하고 후속하여 이를 특정 레벨로 조정할 때까지 스마트 안경(225)을 턴 오프하거나 완전 투명하게 할 수 있다. 이 경우에, 단지 적은 양의 전력을 전원(231)으로부터 공급하여 배경에 필요한 어두움 또는 낮은 명도를 제공해서, 스마트 안경(255)을 흐려지게 하거나 덜 투명하게 바꾸어 사용자가 컴퓨팅 디바이스(100)의 스크린 상의 콘텐츠를 편리하게 보기하는 것을 가능하게 할 수 있다. 디폴트로, 스마트 안경(225)이 임의의 불필요한 전력 소비를 회피하도록 투명하게 유지되었지만, 컴퓨팅 디바이스(100)에 의해 사용되는 동일한 전원(231)을 사용하는 동안 매우 낮은, 예를 들어, 거의 무시할 수 있을 정도의 전력 소비를 보장하기 위해, 임의의 추가적인 전원 또는 하드웨어를 필요로 하는 것 없이 전원이 공급될 때조차도, 전력의 양이 상당히 낮다는 것이 고려되어야 한다.
전술된 바와 같이, 일부 실시예에서, 사용자는 음성 및/또는 제스쳐를 통해 실시간 지시를 제공하여 스마트 안경(225)의 투명도 레벨에 직접 영향을 줄 수 있다. 예를 들어, 일 실시예에서, 단순히 사용자는 캡쳐/감지 컴포넌트(221)의 마이크로폰에 의해 검출될 수 있고 또한 음성 로직(205)에 의해 수신될 수 있는 하나 이상의 사전정의된 음성 명령(예를 들어, "온", "오프", "낮은 투명도", "투명도 필요", "스크린 필요", "스크린 삭제", "너무 밝음", "2 레벨 높임", "1 레벨 낮춤", 및/또는 유사한 것)을 내릴 수 있다. 사전정의된 음성 명령을 수신할 시에, 음성 로직(205)은 음성 명령을 해석하고 임의의 대응하는 명령어를 온/오프 로직(209) 및/또는 조정 로직(211)으로 전달할 수 있어서 이들은 음성 명령을 나타내는 명령어에 기초하여 이들의 태스크를 자동으로 수행할 수 있다.
음성 명령과 같이, 일부 실시예에서, 사용자는 예를 들어, 캡쳐/감지 컴포넌트(221)의 카메라에 의해 검출되고 또한 추가 프로세싱을 위해 제스쳐 로직(207)에 의해 수신되는 하나 이상의 제스쳐를 사용하여 실시간 지시를 제공하도록 선택할 수 있다. 일 실시예에서, 제스쳐는 제스쳐 로직(207)에 의해 수신될 때, 제스쳐 로직(207)에 의해 해석되고 임의의 대응하는 명령어가 또한 온/오프 로직(209) 및/또는 조정 로직(211)으로 전달될 수 있어서 제스쳐를 나타내는 명령어에 기초하여 이들의 태스크를 자동으로 수행할 수 있도록 제스쳐가 사전정의될 수 있다.
유사하게, 일부 실시예에서, 출력 컴포넌트(223)의 온/오프 조정 버튼(229)이 사용자에 의해 사용되어 스마트 안경(225)의 투명도 레벨을 수동으로 턴 온/오프하거나 원하는 또는 필요로 하는 만큼 하나 이상의 상위/하위 레벨로 현재 투명도를 조정하도록 선택할 수 있다.
통신/호환성 로직(213)은 컴퓨팅 디바이스(100)와 임의의 수 및 타입의 다른 컴퓨팅 디바이스(착용가능한 컴퓨팅 디바이스, 모바일 컴퓨팅 디바이스, 데스크탑 컴퓨터, 서버 컴퓨팅 디바이스 등), 프로세싱 디바이스(예를 들어, 중앙 처리 유닛(CPU), 그래픽 프로세싱 유닛(GPU) 등), 캡쳐/감지 컴포넌트(221)(예를 들어, 오디오 센서, 후각 센서, 햅틱 센서, 신호 센서, 진동 센서, 화학적 검출기, 전파 검출기, 힘 센서, 날씨/온도 센서, 신체/생체인식 센서, 스캐너 등과 같은 비시각적 데이터 소스/검출기, 및 카메라 등과 같은 시각적 데이터 센서/검출기), 사용자/상황 인식 컴포넌트 및/또는 식별/검증 센서/디바이스(예를 들어, 생체 인식 센서/검출기, 스캐너 등), 메모리 또는 저장 디바이스, 데이터베이스 및/또는 데이터 소스(예를 들어, 데이터 저장 디바이스, 하드 드라이브, 솔리드 스테이트 드라이브, 하드 디스크, 메모리 카드 또는 디바이스, 메모리 회로 등), 네트워크(예를 들어, 클라우드 네트워크, 인터넷, 인트라넷, 셀룰러 네트워크, 블루투스, 저에너지 블루투스(BLE), 블루투스 스마트, 와이파이 근접, 무선 주파수 식별(RFID), 근거리 통신(NFC), 신체 영역 네트워크(BAN) 등과 같은 근접 네트워크 등), 무선 또는 유선 통신 및 관련 프로토콜(예를 들어, 와이파이®, 와이맥스, 이더넷 등), 접속 및 위치 관리 기술, 소프트웨어 애플리케이션/웹사이트(예를 들어, 소셜 및/또는 비지니스 네트워킹 웹사이트, 비지니스 애플리케이션, 게임 및 다른 엔터테인먼트 애플리케이션 등), 프로그래밍 언어 등 사이의 동적 통신 및 호환을 가능하게 하는데 사용될 수 있으며, 변경한 기술, 파라미터, 프로토콜, 표준 등과의 호환성을 보장할 수 있다.
본 명세서 전반에서, "로직", "컴포넌트", "모듈", "프레임워크", "엔진", "툴", 및 유사한 것과 같은 용어는, 상호교환가능하게 참조될 수 있고, 예로서, 소프트웨어, 하드웨어, 및/또는 펌웨어와 같은, 소프트웨어 및 하드웨어의 임의의 조합을 포함할 수 있다. 또한, "착용가능한 디바이스" "헤드 마운트 디스플레이" 또는 "HDM", "착용가능한 안경", "스마트 윈도우", 스마트 안경", "투명도" 또는 "투명도 레벨" 등과 같은 특정 브랜드, 단어, 용어, 구절, 이름 및/또는 약어는 제품에 또는 본 명세서의 외부 문서에서 이러한 라벨이 붙어있는 소프트웨어 또는 디바이스에 대한 실시예를 제한하는 것으로 이해해서는 안된다.
임의의 수 및 타입의 컴포넌트가 안경 메커니즘(110)에 추가되고/거나 안경 메커니즘(110)으로부터 제거될 수 있어서 특정 특징을 추가, 제거, 및/또는 향상시키는 것을 포함하는 다양한 실시예를 가능하게 할 수 있다는 것이 고려되어야 한다. 안경 메커니즘(110)의 이해의 간결성, 명료성, 및 편의성을 위해, 컴퓨팅 디바이스의 컴포넌트와 같이, 많은 표준 및/또는 알려진 컴포넌트가 본원에서 도시되거나 논의된다. 본원에서 설명된 실시예들은 임의의 특정 기술, 토폴로지, 시스템, 아키텍쳐 및/또는 표준에 제한되지 않고 임의의 나중 변경에 적응 및 채택되기에 충분히 동적이라는 것이 고려되어야 한다.
도 2b는 일 실시예에 따른 컴퓨팅 디바이스(100)에서 이용되는 스마트 안경(225)을 도시한다. 간결성을 위해, 도 1 및 도 2a와 관련하여 논의된 많은 상세들은 이후에 논의되거나 반복되지 않을 수 있다. 도시된 바와 같이, 컴퓨팅 디바이스(100)는 사람의 머리 상에 위치될 때 사람 눈(245) 앞에 존재하는 하나의 착용가능한 안경을 포함하도록 도시된다. 도시된 실시예에서, 스마트 안경(225)은 프리즘(2410) 상에 위치되고, 프리즘(241)은 눈(245)과 내부 또는 뒤에서 대면하는 반면 스마트 안경(225)은 프리즘(241) 및 착용가능한 안경(100)의 외부 또는 앞 부분 상에 위치된다. 일 실시예에서, 스마트 안경(225)의 배치는 프리즘(241) 위의 추가 안경 층이 프리즘(241)과 외부 상태 사이의 중간 층으로서 역할을 하는 것을 가능하게 한다. 전술된 바와 같이, 일부 실시예에서, 스마트 안경(225)은 안경의 블록 또는 안경의 다층이 될 수 있다. 도시된 실시예는 착용가능한 안경(100)의 부분으로서 광 센서(227) 및 프로젝터(243)를 추가로 도시한다.
도 2a와 관련하여 이전에 논의된 바와 같이, 스마트 안경(225)의 투명도 레벨이 턴 온 또는 턴 오프되고 주변 상태에 따라 그리고 음성 및/또는 제스쳐 명령을 통해 사용자에 의해 요청됨에 따라 조정될 수 있다. 또한, 이전에 논의된 바와 같이, 일 실시예에서, 광 센서(227)는 주변 밝기 상태를 검출 또는 감지하는데 사용될 수 있다.
이제 도 2c를 참조하면, 일 실시예에 따라 스마트 안경(225)을 갖는 조립되지 않은 컴퓨팅 디바이스의 도면을 도시한다. 도 2b를 참조하여 논의되는 바와 같이, 컴퓨팅 디바이스(100)는 프리즘(241) 및, 일 실시예에서, 프리즘(241)과 연관된 스마트 안경(225)의 층을 포함하는 하나의 착용가능한 안경을 포함하도록 도시된다.
도 2d는 일 실시예에 따른 디폴트 장면(250)을 도시한다. 장면(250)은 도 2a의 스마트 안경(225)이 부재하는 경우 달성되는 디폴트 장면으로서 간주되고, 또는 일부 경우에서, 스마트 안경(225)이 턴 오프되는 디폴트 장면 또는 위치로서 간주될 수 있다. 도시되는 바와 같이, 장면(250)에서, 디폴트로, 배경(251)이 보통으로 밝게 유지되어서, 사용자가 안경 디스플레이 스크린의 전경에 디스플레이되는 맵(253)을 판독하거나 보기하는 것을 어렵게 만드는데 영향(예를 들어, 부정적 영향)을 줄 수 있다.
도 2d와 대조적으로, 도 2e는 일 실시예에 따라 도 2a의 스마트 안경(225)이 턴 온되어 투명도 레벨이 대응하여 조정될 때 달성되는 향상된 장면(260)을 도시한다. 일 실시예에서 도시된 바와 같이, 스마트 안경(225)를 턴 온하는 것은 배경(261)을 뿌옇게, 흐리게, 또는 어둡게 하는 것 등을 가능하게 하고, 맵(253)을 갖는 전경을 상대적으로 더 선명하고 더 잘 보이게 만드는데 영향(예를 들어, 긍정적인 영향)을 줄 수 있어서, 결국 사용자가 안경 디스플레이 스크린의 전경에 디스플레이되는 맵을 해독하고 보기하는 것을 쉽게 만들 수 있다.
도 2f는 일 실시예에 따라 선명한 렌즈(271) 및 뿌연 렌즈(275)를 갖는 하나의 안경(270)을 도시한다. 도시된 바와 같이, 안경(270)의 좌측 프레임(271)은 도 2a의 스마트 안경(225)이 턴 오프되는 것 때문에 선명한 렌즈(273)를 유지한다. 그러나, 일 실시예에서 그리고 도 2a와 관련하여 설명되는 바와 같이, 스마트 안경(225)은 자동으로 또는 수동으로 턴 온되어, 투명도 레벨을 동적으로 그리고 대응하여 조정할 수 있어서, 우측 프레임(275)의 뿌연 렌즈(277)과 관련하여 본원에 도시된 바와 같이, 더 부드럽고/거나 더 어두운 배경을 야기하여, 사용자가 렌즈(277)의 전경에서 임의의 텍스트, 그래픽 등을 더 양호하게 보기하는 것을 가능하게 할 수 있는 반면 흐릿한 또는 뿌연 배경은 무시한다.
도 3은 일 실시예에 따라 안경 디스플레이를 위한 향상된 보기 기능을 가능하게 하는 방법(300)을 도시한다. 방법(300)은 하드웨어(예를 들어, 회로, 전용 로직, 프로그래밍가능한 로직 등), 소프트웨어(프로세싱 디바이스 상에서 구동되는 명령어), 또는 이들의 조합을 포함할 수 있는 프로세싱 로직에 의해 수행될 수 있다. 일 실시예에서, 방법(300)은 도 1 내지 도 2f의 안경 메커니즘(110)에 의해 수행될 수 있다. 방법(300)의 프로세스는 표현에 있어서 간결성 및 명료성을 위해 선형 시퀀스로 도시되었지만, 이들 중 임의의 수는 병렬로, 비동기로, 또는 다른 순서로 수행될 수 있다는 것이 고려되어야 한다. 간결성을 위해, 도 1 및 도 2a 내지 2f와 관련하여 논의된 다수의 상세가 이후에 논의되거나 반복되지 않을 수 있다.
방법(300)은 주변 밝기 상태를 검출하는 블록(305)으로 시작할 수 있다. 블록(310)에서, 컴퓨팅 디바이스(예를 들어, 착용가능한 안경, 스마트 윈도우 등)에서 스마트 안경이 턴 온될 수 있고 스마트 안경과 연관된(따라서 컴퓨팅 디바이스와 연관된) 임의의 투명도는 동적으로 그리고 대응하여 조정되어서 적합한 레벨로 설정될 수 있다. 예를 들어, 착용가능한 안경의 사용자가 착용가능한 안경의 스크린 상에 디스플레이되는 임의의 텍스트 및/또는 그래픽을 보기 또는 판독하는 것을 어렵게 만들기 위해 주변 밝기 상태가 변경될 수 있다. 일 실시예에서, 스마트 안경을 턴 온하는 것 및 스마트 안경과 연관된 투명도 레벨을 조정하는 것에 있어서, 스크린의 전경에 디스플레이되는 텍스트 및/또는 그래픽을 사용자가 선명하게 보기할 수 있도록 적합하게 흐릿하거나 어두운 스크린(예를 들어, 디스플레이 안경 스크린) 배경이 가능할 수 있다.
블록(315)에서, 스마트 안경과 연관된 적합하게 조정된 투명도에 도달할 시에, 프로세스는 적합한 투명도 레벨로 시작할 수 있다. 전술된 바와 같이, 일부 실시예에서, 밝은 광 또는 배경 등을 갖는 것은 사용자의 디스플레이 스크린 보기에 영향을 줄 수 있어서, 사용자가 착용가능한 디바이스와 같은, 컴퓨팅 디바이스의 디스플레이 스크린의 콘텐츠를 보기하는 것을 어렵게 만들 수 있다. 예를 들어, 야외의 태양 또는 실내의 밝은 광 등은 사용자가 착용가능한 디바이스와 같은 컴퓨팅 디바이스의 디스플레이 스크린의 임의의 콘텐츠를 보기하는 것을 어렵게 만들 수 있다. 대조적으로, 뿌옇고, 흐릿하거나 어두운 배경 또는 적은 광 등을 갖는 것은, 야외 또는 실내에 상관 없이, 디스플레이 스크린의 보기에 영향(예를 들어, 긍정적인 영향)을 줄 수 있는 특정 밝기 상태가 사용자가 착용가능한 디바이스와 같은 컴퓨팅 디바이스의 디스플레이 스크린의 임의의 콘텐츠를 보기하는 것을 쉽게 만들 수 있다.
판정 블록(320)에서, 주변 밝기 상태에서의 변화가 검출되었는지 여부 또는 사용자가 음성 명령을 내렸는지 여부 및/또는 현재 투명도 레벨을 변경하는 제스쳐 명령을 내렸는지 여부에 관한 판정이 이루어진다. 그렇지 않다면, 프로세스는 블록(315)에서 현재 투명도 레벨로 시작할 수 있다. 그렇다면, 일 실시예에서, 블록(320)에서, 스마트 안경이 턴 오프되거나 현재 투명도 레벨이 조정되어야하는지 여부에 대한 다른 판정이 이루어진다. 주변 밝기 상태에서의 변화에 기초하여 또는 음성 명령 및/또는 제스쳐 명령에 응답하여, 스마트 안경이 턴 오프될 필요가 있다면, 스마트 안경이 블록(330)에서 턴 오프된다. 그러나, 현재 투명도 레벨이 조정되어야 한다면, 일 실시예에서, 스마트 디바이스와 연관된 현재 투명도 레벨은 블록(335)에서 새로운 적합한 레벨로 동적으로 조정된다. 블록(340)에서, 프로세스는 새로운 투명도 레벨로 시작하고, 추가로, 프로세스는 판정 블록(320)으로 시작한다.
도 4는 상술된 동작을 지원하는 것이 가능한 컴퓨팅 시스템(400)의 실시예를 도시한다. 컴퓨팅 시스템(400)은 예를 들어, 데스크탑 컴퓨팅 시스템, 랩탑 컴퓨팅 시스템, 셀룰러 전화, 셀룰러 가능 PDA를 포함하는 개인용 디지털 보조장치(PDA), 셋탑 박스, 스마트폰, 태블릿, 착용가능한 디바이스 등을 포함하는 컴퓨팅 및 전자 디바이스(유선 또는 무선)의 범위를 나타낸다. 대안의 컴퓨팅 시스템은 더 많은, 더 적은 및/또는 다른 컴포넌트를 포함할 수 있다. 컴퓨팅 디바이스(400)는 도 1과 관련하여 설명된 컴퓨팅 디바이스(100)와 동일하거나 유사하거나 이를 포함할 수 있다.
컴퓨팅 시스템(400)은 버스(405)(또는, 예를 들어, 링크, 상호접속, 또는 다른 타입의 통신 디바이스 또는 정보를 전달하는 인터페이스) 및 정보를 프로세싱할 수 있는 버스(405)에 연결된 프로세서를 포함한다. 컴퓨팅 시스템(400)은 단일 프로세서로 도시되었지만, 하나 이상의 중앙 프로세서, 이미지 신호 프로세서, 그래픽 프로세서, 및 비전 프로세서 등과 같은, 다중 프로세서 및/또는 코프로세서를 포함할 수 있다. 컴퓨팅 시스템(400)은 버스(405)에 연결되고 정보 및 프로세서(410)에 의해 실행될 수 있는 명령어를 저장할 수 있는 랜덤 액세스 메모리(RAM) 또는 다른 동적 저장 디바이스(420)(주 메모리로서 지칭됨)를 더 포함할 수 있다. 주 메모리(420)는 또한 프로세서(410)에 의한 명령어의 실행 동안 임시 변수 또는 다른 중간 정보를 저장하는데 사용될 수 있다.
컴퓨팅 시스템(400)은 또한 프로세서(410)를 위한 정적 정보 및 명령어를 저장할 수 있는 버스(405)에 연결된 판독 전용 메모리(ROM) 및/또는 다른 저장 디바이스(430)를 포함할 수 있다. 데이터 저장 디바이스(440)는 버스(405)에 연결되어 정보 및 명령어를 저장할 수 있다. 자기 디스크 또는 광학 디스크와 같은 데이터 저장 디바이스(440) 및 대응하는 드라이브는 컴퓨팅 시스템(400)에 연결될 수 있다.
컴퓨팅 시스템(400)은 또한 버스(405)를 통해 음극선관(CRT), 액정 디스플레이(LCD) 또는 유기 발광 다이오드(OLED) 어레이와 같은 디스플레이 디바이스(450)에 연결되어 정보를 사용자에게 디스플레이할 수 있다. 영숫자 및 다른 키를 포함하는, 사용자 입력 디바이스(460)는 버스(405)에 연결되어 정보 및 명령 선택을 프로세서(410)에 전달할 수 있다. 다른 타입의 사용자 입력 디바이스(460)는 지시 정보 및 명령 선택을 프로세서(410)로 전달하여 디스플레이(450) 상의 커서 움직임을 제어하는 마우스, 트랙볼, 터치스크린, 터치패드, 또는 커서 지시 키와 같은 커서 제어(470)이다. 컴퓨터 시스템(400)의 카메라 및 마이크로폰 어레이(490)는 버스(405)에 연결되어 제스쳐를 관할하고, 오디오 및 비디오를 기록하고 시각 및 음성 명령을 수신할 수 있다.
컴퓨팅 시스템(400)은 또한 로컬 영역 네트워크(LAN), 광역 네트워크(WAN), 대도시 네트워크(MAN), 개인 영역 네트워크(PAN), 블루투스, 클라우드 네트워크, 모바일 네트워크(예를 들어, 3세대(3G) 등), 인트라넷, 인터넷 등과 같은, 네트워크로의 액세스를 제공하는 네트워크 인터페이스(480)를 더 포함한다. 네트워크 인터페이스(480)는 예를 들어, 하나 이상의 안테나를 나타낼 수 있는 안테나(485)를 갖는 무선 네트워크 인터페이스를 포함할 수 있다. 네트워크 인터페이스(480)는 또한, 예를 들어, 이더넷 케이블, 동축 케이블, 광섬유 케이블, 직렬 케이블 또는 병렬 케이블이 될 수 있는, 네트워크 케이블(487)을 통해 원격 디바이스와 통신하는 유선 네트워크 인터페이스를 포함할 수 있다.
네트워크 인터페이스(480)는 예를 들어, IEEE 802.11b 및/또는 IEEE 802.11g 표준을 준수하는 것에 의해 LAN으로의 액세스를 제공할 수 있고/거나 무선 네트워크 인터페이스는 예를 들어, 블루투스 표준을 준수하는 것에 의해, 개인 영역 네트워크로의 액세스를 제공할 수 있다. 이전 및 후속 버전의 표준을 포함하는, 다른 무선 네트워크 인터페이스 및/또는 프로토콜이 또한 지원될 수 있다.
무선 LAN 표준을 통한 통신 이외에, 또는 대신에, 네트워크 인터페이스(480)는 예를 들어, 시간 분할 다중 액세스(TDMA) 프로토콜, 모바일 통신을 위한 글로벌 시스템(GSM) 프로토콜, 코드 분할 다중 액세스(CDMA) 프로토콜, 및/또는 임의의 다른 타입의 무선 통신 프로토콜을 사용한 무선 통신을 제공할 수 있다.
네트워크 인터페이스(480)는 모뎀, 네트워크 인터페이스 카드, 또는 예를 들어, LAN 또는 WAN을 지원하는 통신 링크를 제공하는 목적을 위해 이더넷, 토큰 링, 또는 다른 타입의 물리적 유선 또는 무선 부착물에 대한 연결을 위해 사용되는 것과 같이 다른 잘 알려진 인터페이스 디바이스와 같은, 하나 이상의 통신 인터페이스를 포함할 수 있다. 이 방식으로, 컴퓨터 시스템은 또한 예를 들어, 인트라넷 또는 인터넷을 포함하는 통상적인 네트워크 인프라스트럭쳐를 통해 다수의 주변 디바이스, 클라이언트, 제어 평면, 콘솔 또는 서버에 연결될 수 있다.
상술된 예보다 더 적은 또는 더 많은 장비를 갖춘 시스템은 특정 구현예에 대해 선호될 수 있음이 이해될 것이다. 따라서, 컴퓨팅 시스템(400)의 구성은 가격 제약, 성능 필요상태, 기술적 향상, 또는 다른 상황과 같은, 다양한 요인에 따라 구현예 마다 달라질 수 있다. 전자 디바이스 또는 컴퓨터 시스템(400)의 예는 제한 없이 모바일 디바이스, 개인용 디지털 보조장치, 모바일 컴퓨팅 디바이스, 스마트폰, 셀룰러 전화, 핸드셋, 단방향 호출기, 양방향 호출기, 메시징 디바이스, 컴퓨터, 개인용 컴퓨터(PC), 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북 컴퓨터, 핸드헬드 컴퓨터, 태블릿 컴퓨터, 서버, 서버 어레이 또는 서버 팜, 웹 서버, 네트워크 서버, 인터넷 서버, 워크 스테이션, 미니 컴퓨터, 메인 프레임 컴퓨터, 슈퍼컴퓨터, 네트워크 어플라이언스, 웹 어플라이언스, 분산 컴퓨팅 시스템, 멀티프로세서 시스템, 프로세서 기반 시스템, 소비자 전자기기, 프로그래밍가능한 소비자 전자기기, 텔레비전, 디지털 텔레비전, 셋탑 박스, 무선 액세스 포인트, 기지국, 가입자 스테이션, 모바일 가입자 센터, 무선 네트워크 제어기, 라우터, 허브, 게이트웨이, 브릿지, 스위치, 머신 또는 이들의 조합을 포함할 수 있다.
실시예들은 부모보드(parentboard)를 사용하여 상호접속되는 하나 이상의 마이크로칩 또는 집적 회로, 하드와이어드 로직, 메모리 디바이스에 의해 저장되고 마이크로프로세서에 의해 실행되는 소프트웨어, 펌웨어, 애플리케이션 특정 집적 회로(ASIC), 및/또는 필드 프로그래밍가능한 게이트 어레이(FPGA) 중 어느 것 또는 조합으로서 구현될 수 있다. 용어 "로직"은 예로서, 소프트웨어 또는 하드웨어 및/또는 소프트웨어 및 하드웨어의 조합을 포함할 수 있다.
실시예는 예를 들어, 컴퓨터, 컴퓨터 네트워크, 또는 다른 전자 디바이스에 의해 실행될 때, 본원에서 설명된 실시예에 따른 동작을 수행하는 하나 이상의 머신을 야기할 수 있는, 내부에 저장된 머신 실행가능한 명령어를 갖는 하나 이상의 머신 판독가능 매체를 포함할 수 있는 컴퓨터 프로그램 제품으로서 제공될 수 있다. 머신 판독가능 매체는, 플로피 디스켓, 광학 디스크, CD-ROM(컴팩트 디스크-판독 전용 메모리), 및 자기 광학 디스크, ROM, RAM, EPROM(삭제가능한 프로그래밍가능한 판독 전용 메모리), EEPROM(전기적으로 삭제가능한 프로그래밍가능한 판독 전용 메모리), 자기 또는 광학 카드, 플래쉬 메모리, 또는 머신 실행가능한 명령어를 저장하기에 적합한 다른 타입의 매체/머신 판독가능 매체를 포함하지만 이에 제한되지 않는다.
또한, 실시예는 컴퓨터 프로그램 제품으로서 다운로드될 수 있고, 프로그램은 통신 링크(예를 들어, 모뎀 및/또는 네트워크 접속)를 통해 반송 파 또는 다른 전파 매체로 구현되는 및/또는 변조되는 하나 이상의 데이터 신호의 방식으로 원격 컴퓨터(예를 들어, 서버)로부터 요청 컴퓨터(예를 들어, 클라이언트)로 전달될 수 있다.
"일 실시예", "실시예", "예시의 실시예", "다양한 실시예" 등에 대한 참조는 설명된 실시예(들)이 특정 특징, 구조, 또는 특성을 포함하지만 모든 실시예가 반드시 특정 특징, 구조, 또는 특징을 포함하지 않는다는 것을 나타낸다. 또한, 일부 실시예는 다른 실시예들을 위해 설명된 특징들 중 일부, 모두를 갖거나 아무것도 갖지 않을 수 있다.
다음의 설명 및 청구항에서, 파생어와 함께 용어 "연결된"이 사용될 수 있다. "연결된"은 둘 이상의 요소가 함께 동작하거나 서로 인터랙팅한다는 것을 나타내는데 사용되지만, 이들 사이에 개재하는 물리적 또는 전기적 컴포넌트를 갖거나 갖지 않을 수 있다.
청구항에서 사용된 바와 같이, 달리 특정되지 않으면, 공통의 구성요소를 설명하는 서수형 형용사 "제 1", "제 2", "제 3" 등의 사용은 단지 유사한 구성 요소의 다른 경우가 지칭되는 것이고, 설명된 구성요소가 임시로, 공간적으로, 순위대로, 또는 임의의 다른 방식으로 주어진 시퀀스가 되어야한다는 것을 암시하기 위한 것은 아니다.
도 5는 위에서 논의된 동작을 지원하는 것이 가능한 컴퓨팅 환경(500)의 실시예를 도시한다. 모듈 및 시스템은 다양한 다른 하드웨어 아키텍쳐 및 도 9에 도시된 것을 포함하는 폼 팩터로 구현될 수 있다.
명령 실행 모듈(501)은 명령어를 캐싱하고 실행하며 도시된 다른 모듈 및 시스템들 사이에 태스크를 분포시키는 중앙 처리 유닛을 포함한다. 이는 명령어 스택, 중간 및 최종 결과를 저장하는 캐시 메모리, 및 애플리케이션 및 운영 시스템을 저장하는 대용량 메모리를 포함할 수 있다. 명령 실행 모듈은 또한 시스템을 위한 중앙 조직 및 태스크 할당 유닛으로서 역할을 할 수 있다.
스크린 렌더링 모듈(521)은 사용자가 볼 수 있도록 하나 이상의 다중 스크린 상에 객체를 그린다. 이는 이하에서 설명되는 가상 객체 행동 모듈(504)로부터 데이터를 수신하고 가상 객체 및 적합한 스크린 또는 스크린들 상의 임의의 다른 객체 및 힘을 렌더링하도록 구성될 수 있다. 따라서, 가장 객체 행동 모듈로부터의 데이터는 예를 들어, 가상 객체 및 연관된 제스쳐, 힘 및 객체의 위치 및 역동성을 결정할 수 있고, 따라서, 스크린 렌더링 모듈은 가상 객체 및 연관된 객체 및 스크린 상의 환경을 묘사할 것이다. 스크린 렌더링 모듈은 이하에서 설명되는 인접 스크린 관점 모듈(507)로부터 데이터를 수신하거나 인접 스크린 관점 모듈이 연관된 디바이스의 디스플레이로 가상 객체가 이동될 수 있다면 가상 객체에 대한 타겟 랜딩 영역을 묘사하도록 더 구성될 수 있다. 따라서, 예를 들어, 가상 객체가 주요 스크린으로부터 보조 스크린으로 이동된다면, 인접 스크린 관점 모듈(2)은 스크린 렌더링 모듈로 데이터를 송신하여, 예를 들어 그림자 형식으로, 사용자의 손 움직임 또는 눈 움직임에 대한 해당 트랙 상의 가상 객체를 위한 하나 이상의 타겟 랜딩 영역을 제안할 수 있다.
객체 및 제스쳐 인식 시스템(522)은 사용자의 손을 인식 및 추적하고 사용자의 제스쳐를 구성될 수 있다. 이러한 모듈은 손, 손가락, 손가락 제스쳐, 손 움직임 및 디스플레이에 상대적인 손의 위치를 인식하는데 사용될 수 있다. 예를 들어, 객체 및 제스쳐 인식 모듈은 예를 들어 사용자가 다중 스크린 중 하나 또는 다른 것으로 가상 객체를 떨어뜨리거나 던지는 신체 부분 제스쳐를 수행하거나, 사용자가 다중 스크린 중 하나 또는 다른 것의 베젤로 가상 객체를 이동시키는 신체 부분 제스쳐를 수행한다는 것을 판정할 수 있다. 객체 및 제스쳐 인식 시스템은 카메라 또는 카메라 어레이, 마이크로폰 또는 마이크로폰 어레이, 터치 스크린 또는 터치 표면, 또는 포인팅 디바이스, 또는 이러한 아이템들의 일부 조합에 연결되어 사용자로부터의 제스쳐 및 명령을 검출할 수 있다.
객체 및 제스쳐 인식 시스템의 터치 스크린 또는 터치 표면은 터치 스크린 센서를 포함할 수 있다. 센서로부터의 데이터는 하드웨어, 소프트웨어, 펌웨어, 또는 동일한 것의 조합에 입력될 수 있어서 가상 객체의 대응하는 동적 행동에 대해 스크린 또는 표면 상에 사용자의 손의 터치 제스쳐를 맵핑할 수 있다. 스크린에 대해 상대적인 사용자 손가락의 스와이프 속도와 같이, 사용자의 손으로부터의 입력에 기초하여 가상 객체에 대한 다양한 모멘텀 행동을 가능하게 하는 모멘텀 및 관성 인자에 대해 센서 데이터가 사용될 수 있다. 핀칭 제스쳐는 디스플레이 스크린으로부터 가상 객체를 들어올리거나, 가상 객체와 연관된 가상 바인딩을 생성하기 시작하거나 디스플레이 상에서 줌 인 또는 줌 아웃하는 명령으로서 해석될 수 있다. 유사한 명령이 터치 표면이 없는 하나 이상의 카메라를 사용하는 객체 및 제스쳐 인식 시스템에 의해 생성될 수 있다.
경고 지시 모듈(523)은 사용자의 얼굴 또는 손의 위치 또는 방향을 추적하는 카메라 또는 다른 센서를 갖출 수 있다. 제스쳐 또는 음성 명령이 발행될 때, 시스템이 제스쳐에 대한 적합한 스크린을 결정할 수 있다. 일례에서, 사용자가 해당 디스플레이를 대면하고 있는지 여부를 검출하도록 각각의 디스플레이 근처에 카메라가 장착된다. 그렇다면, 경고 지시 모듈 정보가 객체 및 제스쳐 인식 모듈(522)로 제공되어 제스쳐 및 명령이 활성 디스플레이에 대해 적합한 라이브러리와 연관된다는 것을 보장한다. 유사하게, 사용자가 모든 스크린으로부터 눈길을 돌린다면, 명령이 무시될 수 있다.
디바이스 근접 검출 모듈(525)은 근접 센서, 나침반, GPS(global positioning system) 수신기, 개인 영역 네트워크 무선 장치, 및 다른 디바이스의 근접도를 판정하는 삼각법 및 다른 기술과 함께, 다른 타입의 센서를 사용할 수 있다. 근처 디바이스가 검출되면, 이는 시스템에 등록될 수 있고 이 타입은 입력 디바이스 또는 디스플레이 디바이스 또는 둘 다로서 판정될 수 있다. 입력 디바이스에 대해, 수신된 데이터는 또한 객체 제스쳐 및 인식 시스템(522)에 적용될 수 있다. 디스플레이 디바이스에 대해, 인접 스크린 관점 모듈(507)로 고려될 수 있다.
가상 객체 행동 모듈(504)은 객체 속도 및 방향 모듈로부터 입력을 수신하고 이러한 입력을 디스플레이에 도시된 가상 객체에 적용하도록 구성될 수 있다. 따라서, 예를 들어, 객체 및 제스쳐 인식 시스템은 사용자 제스쳐를 해석하고 사용자의 손의 캡쳐된 움직임을 인식된 움직임에 맵핑함으로써, 가상 객체 추적기 모듈이 가상 객체의 위치 및 움직임을 객체 및 제스쳐 인식 시스템에 의해 인식된 움직임과 연관시킬 것이고, 객체 및 속도 및 방향 모듈은 가상 객체의 움직임의 역동성을 캡쳐하고, 가상 객체 행동 모듈은 객체 및 속도 및 방향 모듈로부터의 입력을 수신하여 객체 및 속도 및 방향 모듈부터의 입력에 대응하는 가상 객체의 움직임을 지시하는 데이터를 생성할 것이다.
한편, 가상 객체 추적기 모듈(506)은 객체 및 제스쳐 인식 모듈로부터의 입력에 기초하여, 가상 객체가 디스플레이 부근의 3차원 공간에 위치되는 곳, 및 사용자의 어느 신체 부분이 가상 객체를 잡고 있는지를 추적하도록 구성될 수 있다. 가상 객체 추적기 모듈(506)은 예를 들어 가상 객체가 스크린들을 가로질러 그리고 그 사이에서 이동하는 것을 추적하고 사용자의 어느 신체 부분이 가상 객체를 잡고 있는지를 추적할 수 있다. 가상 객체를 잡고 있는 신체 부분을 추적하는 것은 신체 부분의 공기 움직임의 연속적인 인식을 가능하게 하고, 따라서 가상 객체가 하나 이상의 스크린 상으로 해제되었는지 여부에 관한 궁극적인 인식을 가능하게 한다.
뷰 및 스크린 동기화 제스쳐 모듈(508)은, 경고 지시 모듈(523)로부터 뷰 및 스크린의 선택 또는 둘 다, 및 일부 경우에, 뷰가 활성 뷰이고 스크린이 활성 스크린인지를 판정하는 음성 명령을 수신한다. 이는 또한 관련 제스쳐 라이브러리가 객체 및 제스쳐 인식 시스템(522)에 대해 로딩되게 할 수 있다. 하나 이상의 스크린 상의 애플리케이션의 다양한 뷰는 대안의 제스쳐 라이브러리 또는 주어진 뷰에 대한 제스쳐 템플릿의 세트와 연관될 수 있다. 도 1a의 예시로서, 핀치 해제 제스쳐는 어뢰를 발사하지만, 도 1b에서는, 동일한 제스쳐가 폭뢰를 발사한다.
디바이스 근접 검출 모듈(525)을 포함하거나 연결될 수 있는, 인접 스크린 관점 모듈(507)은 다른 디스플레이에 상대적인 하나의 디스플레이의 각도 및 위치를 결정하도록 구성될 수 있다. 투사된 디스플레이는, 예를 들어, 벽 또는 스크린 상으로 투사되는 이미지를 포함한다. 근처 스크린의 근접도 및 이로부터 투사된 디스플레이의 대응하는 각도 및 방향을 검출하는 능력은 적외선 에미터 및 수신기 또는 전자기 또는 광 검출 감지 능력으로 달성될 수 있다. 터치 입력을 갖는 투사된 디스플레이를 가능하게 하는 기술에 대해, 수신한 비디오는 투사된 디스플레이의 위치를 결정하고 각도에서 디스플레이함으로써 야기되는 왜곡을 보정하기 위해 분석될 수 있다. 가속도계, 자력계, 나침반 또는 카메라는 디바이스가 유지되는 각도를 결정하는데 사용될 수 있는 반면 적외선 에미터 및 카메라는 스크린 디바이스의 방향이 인접 디바이스 상의 센서와 관련하여 결정되는 것을 가능하게 할 수 있다. 인접 스크린 관점 모듈(507)은, 이러한 방식으로, 자체 스크린 좌표에 상대적으로 인접한 스크린의 좌표를 결정할 수 있다. 따라서, 인접 스크린 관점 모듈은 디바이스가 서로, 및 하나 이상의 가상 객체의 전체 스크린을 이동시키기 위한 추가의 잠재적인 타겟에 근접한지를 판정할 수 있다. 인접 스크린 관점 모듈은 또한 스크린의 위치가 모든 기존 객체 및 가상 객체를 나타내는 3차원 공간의 모델과 상관되는 것을 가능하게 할 수 있다.
객체 및 속도 및 방향 모듈(503)은 가상 객체 추적기 모듈로부터의 입력을 수신함으로써, 이의 궤적, 속도(선 또는 각), 모멘텀(선 또는 각) 등과 같이, 이동되고 있는 가상 객체의 역동성을 추정하도록 구성될 수 있다. 객체 및 속도 및 방향 모듈은 또한, 예를 들어 가상 바인딩의 늘어남의 가속도, 굴절, 각도, 및 사용자의 신체 부분에 의해 해제되었던 가상 객체의 동적 특성을 추정함으로써, 임의의 물리적 힘의 역동성을 추정하도록 구성될 수 있다. 객체 및 속도 및 방향 모듈은 또한 이미지 움직임, 크기 및 각도 변화를 사용하여 손 및 손가락의 속도와 같은, 객체의 속도를 추정할 수 있다.
모멘텀 및 관성 모듈(502)은 이미지 평면에서 또는 3차원 공간에서 객체의 이미지 움직임, 이미지 크기, 및 각도 변화를 사용하여 공간에서 또는 디스플레이 상에서 객체의 속도 및 방향을 추정할 수 있다. 모멘텀 및 관성 모듈은 객체 및 제스쳐 인식 시스템(522)에 연결되어 손, 손가락, 및 다른 신체 부분에 의해 수행되는 제스쳐의 속도를 추정하고, 또한 이러한 추정을 적용하여 제스쳐에 의해 영향을 받게 될 가상 객체에 대한 모멘텀 및 속도를 결정할 수 있다.
3D 이미지 인터랙션 및 효과 모듈(505)은 하나 이상의 스크린의 밖으로 연장하는 것으로 보이는 3D 이미지와의 사용자 인터랙션을 추적한다. z-축에서 객체의 영향(스크린의 평면을 향하고 벗어남)은 서로에 대한 이들 객체의 상대적인 영향과 함께 계산될 수 있다. 예를 들어, 사용자 제스쳐에 의해 던져진 객체는 가상 객체가 스크린의 평면에 도착하기 이전에 전경에서 3D 객체에 의해 영향을 받을 수 있다. 이들 객체는 발사체의 방향 또는 속도를 변경하거나 이를 전체적으로 파괴할 수 있다. 객체는 하나 이상의 디스플레이 상의 전경에서 3D 이미지 인터랙션 및 영향 모듈에 의해 렌더링될 수 있다.
다음의 조항 및/또는 예들은 추가 실시예들 또는 예들과 관련된다. 예들의 세부 사항들이 하나 이상의 실시예들의 어디에서든 사용될 수 있다. 다른 실시예들 또는 예들의 다양한 특징들은 포함되는 일부 특징들과 제외되는 다른 것들과 다양하게 통합되어 다양한 다른 적용예에 적합할 수 있다. 예들은 방법, 방법의 동작을 수행하기 위한 수단, 머신에 의해 실행될 때, 머신으로 하여금 본원에 설명된 실시예들 및 예들에 따른 하이브리드 통신을 가능하게 하기 위한 장치 또는 시스템 또는 방법의 동작을 수행하게 하는 명령어를 포함하는 적어도 하나의 머신 판독가능 매체와 같은 청구 대상을 포함할 수 있다.
일부 실시예들은 안경 디스플레이를 위한 향상된 보기 기능을 동적으로 제공하는 장치를 포함하는 예 1과 관련되며, 장치는 착용가능한 안경을 포함하는 컴퓨팅 디바이스와 관련한 밝기 상태를 검출하는 검출/지각 로직―착용가능한 안경은 스마트 안경을 포함하고, 검출/지각 로직은 또한 밝기 상태의 변화를 검출함―과, 밝기 상태의 변화의 영향을 평가하는 상태 평가 로직과, 밝기 상태의 변화에 기초하여, 스마트 안경의 턴 온 또는 턴 오프를 가능하게 하는 투명도 온/오프 로직을 포함한다.
예 2는 예 1의 청구 대상을 포함하며, 스마트 안경을 턴 온하는 것은 스마트 안경의 투명도에 대한 잠재적인 조정을 턴 온하는 것이고, 스마트 안경을 턴 오프하는 것은 스마트 안경의 투명도를 디폴트 위치로 만드는 것이며, 컴퓨팅 디바이스는 헤드 마운트 디스플레이 또는 스마트 윈도우를 더 포함한다,
예 3은 예 1의 청구 대상을 포함하며, 평가된 영향에 기초하여 투명도를 조정하는 투명도 조정 로직을 더 포함하고, 영향은 컴퓨팅 디바이스의 디스플레이 스크린을 통한 콘텐츠 보기를 어렵게 하거나 또는 쉽게 하는 것을 포함하고, 디스플레이 스크린은 투명 안경 디스플레이 스크린을 포함한다.
예 4는 예 3의 청구 대상을 포함하며, 영향이 콘텐츠 보기를 어렵게 할 경우, 스마트 안경이 어두워지도록 스마트 안경의 투명도가 낮아져서 어두운 배경이 콘텐츠의 선명한 보기를 가능하게 하며, 영향이 콘텐츠 보기를 쉽게 할 경우, 스마트 안경이 디폴트 위치에 더 가깝게 설정되도록 스마트 안경의 투명도가 높아진다.
예 5는 예 1의 청구 대상을 포함하며, 제 1 캡쳐/감지 컴포넌트를 통해, 컴퓨팅 디바이스의 사용자로부터의 음성 명령을 검출하여 스마트 안경의 투명도에 대한 음성 명령 기반 조정을 가능하게 하는 음성 인식 및 명령 로직을 더 포함하되, 제 1 캡쳐/감지 컴포넌트는 마이크로폰을 포함한다.
예 6은 예 1의 청구 대상을 포함하며, 제 2 캡쳐/감지 컴포넌트를 통해, 컴퓨팅 디바이스의 사용자로부터의 제스쳐 명령을 검출하여 스마트 안경의 투명도에 대한 제스쳐 명령 기반 조정을 가능하게 하는 제스쳐 인식 및 명령 로직을 더 포함하되, 제 2 캡쳐/감지 컴포넌트는 카메라를 포함한다.
예 7은 예 1의 청구 대상을 포함하며, 컴퓨팅 디바이스의 출력 컴포넌트의 온/오프 조정 버튼을 더 포함하되, 온/오프 조정 버튼은 스마트 안경의 투명도의 수동 조정을 가능하게 한다.
예 8은 예 1의 청구 대상을 포함하며, 밝기 상태는 제 3 캡쳐/감지 컴포넌트를 통해 검출/지각 로직에 의해 검출되고, 제 3 캡쳐/감지 컴포넌트는 광 센서를 포함하며, 스마트 안경은 컴퓨팅 디바이스의 전원 소스를 통해 전원이 공급된다.
일부 실시예들은 안경 디스플레이를 위한 향상된 보기 기능을 동적으로 제공하는 방법을 포함하는 예 9와 관련되며, 방법은 착용가능한 안경을 포함하는 컴퓨팅 디바이스와 관련한 밝기 상태를 검출하는 단계―착용가능한 안경은 스마트 안경을 포함하고, 검출은 밝기 상태의 변화를 검출하는 것을 더 포함함―와, 밝기 상태의 변화의 영향을 평가하는 단계와, 밝기 상태의 변화에 기초하여, 스마트 안경의 턴 온 또는 턴 오프를 가능하게 하는 단계를 포함한다.
예 10은 예 9의 청구 대상을 포함하며, 스마트 안경을 턴 온하는 것은 스마트 안경의 투명도에 대한 잠재적인 조정을 턴 온하는 것이고, 스마트 안경을 턴 오프하는 것은 스마트 안경의 투명도를 디폴트 위치로 만드는 것이며, 컴퓨팅 디바이스는 헤드 마운트 디스플레이 또는 스마트 윈도우를 더 포함한다.
예 11은 예 9의 청구 대상을 포함하며, 평가된 영향에 기초하여 투명도를 조정하는 단계를 더 포함하되, 영향은 컴퓨팅 디바이스의 디스플레이 스크린을 통한 콘텐츠 보기를 어렵게 하거나 또는 쉽게 하는 것을 포함하고, 디스플레이 스크린은 투명 안경 디스플레이 스크린을 포함한다.
예 12는 예 11의 청구 대상을 포함하며, 영향이 콘텐츠 보기를 어렵게 할 경우, 스마트 안경이 어두워지도록 스마트 안경의 투명도가 낮아져서 어두운 배경이 콘텐츠의 선명한 보기를 가능하게 하며, 영향이 콘텐츠 보기를 쉽게 할 경우, 스마트 안경이 디폴트 위치에 더 가깝게 설정되도록 스마트 안경의 투명도가 높아진다.
예 13은 예 9의 청구 대상을 포함하며, 제 1 캡쳐/감지 컴포넌트를 통해, 컴퓨팅 디바이스의 사용자로부터의 음성 명령을 검출하여 스마트 안경의 투명도에 대한 음성 명령 기반 조정을 가능하게 하는 단계를 더 포함하되, 제 1 캡쳐/감지 컴포넌트는 마이크로폰을 포함한다.
예 14는 예 9의 청구 대상을 포함하며, 제 2 캡쳐/감지 컴포넌트를 통해, 컴퓨팅 디바이스의 사용자로부터의 제스쳐 명령을 검출하여 스마트 안경의 투명도에 대한 제스쳐 명령 기반 조정을 가능하게 하는 단계를 더 포함하되, 제 2 캡쳐/감지 컴포넌트는 카메라를 포함한다.
예 15는 예 9의 청구 대상을 포함하며, 스마트 안경의 투명도의 수동 조정을 가능하게 하는 단계를 더 포함하되, 수동 조정은 컴퓨팅 디바이스의 출력 컴포넌트의 온/오프 조정 버튼을 통해 가능해진다.
예 16은 예 9의 청구 대상을 포함하며, 밝기 상태는 제 3 캡쳐/감지 컴포넌트를 통해 검출되고, 제 3 캡쳐/감지 컴포넌트는 광 센서를 포함하며, 스마트 안경은 컴퓨팅 디바이스의 전원 소스를 통해 전원이 공급된다.
예 17은 복수의 명령어를 포함하는 적어도 하나의 머신 판독가능 매체를 포함하고, 명령어는 컴퓨팅 디바이스 상에서 실행될 때, 임의의 선행하는 청구항에 청구된 방법 또는 장치를 구현 또는 수행 또는 실현한다.
예 18은 복수의 명령어를 포함하는 적어도 하나의 비일시적 또는 유형의 머신 판독가능 매체를 포함하고, 명령어는 컴퓨팅 디바이스 상에서 실행될 때, 임의의 선행하는 청구항에 청구된 방법 또는 장치를 구현 또는 수행 또는 실현한다.
예 19는 임의의 선행하는 청구항에 청구된 방법 또는 장치를 구현 또는 수행 또는 실현하는 메커니즘을 포함하는 시스템을 포함한다.
예 20은 임의의 선행하는 청구항에 청구된 방법을 수행하는 수단을 포함하는 장치를 포함한다.
예 21은 임의의 선행하는 청구항에 청구된 방법 또는 장치를 구현 또는 수행 또는 실현하도록 구성된 컴퓨팅 디바이스를 포함한다.
예 22는 임의의 선행하는 청구항에 청구된 방법 또는 장치를 구현 또는 수행 또는 실현하도록 구성된 통신 디바이스를 포함한다.
일부 실시예들은 명령어들을 갖는 저장 디바이스를 포함하는 시스템, 및 명령어를 실행하여 하나 이상의 동작을 수행하는 메커니즘을 가능하게 하는 프로세서를 포함하는 예 23과 관련되며, 동작은 착용가능한 안경을 포함하는 컴퓨팅 디바이스와 관련한 밝기 상태를 검출하는 것―착용가능한 안경은 스마트 안경을 포함하고, 검출은 또한 밝기 상태의 변화를 검출하는 것을 포함함―과, 밝기 상태의 변화의 영향을 평가하는 것과, 밝기 상태의 변화에 기초하여, 스마트 안경의 턴 온 또는 턴 오프를 가능하게 하는 것을 포함한다.
예 24는 예 23의 청구 대상을 포함하며, 스마트 안경을 턴 온하는 것은 스마트 안경의 투명도에 대한 잠재적인 조정을 턴 온 하는 것이고, 스마트 안경을 턴 오프하는 것은 스마트 안경의 투명도를 디폴트 위치로 만드는 것이며, 컴퓨팅 디바이스는 헤드 마운트 디스플레이 또는 스마트 윈도우를 더 포함한다.
예 25는 예 23의 청구 대상을 포함하며, 하나 이상의 동작은 평가된 영향에 기초하여 투명도를 조정하는 것을 더 포함하되, 영향은 컴퓨팅 디바이스의 디스플레이 스크린을 통한 콘텐츠 보기를 어렵게 하거나 또는 쉽게 하는 것을 포함하고, 디스플레이 스크린은 투명 안경 디스플레이 스크린을 포함한다.
예 26은 예 25의 청구 대상을 포함하며, 영향이 콘텐츠 보기를 어렵게 할 경우, 스마트 안경이 어두워지도록 스마트 안경의 투명도가 낮아져서 어두운 배경이 콘텐츠의 선명한 보기를 가능하게 하며, 영향이 콘텐츠 보기를 쉽게 할 경우, 스마트 안경이 디폴트 위치에 더 가깝게 설정되도록 스마트 안경의 투명도가 높아진다.
예 27은 예 23의 청구 대상을 포함하며, 하나 이상의 동작은 제 1 캡쳐/감지 컴포넌트를 통해, 컴퓨팅 디바이스의 사용자로부터의 음성 명령을 검출하여 스마트 안경의 투명도에 대한 음성 명령 기반 조정을 가능하게 하는 것을 더 포함하되, 제 1 캡쳐/감지 컴포넌트는 마이크로폰을 포함한다.
예 28은 예 23의 청구 대상을 포함하며, 하나 이상의 동작은 제 2 캡쳐/감지 컴포넌트를 통해, 컴퓨팅 디바이스의 사용자로부터의 제스쳐 명령을 검출하여 스마트 안경의 투명도에 대한 제스쳐 명령 기반 조정을 가능하게 하는 것을 더 포함하되, 제 2 캡쳐/감지 컴포넌트는 카메라를 포함한다.
예 29는 예 23의 청구 대상을 포함하며, 하나 이상의 동작은 스마트 안경의 투명도의 수동 조정을 가능하게 하는 것을 더 포함하되, 수동 조정은 컴퓨팅 디바이스의 출력 컴포넌트의 온/오프 조정 버튼을 통해 가능해진다.
예 30은 예 23의 청구 대상을 포함하며, 밝기 상태는 제 3 캡쳐/감지 컴포넌트를 통해 검출되고, 제 3 캡쳐/감지 컴포넌트는 광 센서를 포함하며, 스마트 안경은 컴퓨팅 디바이스의 전원 소스를 통해 전원이 공급된다.
일부 실시예들은 장치를 포함하는 예 31과 관련되며, 장치는 착용가능한 안경을 포함하는 컴퓨팅 디바이스와 관련한 밝기 상태를 검출하는 수단―착용가능한 안경은 스마트 안경을 포함하고, 검출하는 수단은 밝기 상태의 변화를 검출하는 수단을 더 포함함―과, 밝기 상태의 변화의 영향을 평가하는 수단과, 밝기 상태의 변화에 기초하여, 스마트 안경의 턴 온 또는 턴 오프를 가능하게 하는 수단을 포함한다.
예 32은 예 31의 청구 대상을 포함하며, 스마트 안경을 턴 온하는 것은 스마트 안경의 투명도에 대한 잠재적인 조정을 턴 온하는 것이고, 스마트 안경을 턴 오프하는 것은 스마트 안경의 투명도를 디폴트 위치로 만드는 것이며, 컴퓨팅 디바이스는 헤드 마운트 디스플레이 또는 스마트 윈도우를 더 포함한다.
예 33은 예 31의 청구 대상을 포함하며, 평가된 영향에 기초하여 투명도를 대한 조정하는 단계를 더 포함하되, 영향은 컴퓨팅 디바이스의 디스플레이 스크린을 통한 콘텐츠 보기를 어렵게 하거나 또는 쉽게 하는 것을 포함하고, 디스플레이 스크린은 투명 안경 디스플레이 스크린을 포함한다.
예 34는 예 33의 청구 대상을 포함하며, 영향이 콘텐츠 보기를 어렵게 할 경우, 스마트 안경이 어두워지도록 스마트 안경의 투명도가 낮아져서 어두운 배경이 콘텐츠의 선명한 보기를 가능하게 하며, 영향이 콘텐츠 보기를 쉽게 할 경우, 스마트 안경이 디폴트 위치에 더 가깝게 설정되도록 스마트 안경의 투명도가 높아진다.
예 35는 예 31의 청구 대상을 포함하며, 제 1 캡쳐/감지 컴포넌트를 통해, 컴퓨팅 디바이스의 사용자로부터의 음성 명령을 검출하여 스마트 안경의 투명도에 대한 음성 명령 기반 조정을 가능하게 하는 수단을 더 포함하되, 제 1 캡쳐/감지 컴포넌트는 마이크로폰을 포함한다.
예 36은 예 31의 청구 대상을 포함하며, 제 2 캡쳐/감지 컴포넌트를 통해, 컴퓨팅 디바이스의 사용자로부터의 제스쳐 명령을 검출하여 스마트 안경의 투명도에 대한 제스쳐 명령 기반 조정을 가능하게 하는 수단을 더 포함하되, 제 2 캡쳐/감지 컴포넌트는 카메라를 포함한다.
예 37은 예 31의 청구 대상을 포함하며, 스마트 안경의 투명도의 수동 조정을 가능하게 하는 수단을 더 포함하되, 수동 조정은 컴퓨팅 디바이스의 출력 컴포넌트의 온/오프 조정 버튼을 통해 가능해진다.
예 38은 예 31의 청구 대상을 포함하며, 밝기 상태는 제 3 캡쳐/감지 컴포넌트를 통해 검출되고, 제 3 캡쳐/감지 컴포넌트는 광 센서를 포함하며, 스마트 안경은 컴퓨팅 디바이스의 전원 소스를 통해 전원이 공급된다.
도면 및 다음의 설명은 실시예의 예들을 제공한다. 하나 이상의 설명된 구성요소가 단일 기능 구성요소에 잘 통합될 수 있음이 이해될 것이다. 대안으로, 특정 실시예는 다수의 기능적 구성요소로 분열될 수 있다. 일 실시예로부터의 구성요소는 다른 실시예에 추가될 수 있다. 예를 들어, 본원에 설명된 프로세스의 순서는 변경될 수 있고 본원에 설명된 순서에 제한되지 않는다. 또한, 임의의 흐름도의 동작들은 도시된 순서로 구현될 필요가 없거나, 반드시 모든 동작이 수행될 필요가 없다. 또한, 다른 동작에 의존적이지 않은 이들 동작은 다른 동작과 병렬로 수행될 수 있다. 실시예들의 범위는 결코 이러한 특정 실시예로 제한되는 것이 아니다. 명세서에서 명시적으로 주어졌는지 여부와 상관없이, 구조, 크기, 및 재료의 사용에 있어서의 차이와 같이, 다양한 변경이 가능하다. 실시예들의 범위는 적어도 다음의 청구항에 의해 주어진 것과 다르지 않다.

Claims (21)

  1. 안경 디스플레이를 위한 향상된 보기(viewing) 기능을 동적으로 제공하는 장치로서,
    착용가능한 안경을 포함하는 컴퓨팅 디바이스와 관련한 밝기 상태(light condition)를 검출하는 검출/지각 로직―상기 착용가능한 안경은 스마트 안경을 포함하고, 상기 검출/지각 로직은 또한 상기 밝기 상태의 변화를 검출함―과,
    상기 밝기 상태의 변화의 영향을 평가하는 상태 평가 로직과,
    상기 밝기 상태의 변화에 기초하여, 상기 스마트 안경의 턴 온 또는 턴 오프를 가능하게 하는 투명도 온/오프 로직을 포함하는
    장치.
  2. 제 1 항에 있어서,
    상기 스마트 안경을 턴 온하는 것은 상기 스마트 안경의 투명도에 대한 잠재적인 조정을 턴 온하는 것이고, 상기 스마트 안경을 턴 오프하는 것은 상기 스마트 안경의 투명도를 디폴트 위치(default position)로 만드는 것이며, 상기 컴퓨팅 디바이스는 헤드 마운트 디스플레이(head-mounted display) 또는 스마트 윈도우를 더 포함하는
    장치.
  3. 제 1 항 또는 제 2 항에 있어서,
    평가된 영향에 기초하여 상기 투명도를 조정하는 투명도 조정 로직을 더 포함하되,
    상기 영향은 상기 컴퓨팅 디바이스의 디스플레이 스크린을 통한 콘텐츠 보기를 어렵게 하거나 또는 쉽게 하는 것을 포함하고,
    상기 디스플레이 스크린은 투명 안경 디스플레이 스크린을 포함하는
    장치.
  4. 제 3 항에 있어서,
    상기 영향이 상기 콘텐츠 보기를 어렵게 할 경우, 상기 스마트 안경이 어두워지도록 상기 스마트 안경의 투명도가 낮아져서 어두운 배경이 상기 콘텐츠의 선명한 보기를 가능하게 하며,
    상기 영향이 상기 콘텐츠 보기를 쉽게 할 경우, 상기 스마트 안경이 상기 디폴트 위치에 더 가깝게 설정되도록 상기 스마트 안경의 투명도가 높아지는
    장치.
  5. 제 1 항에 있어서,
    제 1 캡쳐/감지 컴포넌트를 통해, 상기 컴퓨팅 디바이스의 사용자로부터의 음성 명령을 검출하여 상기 스마트 안경의 투명도에 대한 음성 명령 기반 조정을 가능하게 하는 음성 인식 및 명령 로직을 더 포함하되,
    상기 제 1 캡쳐/감지 컴포넌트는 마이크로폰을 포함하는
    장치.
  6. 제 1 항 또는 제 5 항에 있어서,
    제 2 캡쳐/감지 컴포넌트를 통해, 상기 컴퓨팅 디바이스의 사용자로부터의 제스쳐 명령을 검출하여 상기 스마트 안경의 투명도에 대한 제스쳐 명령 기반 조정을 가능하게 하는 제스쳐 인식 및 명령 로직을 더 포함하되,
    상기 제 2 캡쳐/감지 컴포넌트는 카메라를 포함하는
    장치.
  7. 제 1 항에 있어서,
    상기 컴퓨팅 디바이스의 출력 컴포넌트의 온/오프 조정 버튼을 더 포함하되,
    상기 온/오프 조정 버튼은 상기 스마트 안경의 투명도의 수동 조정을 가능하게 하는
    장치.
  8. 제 1 항에 있어서,
    상기 밝기 상태는 제 3 캡쳐/감지 컴포넌트를 통해 상기 검출/지각 로직에 의해 검출되고,
    상기 제 3 캡쳐/감지 컴포넌트는 광 센서를 포함하며,
    상기 스마트 안경은 상기 컴퓨팅 디바이스의 전원 소스를 통해 전원이 공급되는
    장치.
  9. 안경 디스플레이를 위한 향상된 보기 기능을 동적으로 제공하는 방법으로서,
    착용가능한 안경을 포함하는 컴퓨팅 디바이스와 관련한 밝기 상태를 검출하는 단계―상기 착용가능한 안경은 스마트 안경을 포함하고, 상기 검출은 상기 밝기 상태의 변화를 검출하는 것을 더 포함함―와,
    상기 밝기 상태의 변화의 영향을 평가하는 단계와,
    상기 밝기 상태의 변화에 기초하여, 상기 스마트 안경의 턴 온 또는 턴 오프를 가능하게 하는 단계를 포함하는
    방법.

  10. 제 9 항에 있어서,
    상기 스마트 안경을 턴 온하는 것은 상기 스마트 안경의 투명도에 대한 잠재적인 조정을 턴 온하는 것이고, 상기 스마트 안경을 턴 오프하는 것은 상기 스마트 안경의 투명도를 디폴트 위치로 만드는 것이며, 상기 컴퓨팅 디바이스는 헤드 마운트 디스플레이 또는 스마트 윈도우를 더 포함하는
    방법.
  11. 제 9 항에 있어서,
    평가된 영향에 기초하여 상기 투명도를 조정하는 단계를 더 포함하되,
    상기 영향은 상기 컴퓨팅 디바이스의 디스플레이 스크린을 통한 콘텐츠 보기를 어렵게 하거나 또는 쉽게 하는 것을 포함하고,
    상기 디스플레이 스크린은 투명 안경 디스플레이 스크린을 포함하는
    방법.
  12. 제 11 항에 있어서,
    상기 영향이 상기 콘텐츠 보기를 어렵게 할 경우, 상기 스마트 안경이 어두워지도록 상기 스마트 안경의 투명도가 낮아져서 어두운 배경이 상기 콘텐츠의 선명한 보기를 가능하게 하며,
    상기 영향이 상기 콘텐츠 보기를 쉽게 할 경우, 상기 스마트 안경이 상기 디폴트 위치에 더 가깝게 설정되도록 상기 스마트 안경의 투명도가 높아지는
    방법.
  13. 제 9 항에 있어서,
    제 1 캡쳐/감지 컴포넌트를 통해, 상기 컴퓨팅 디바이스의 사용자로부터의 음성 명령을 검출하여 상기 스마트 안경의 투명도에 대한 음성 명령 기반 조정을 가능하게 하는 단계를 더 포함하되,
    상기 제 1 캡쳐/감지 컴포넌트는 마이크로폰을 포함하는
    방법.
  14. 제 9 항에 있어서,
    제 2 캡쳐/감지 컴포넌트를 통해, 상기 컴퓨팅 디바이스의 사용자로부터의 제스쳐 명령을 검출하여 상기 스마트 안경의 투명도에 대한 제스쳐 명령 기반 조정을 가능하게 하는 단계를 더 포함하되,
    상기 제 2 캡쳐/감지 컴포넌트는 카메라를 포함하는
    방법.
  15. 제 9 항에 있어서,
    상기 스마트 안경의 투명도의 수동 조정을 가능하게 하는 단계를 더 포함하되,
    상기 수동 조정은 상기 컴퓨팅 디바이스의 출력 컴포넌트의 온/오프 조정 버튼을 통해 가능해지는
    방법.
  16. 제 9 항에 있어서,
    상기 밝기 상태는 제 3 캡쳐/감지 컴포넌트를 통해 검출되고,
    상기 제 3 캡쳐/감지 컴포넌트는 광 센서를 포함하며,
    상기 스마트 안경은 상기 컴퓨팅 디바이스의 전원 소스를 통해 전원이 공급되는
    방법.
  17. 복수의 명령어를 포함하는 적어도 하나의 머신 판독가능 매체로서,
    상기 명령어는 컴퓨팅 디바이스 상에서 실행될 때, 청구항 제 9 항 내지 제 16 항 중 어느 한 항의 방법을 구현하거나 수행하는
    머신 판독가능 매체.
  18. 청구항 제 9 항 내지 제 16 항 중 어느 한 항의 방법을 구현하거나 수행하는 메커니즘을 포함하는 시스템.
  19. 청구항 제 9 항 내지 제 16 항 중 어느 한 항의 방법을 수행하는 수단을 포함하는 장치.
  20. 청구항 제 9 항 내지 제 16 항 중 어느 한 항의 방법을 구현하거나 수행하도록 구성된 컴퓨팅 디바이스.
  21. 청구항 제 9 항 내지 제 16 항 중 어느 한 항의 방법을 구현하거나 수행하도록 구성된 통신 디바이스.
KR1020177013431A 2014-12-19 2015-11-16 안경 디스플레이를 위한 향상된 보기 기능 제공 KR20170098214A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/577,951 2014-12-19
US14/577,951 US20160178905A1 (en) 2014-12-19 2014-12-19 Facilitating improved viewing capabitlies for glass displays
PCT/US2015/060933 WO2016099741A1 (en) 2014-12-19 2015-11-16 Facilitating improved viewing capabilities for glass displays

Publications (1)

Publication Number Publication Date
KR20170098214A true KR20170098214A (ko) 2017-08-29

Family

ID=56127265

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177013431A KR20170098214A (ko) 2014-12-19 2015-11-16 안경 디스플레이를 위한 향상된 보기 기능 제공

Country Status (5)

Country Link
US (1) US20160178905A1 (ko)
KR (1) KR20170098214A (ko)
CN (1) CN107003821B (ko)
TW (1) TWI585461B (ko)
WO (1) WO2016099741A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111506057A (zh) * 2019-01-31 2020-08-07 斯特拉德视觉公司 辅助自动驾驶的自动驾驶辅助眼镜
US11726339B2 (en) 2021-11-30 2023-08-15 Samsung Electronics Co., Ltd. System for digital recording protection and electrochromic device frame

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2972856A1 (en) * 2015-01-08 2016-07-14 Ashkelon Eyewear Technologies Ltd An apparatus and method for displaying content
US10316581B1 (en) * 2015-01-12 2019-06-11 Kinestral Technologies, Inc. Building model generation and intelligent light control for smart windows
US10055887B1 (en) * 2015-02-19 2018-08-21 Google Llc Virtual/augmented reality transition system and method
CN106034212B (zh) * 2015-03-10 2019-02-26 深圳富泰宏精密工业有限公司 投影装置、控制装置及穿戴式投影系统
US10325382B2 (en) * 2016-09-28 2019-06-18 Intel Corporation Automatic modification of image parts based on contextual information
CN106646889A (zh) * 2017-03-01 2017-05-10 京东方科技集团股份有限公司 一种投影屏、车载抬头显示器和显示调节方法
US11816886B1 (en) * 2018-06-28 2023-11-14 Meta Platforms Technologies, Llc Apparatus, system, and method for machine perception
CN111077671B (zh) * 2018-10-19 2022-07-29 广东虚拟现实科技有限公司 设备控制方法、装置、显示设备及存储介质
US11734665B2 (en) * 2021-02-08 2023-08-22 Bank Of America Corporation Card-to-smartglasses payment systems
TW202328757A (zh) * 2021-08-27 2023-07-16 美商元平台技術有限公司 用於增強型實境應用的智能眼鏡之電子控制

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5801793A (en) * 1994-04-21 1998-09-01 Reveo, Inc. Backlighting construction for use in computer-based display systems having direct and projection viewing modes of operation
JP2003296032A (ja) * 2002-04-03 2003-10-17 Pioneer Electronic Corp 表示部一体型タッチパネル装置およびその製造方法
US8032310B2 (en) * 2004-07-02 2011-10-04 The United States Of America As Represented By The Secretary Of The Navy Computer-implemented method, computer readable storage medium, and apparatus for identification of a biological sequence
CN101101509B (zh) * 2006-07-03 2010-05-12 微光科技股份有限公司 指针输入系统的输入及校正方法
JP2008096868A (ja) * 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5136442B2 (ja) * 2009-01-27 2013-02-06 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5514583B2 (ja) * 2009-03-13 2014-06-04 富士フイルム株式会社 感活性光線性または感放射線性樹脂組成物及び該組成物を用いたパターン形成方法
JP5520370B2 (ja) * 2009-06-08 2014-06-11 ビー イー エアロスペイス,インク. 接触反応式プライバシーパーティション
JP5499985B2 (ja) * 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
TWI492610B (zh) * 2011-03-10 2015-07-11 Realtek Semiconductor Corp 影像控制裝置
US20120326948A1 (en) * 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
US9097904B2 (en) * 2011-07-10 2015-08-04 Industrial Technology Research Institute Display apparatus
KR20130055743A (ko) * 2011-11-21 2013-05-29 엘지전자 주식회사 전자 기기
CN103999145B (zh) * 2011-12-28 2017-05-17 英特尔公司 响应于用户的显示器调光
JP6099884B2 (ja) * 2012-05-25 2017-03-22 三菱電機株式会社 立体画像表示装置
US9940901B2 (en) * 2012-09-21 2018-04-10 Nvidia Corporation See-through optical image processing
US9497448B2 (en) * 2012-12-31 2016-11-15 Lg Display Co., Ltd. Image processing method of transparent display apparatus and apparatus thereof
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
CN203825558U (zh) * 2014-01-15 2014-09-10 陈绳旭 基于玻璃屏的人机交互系统
US9389423B2 (en) * 2014-03-11 2016-07-12 Google Inc. Head wearable display with adjustable transparency

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111506057A (zh) * 2019-01-31 2020-08-07 斯特拉德视觉公司 辅助自动驾驶的自动驾驶辅助眼镜
KR20200096113A (ko) * 2019-01-31 2020-08-11 주식회사 스트라드비젼 딥 뉴럴 네트워크를 기반으로 한 이미지 분석을 통해 사람의 상태 및 주행 환경을 식별하여 자율 주행을 보조하는 자율 주행 보조 안경
CN111506057B (zh) * 2019-01-31 2023-08-18 斯特拉德视觉公司 辅助自动驾驶的自动驾驶辅助眼镜
US11726339B2 (en) 2021-11-30 2023-08-15 Samsung Electronics Co., Ltd. System for digital recording protection and electrochromic device frame

Also Published As

Publication number Publication date
TW201636681A (zh) 2016-10-16
US20160178905A1 (en) 2016-06-23
CN107003821A (zh) 2017-08-01
TWI585461B (zh) 2017-06-01
WO2016099741A1 (en) 2016-06-23
CN107003821B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN107003821B (zh) 促进用于玻璃显示器的改进观看能力
US11500536B2 (en) Neural network system for gesture, wear, activity, or carry detection on a wearable or mobile device
US11573607B2 (en) Facilitating dynamic detection and intelligent use of segmentation on flexible display screens
US20210157149A1 (en) Virtual wearables
US20190279407A1 (en) System and method for augmented reality interaction
US20170256096A1 (en) Intelligent object sizing and placement in a augmented / virtual reality environment
US20160372083A1 (en) Facilitating increased user experience and efficient power performance using intelligent segmentation on flexible display screens
US9106821B1 (en) Cues for capturing images
US20170372449A1 (en) Smart capturing of whiteboard contents for remote conferencing
CN105814532A (zh) 用于三维对象显示的方法
US20190095095A1 (en) Mobile device camera viewfinder punch through effect
US10297233B2 (en) Modifying a presentation of content based on the eyewear of a user
US9940701B2 (en) Device and method for depth image dequantization
US20170091910A1 (en) Facilitating projection pre-shaping of digital images at computing devices
KR20230131854A (ko) 상황 인식 확장 현실 시스템
US9792671B2 (en) Code filters for coded light depth acquisition in depth images
EP3889750A1 (en) Method, apparatus and storage medium for displaying weather elements
US9857869B1 (en) Data optimization
US11893989B2 (en) Voice-controlled settings and navigation
KR20230146658A (ko) 외부 시선 검출을 통한 광샘 감소
US20240135926A1 (en) Voice-controlled settings and navigation
CN117271044A (zh) 界面旋转控制方法和电子设备
KR20240046552A (ko) 저전력을 위한 동적 캡처 파라미터 프로세싱
WO2023009318A1 (en) Method and device for enabling input modes based on contextual state

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application