KR20140105479A - 전력-소비 관리를 가진 컴퓨터 디바이스 및 컴퓨터 디바이스의 전력-소비 관리를 위한 방법 - Google Patents

전력-소비 관리를 가진 컴퓨터 디바이스 및 컴퓨터 디바이스의 전력-소비 관리를 위한 방법 Download PDF

Info

Publication number
KR20140105479A
KR20140105479A KR1020147016722A KR20147016722A KR20140105479A KR 20140105479 A KR20140105479 A KR 20140105479A KR 1020147016722 A KR1020147016722 A KR 1020147016722A KR 20147016722 A KR20147016722 A KR 20147016722A KR 20140105479 A KR20140105479 A KR 20140105479A
Authority
KR
South Korea
Prior art keywords
user
eye
view
eyes
time period
Prior art date
Application number
KR1020147016722A
Other languages
English (en)
Inventor
펭 친
린 두
광후아 조우
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20140105479A publication Critical patent/KR20140105479A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Power Sources (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

본 발명은 사용자의 눈을 감지하기 위한 감지기 및 프로세서를 포함하는 컴퓨터 디바이스에 관한 것이다. 프로세서는 제1 시간 구간 동안 사용자의 눈의 위치가 영역 내에 유지되는지 여부를 결정하고, 제1 시간 구간 동안 사용자의 눈의 위치가 영역 내에 유지된다면, 제2 시간 구간 동안 사용자의 눈을 감지하는 것과 사용자의 눈의 위치를 결정하는 것을 중단하도록 구성된다.

Description

전력-소비 관리를 가진 컴퓨터 디바이스 및 컴퓨터 디바이스의 전력-소비 관리를 위한 방법{COMPUTER DEVICE WITH POWER-CONSUMPTION MANAGEMENT AND METHOD FOR MANAGING POWER-CONSUMPTION OF COMPUTER DEVICE}
본 발명은 전력-소비 관리를 가진 컴퓨터 디바이스 및 컴퓨터 디바이스의 전력-소비 관리를 위한 방법에 관한 것이다.
오늘날, 스마트폰 및 PMP(Personal Media Players)와 같은 컴퓨터 디바이스가 인기를 끌고 있다. 3D 기술의 발전으로, 점점 더 많은 이러한 모바일 컴퓨터 디바이스들이 3D 디스플레이를 지원하기 시작한다. 예를 들어, 이러한 모바일 컴퓨터 디바이스는 스크린 대각선이 약 10인치인 3D 디스플레이를 가질 것이고, 시차 장벽(parallax barrier) 기술 및 렌즈 어레이(lens array) 기술을 포함하는 무안경식-입체 디스플레이 기술(auto-stereoscopic display technology)을 채용할 것이다.
도 1은 시차 장벽 기술을 사용하는 디스플레이 디바이스를 도시하고, 도 2a 및 도 2b는 렌즈 어레이 기술을 사용하는 디스플레이 디바이스를 도시한다.
도 1에서의 예에서, 뷰어(viewer)의 왼쪽 눈과 오른쪽 눈이 상이한 왼쪽 및 오른쪽 뷰들을 각각 볼 수 있도록, 시차 장벽(100)이 디스플레이 스크린(110) 앞에 배열된다.
도 2a의 도시된 예에서, 렌즈 어레이(200)는 LCD(Liquid Crystal Display) 디스플레이 스크린(210) 앞에 배열된다. 렌즈 어레이(200)는 다수의 렌즈를 포함하고, 각각의 렌즈는 4개의 상이한 서브-픽셀로부터 4개의 상이한 뷰포인트(viewpoints)로 이미지들을 각각 분배하도록 구성된다.
도 2a 및 도 2b에서 보여지는 렌즈 어레이 기술에서, 도 2b에서 도시되었듯이, 왼쪽 및 오른쪽 뷰들이 LCD 스크린(210) 상에 디스플레이된다면, 3D 표현을 위해 복수의 뷰 영역(zone)이 생성된다.
도 1 및 도 2b에서 볼 수 있듯이, 왼쪽 눈이 오른쪽 뷰를 보고 오른쪽 눈이 왼쪽 뷰를 보는 "퍼지 영역(fuzzy zones)"이 두 경우 모두에서 생성된다. "퍼지 영역"은, 왼쪽 눈이 왼쪽 뷰를 보고 오른쪽 눈이 오른쪽 뷰를 보는 "일반 영역(normal zone)"과 교대로 배열된다. 뷰어의 눈들이 퍼지 영역으로 진입하는 것이 감지될 때, 디스플레이 디바이스의 픽셀들에 의해 제공될 왼쪽 및 오른쪽 뷰들을 교환함으로써 이러한 퍼지 영역이 해결될 수 있고, 그에 따라 뷰어가 디스플레이 디바이스 상에 정정된 3D 표현을 볼 수 있다.
상술된 것과 같이, 자동-입체 디스플레이 디바이스에서, 뷰어에게 더 나은 보는 경험을 제공하기 위해, 디스플레이 디바이스 상에 제공될 3D 콘텐츠가 넓은 범위의 시점에서 뷰어에게 보일 수 있는지 여부가 평가될 수 있음을 알 것이다. 이러한 목적을 위해, 예를 들어 눈 추적 기술을 가지고 뷰어의 눈 위치를 감지하기 위해 카메라 또는 임의의 다른 센서가 사용될 수 있다. 뷰어의 눈들이 "퍼지 영역"에 있는 것이 검출된다면, 뷰어가 3D 표현을 즐길 수 있도록 디스플레이 디바이스의 픽셀들에 의해 제공될 왼쪽 및 오른쪽 뷰들이 스위칭된다.
그러나, 눈 추적 기술을 가지고 뷰어의 눈 위치를 지속적으로 감지하는 것은 컴퓨터 디바이스에 대해 많은 양의 계산을 요구하기 때문에, 뷰어가 컴퓨터 디바이스를 사용하는 동안 뷰어의 눈 위치를 감지하는 것이 유지된다면, 뷰어의 눈 위치를 감지하기 위해 많은 양의 전력이 소비될 것이다.
US 7,091,471 B2는 디바이스의 전력 관리를 위해 전력 소비 상태를 스위칭하기 위해 사용자의 눈의 존재/부재를 감지하는 것을 개시한다. 그러나, 이러한 참조문헌은 사용자의 눈 위치를 감지하기 위해 소비되는 전력을 관리하는 방법을 언급하지는 않는다.
본 발명의 목적은 컴퓨터 디바이스에 대해 더 효과적인 전력 관리를 제공하는 것이다.
본 발명의 일 태양에 따라, 사용자의 눈을 감지하기 위한 감지기(detector) 및 프로세서를 포함하는 컴퓨터 디바이스가 제공된다. 프로세서는, 제1 시간 주기 동안 사용자의 눈의 위치가 영역 내에 유지되는지 여부를 결정하고, 제1 시간 주기 동안 사용자의 눈의 위치가 영역 내에 유지된다면, 제2 시간 주기 동안 사용자의 눈을 감지하는 것과 사용자의 눈의 위치를 결정하는 것을 중단하도록 구성된다.
본 발명의 또 다른 태양에 따라, 컴퓨터 디바이스의 전력 소비를 관리하기 위한 방법이 제공된다. 방법은, 사용자의 눈을 감지하는 단계, 제1 시간 주기 동안 사용자의 눈의 위치가 영역 내에 유지되는지 여부를 결정하는 단계, 및 제1 시간 주기 동안 사용자의 눈의 위치가 영역 내에 유지된다면, 제2 시간 주기 동안 사용자의 눈을 감지하는 것과 사용자의 눈의 위치를 결정하는 것을 중단하는 단계를 포함한다.
이하의 설명을 첨부 도면들과 함께 보면, 이러한 것들과 그 외의 본 발명의 태양들, 특징들 및 장점들이 명백해질 것이다.
도 1은 시차 장벽 기술을 사용하는 디스플레이 디바이스를 도시하는 도면.
도 2a 및 도 2b는 렌즈 어레이 기술을 사용하는 디스플레이 디바이스를 도시하는 도면.
도 3은 본 발명의 일 실시예에 따른 컴퓨터 디바이스의 예시적인 블록도.
도 4는 본 발명의 일 실시예에 따른 컴퓨터 디바이스의 사용의 기본 환경을 도시하는 도면.
도 5는 컴퓨터 디바이스의 시차 장벽 기술을 사용하는 디스플레이 디바이스의 뷰 영역들을 도시하는 도면.
도 6은 컴퓨터 디바이스의 렌즈 어레이 기술을 사용하는 디스플레이 디바이스의 뷰 영역들을 도시하는 도면.
도 7은 디스플레이 디바이스의 두 개의 상이한 픽셀 배열을 도시하는 도면.
도 8은 일 실시예에 따른 컴퓨터 디바이스의 작동 상태들의 천이를 도시하는 상태 천이도.
이하의 설명에서, 본 발명의 일 실시예의 다양한 태양들이 설명될 것이다. 설명을 목적으로, 철저한 이해를 제공하기 위한 구체적인 구성 및 세부사항이 기재되어 있다. 그러나, 본 명세서의 구체적인 세부사항 없이 본 발명이 실시될 수 있는 것은 통상의 기술자에게 명백할 것이다.
도 3은 본 발명의 일 실시예에 따른 컴퓨터 디바이스(300)의 예시적인 블록도를 도시한다. 컴퓨터 디바이스(300)는 스마트-폰, PMP(Personal Media Player), 태블릿 등 일 수 있다. 컴퓨터 디바이스(300)는 CPU(Central Processing Unit)(310), 눈 추적 모듈(320), 스토리지(330), 디스플레이(340) 및 사용자 입력 모듈(350)을 포함한다. 도 3에 도시된 대로 RAM(Random Access Memory)과 같은 메모리(360)가 CPU(310)에 연결된다. 눈 추적 모듈(320), 스토리지(330), 디스플레이(340) 및 사용자 입력 모듈(350)은 (도시되지 않은) I/O 컨트롤러를 통해 CPU(310)로 접속된다.
눈 추적 모듈(320)은 디바이스(300)의 사용자의 눈을 감지하기 위한 엘리먼트이다. 눈 추적 모듈(320)은 눈 추적을 목적으로 많은 상이한 타입의 기술들을 채용할 수 있다. 예를 들어, 사용자의 얼굴 상의 눈을 감지하기 위해, 눈 추적 모듈(320)은 하-라이크 기능들(Haar-like features)을 채용할 수 있다. 통상의 기술자는 상술된 기술이 눈 추적을 위한 유일한 솔루션이 아니라는 것과 눈 추적을 위해 많은 다른 기술들이 사용될 수 있다는 것을 인식할 것이다.
디스플레이(340)는 디바이스(300)의 사용자에게 텍스트, 이미지, 비디오 및 임의의 다른 콘텐츠를 시각적으로 제공하도록 구성된다. 디스플레이(340)가 입체 3D 표현을 제공할 수 있도록 디스플레이는 시차 장벽(parallax barrier), 렌즈 어레이(lens array) 또는 임의의 다른 가능한 엘리먼트를 채용한다. 또한, 사용자 입력 모듈(350) 외에 사용자가 디스플레이(340) 상에서 디바이스(300)를 작동시킬 가능성(possibility)을 제공할 수 있도록, 디스플레이(340)는 터치-스크린일 수 있다.
사용자 입력 모듈(350)은 문자(characters) 또는 명령(commands)을 입력하기 위해 디바이스(300) 상의 키(keys) 또는 버튼(buttons)을 포함할 수 있고, 키 또는 버튼으로 입력된 문자 또는 명령을 인식하기 위한 기능도 포함할 수 있다. 디스플레이(340)가 터치-스크린이고 디바이스(300)가 문자 또는 명령을 디스플레이(340) 상에 입력할 수 있도록 구성된 것인 경우, 사용자 입력 모듈(350)은 옵션(option)이 될 수 있다.
스토리지(330)는, 후술하는 바와 같이 CPU(310)가 눈 추적 모듈(320), 스토리지(330), 디스플레이(340) 및 사용자 입력 모듈(350)을 구동하고 작동시키기 위한 데이터 및 소프트웨어 프로그램을 저장하도록 구성된다. 스토리지(330)는 디스플레이(340) 상에 제공될 3D 비디오 콘텐츠와 같은 콘텐츠도 저장한다.
메모리(360)는 CPU(310)가 생성하거나 사용하는 중간 데이터를 저장하기 위해 사용된다.
도 4는 본 발명의 일 실시예에 따른 컴퓨터 디바이스의 사용의 기본 환경을 도시한다. 도 4는 사용자(420)가 컴퓨터 디바이스(400)의 디스플레이 상에 제공되는 콘텐츠를 보는 것을 도시한다. 컴퓨터 디바이스(400)는, 사용자(420)의 눈들(430)을 감지하기 위해 사용자(420)의 얼굴을 이미징(imaging)하는 카메라(410)를 구비한다. 캡처된(captured) 이미지 데이터를 분석함으로써 사용자의 눈들이 CPU(310)에 의해 감지되도록, 카메라(410)는 사용자(420)의 얼굴을 캡처할 책임이 있다. 카메라(410)는 도 3에서 도시된 눈 추적 모듈(320)의 엘리먼트일 수 있다.
컴퓨터 디바이스(400)는 카메라(410) 이외에 또는 대신에 (도시되지 않은) 깊이 센서(depth sensor)를 포함할 수 있다. 이 경우에 있어, 사용자(420)의 눈들(430)을 감지하는 것은 다음과 같이 수행될 수 있다:
사용자(420)가 디바이스(400)의 디스플레이를 볼 때, 사용자의 얼굴은 디바이스(400)의 디스플레이를 향하고 있다고 가정하고, 사용자(420)가 디스플레이 스크린을 볼 때, 디바이스(400)에 대한 사용자의 얼굴의 위치는 사용자의 얼굴이 깊이 센서에 의해 캡처될 수 있는 위치에 때때로 위치할 것이다. 깊이 센서가 깊이 이미지를 생성하도록 구성되기 때문에, 깊이 센서는 캡처된 깊이 이미지로부터 배경을 제외함으로써 깊이 이미지에서 사용자의 얼굴을 감지하기 위해 사용될 수 있다. 그 다음으로 감지된 사용자의 얼굴에서 눈들, 콧구멍들, 및 입술의 코너들(lip-corners)과 같은 얼굴 특징들이 검색되고 추적된다.
얼굴 특징들을 검색하기 위해 하향식 접근(top-down approach)이 채용될 수 있다. 하향식 접근에서, 처음에는 깊이 이미지 내의 얼굴 영역이 통계적 색상 모델(statistical color model) 또는 얼굴의 깊이 지도(depth map)를 사용하여 검색되고, 그 다음으로 얼굴 특징들에 대한 검색 프로세스가 얼굴 영역 내의 소정의 영역들로 제한된다. 이러한 얼굴 특징들이 발견된 이후, 사용자(420)의 눈들(430)의 위치가 결정된다. 사용자(420)가 디바이스(400)의 디스플레이를 보는 동안 사용자의 얼굴이 디바이스(400)의 디스플레이에 대하여 빠르게 이동하지는 않을 것이라고 가정되기 때문에, 얼굴 특징들의 위치가 비디오 프레임에서 감지될 때, 다음의 비디오 프레임에서 얼굴 특징들의 위치가 예측될 수 있다. 사용자(420)의 눈들(430)의 위치도 하향식 접근을 사용하여 상술된 프로세스에 의해 감지될 수 있다.
도 5는 컴퓨터 디바이스의 디스플레이 디바이스의 뷰 영역들을 도시하고, 이 디스플레이 디바이스는 시차 장벽 기술을 사용한다.
디스플레이 디바이스의 뷰 영역들은 디스플레이 스크린(510)의 픽셀들(pixels)의 배열들 및 시차 장벽(500)의 슬릿들(slits)의 배열들에 기초하여 결정된다. 예를 들어, 디스플레이 디바이스의 뷰 영역들을 위한 파라미터들은 도 3에서 도시된 스토리지(330)에 처음에 저장될 수 있다.
뷰 영역들은 다음과 같이 정의된다: 디스플레이 디바이스에 의해 제공된 3D 표현을 보기 위한 최적의 영역은 중간의 영역이라고 가정되고, 그것은 view_zone_base로 표시된다. view_zone_base의 좌측의 영역은 view_zone_L1으로 표시되고, 이러한 view_zone_L1의 다음의 영역은 view_zone_L2로 표시되고, 다음 연속적인 영역들은 view_zone_L3, view_zone_L4 등으로 표시될 것이다. view_zone_base의 우측의 영역은 view_zone_R1으로 표시되고, 이러한 view_zone_R1의 다음의 영역은 view_zone_R2로 표시되고, 다음 연속적인 영역들은 view_zone_R3, view_zone_R4 등으로 표시될 것이다.
사용자의 눈들 및 디스플레이 디바이스 간의 거리는 Z이고, view_zone_L2로부터 view_zone_R2까지의 각각의 뷰 영역의 폭(width)은 각각 width_L2, width_L1, width_base, width_R1 및 width_R2이라고 가정하고, 사용자의 눈들이 위치하는 뷰 영역은 후술되는 바와 같이 결정될 것이다.
처음으로, 거리(Z)가 디스플레이 디바이스를 보기 위한 소정의 최적의 거리 범위 내인지가 감지된다. 예를 들어, 소정의 최적의 거리는 디스플레이 디바이스의 크기에 기초하여 처음에 정의될 수 있고 스토리지(330)에서 저장될 수 있다.
거리(Z)가 소정의 최적의 거리 범위 내라면, 사용자의 눈들이 view_zone_base에 위치하는지 여부가 감지된다. 사용자의 눈들이 view_zone_base에 위치한다면, 사용자가 최적의 위치에 위치함을 나타내는 정보가 디스플레이 디바이스 상에 제공될 수 있다. 사용자는 이 위치에서 디스플레이 상의 최적의 3D 표현을 볼 수 있다.
사용자의 눈들이 우측으로 X cm 내로 수평 이동한 것이 감지된다면, 다음의 수학식 1이 충족되는지 여부가 결정된다. 수학식 1이 충족된다면, 사용자의 눈들이 view_zone_base로부터 view_zone_R1으로 이동했다고 결정된다.
Figure pct00001
그렇지 않으면, 다음의 수학식 2가 충족되는지 여부가 결정된다. 수학식 2가 충족된다면, 사용자의 눈들이 view_zone_R1로부터 view_zone_R2로 이동했다고 결정된다.
Figure pct00002
우측 방향으로의 다음의 연속적인 영역들에 마찬가지로 적용한다.
반면에, 사용자의 눈들이 좌측으로 X cm 내로 수평 이동한 것이 감지된다면, 수학식 1이 충족되는지 여부가 결정된다. 수학식 1이 충족된다면, 사용자의 눈들이 view_zone_base로부터 view_zone_L1으로 이동했다고 결정된다.
그렇지 않으면, 다음의 수학식 3이 충족되는지 여부가 결정된다. 수학식 3이 충족된다면, 사용자의 눈들이 view_zone_L1로부터 view_zone_L2로 이동했다고 결정된다.
Figure pct00003
좌측 방향으로의 다음의 연속적인 영역들에 마찬가지로 적용한다.
도 6은 컴퓨터 디바이스의 디스플레이 디바이스의 뷰 영역들을 도시하고, 디스플레이 디바이스는 렌즈 어레이 기술을 사용한다.
디스플레이 디바이스의 뷰 영역들은 디스플레이 스크린(610)의 픽셀들의 배열들 및 렌즈 어레이(600)의 렌즈들의 배열들에 기초하여 결정된다. 예를 들어, 디스플레이 디바이스의 뷰 영역들을 위한 파라미터들은 도 3에서 도시된 스토리지(330)에서 처음에 저장될 수 있다.
뷰 영역들은 도 5를 참조하여 설명된 것과 동일한 방식으로 정의된다. 도 6에서 도시된 디스플레이에서, 각각의 뷰 영역의 폭은 일정하다. 폭(W)은 사람의 양쪽 눈들의 일반적인 거리인 6.25cm라고 가정한다.
도 6에서 도시된 디스플레이 디바이스를 위해, 사용자의 눈들이 위치하는 뷰 영역은 아래에서 후술되는 바와 같이 결정될 것이다.
처음으로, 거리(Z)가 디스플레이 디바이스를 보기 위한 소정의 최적의 거리 범위 내인지가 감지된다.
거리(Z)가 소정의 최적의 거리 범위 내라면, 사용자의 눈들이 view_zone_base에 위치하는지 여부가 감지된다. 사용자의 눈들이 view_zone_base에 위치한다면, 사용자가 최적의 위치함을 나타내는 정보가 디스플레이 디바이스 상에 제공될 수 있다. 사용자는 이 위치에서 디스플레이 디바이스 상의 최적의 3D 표현을 볼 수 있다.
사용자의 눈들이 우측으로 X cm 내로 수평 이동한 것이 감지된다면, 다음의 수학식 4가 충족되는지 여부가 결정된다. 수학식 4가 충족된다면, 사용자의 눈들이 view_zone_base로부터 view_zone_R1으로 이동했다고 결정된다.
Figure pct00004
그렇지 않으면, 이하의 수학식 5가 충족되는지 여부가 결정된다. 수학식 5가 충족된다면, 사용자의 눈들이 view_zone_R1로부터 view_zone_R2로 이동했다고 결정된다.
Figure pct00005
우측 방향으로의 다음의 연속적인 영역들에 마찬가지로 적용한다.
반면에, 사용자의 눈들이 좌측으로 X cm 내로 수평 이동한 것이 감지된다면, 수학식 4가 충족되는지 여부가 결정된다. 수학식 4가 충족된다면, 사용자의 눈들이 view_zone_base로부터 view_zone_L1으로 이동했다고 결정된다.
그렇지 않으면, 수학식 5가 충족되는지 여부가 결정된다. 수학식 5가 충족된다면, 사용자의 눈들이 view_zone_L1로부터 view_zone_L2로 이동했다고 결정된다.
좌측 방향으로의 다음의 연속적인 영역들에 마찬가지로 적용한다.
사용자의 눈들이 위치하는 뷰 영역은 카메라(410) 또는 눈 추적 모듈(320)의 깊이 센서와 같은 것에 의해 캡처된 이미지를 분석함으로써 결정될 수 있다. 각각의 뷰 영역들과 캡처된 이미지에서 사용자의 눈들의 크기 및 위치와 같은 대응 정보 간의 상관관계(correlation)가 스토리지(330)에 저장된다면, 캡처된 이미지의 정보에 대응하는 뷰 영역을 저장된 상관관계에서 검색함으로써 사용자의 눈들이 위치하는 뷰 영역을 결정하기 위한 상술한 분석이 실현될 수 있다.
본 발명에 따른 컴퓨터 디바이스는, 사용자의 눈들이 이전의 뷰 영역으로부터 다음 뷰 영역으로 이동한 것이 검출될 때마다, 디스플레이 디바이스의 픽셀들에 의해 제공될 왼쪽 및 오른쪽 뷰들이 도 3에서 도시된 CPU(310)에 의해 스위칭 되도록 구성된다.
뷰 영역들은 교대로 배열된 제1 및 제2 뷰 영역들을 포함한다. 제1 뷰 영역에서, 왼쪽 뷰는 사용자의 왼쪽 눈에 제공되고 오른쪽 뷰는 사용자의 오른쪽 눈에 제공된다. 제2 뷰 영역에서, 왼쪽 뷰는 사용자의 오른쪽 눈에 제공되고 오른쪽 뷰는 사용자의 왼쪽 눈에 제공된다. 도 5 및 도 6에서 도시된 예에서, view_zone_base는 제1 뷰 영역이고, view_zone_base에 인접하는 view_zone_R1 및 view_zone_L1은 제2 뷰 영역이고, view_zone_R1 및 view_zone_L1에 각각 인접하는 view_zone_R2 및 view_zone_L2은 각각 제1 뷰 영역이다.
도 7은 디스플레이 디바이스의 두 개의 다른 픽셀 배열을 보인다. 도 7(a)은 일반적인 픽셀 배열을 도시하고, 도 7(b)은 대안적인 픽셀 배열을 도시한다. 사용자의 눈이 제2 뷰 영역으로 이동한 것이 감지될 때, 도 7(a)에서 보이는 일반적인 픽셀 배열은 도 7(b)에서 보이는 대안적인 픽셀 배열로 스위칭 될 것이다. 또한, 사용자의 눈이 제1 뷰 영역으로 이동한 것이 감지될 때, 도 7(b)에서 보이는 대안적인 픽셀 배열은 도 7(a)에서 보이는 일반적인 픽셀 배열로 스위칭 될 것이다.
상술한 바와 같이, 사용자의 눈들의 위치를 감지하는 것은 컴퓨터 디바이스의 사용자에게 안락한 보기를 제공한다. 그러나, 사용자의 눈들의 위치의 감지가 컴퓨터 디바이스가 켜져 있는 모든 시간 동안 수행된다면, 많은 전력이 소비될 것이다. 이 외에도, 컴퓨터 디바이스에 의한 비디오 콘텐츠의 재생(playback)은 약간의 전력을 필요로 하고, 디스플레이 디바이스 상에 비디오를 제공하는 것도 약간의 전력을 필요로 한다. 이러한 사실들을 고려하여, 전력-소비 관리를 가진 컴퓨터 디바이스가 본 실시예에서 제공된다.
여기에서, 실시예에 따른 컴퓨터 디바이스의 작동 상태를 설명하기 위해 FSM(유한 상태 머신; Finite State Machine)이 사용된다. 표 1은 FSM의 각각의 상태의 정의를 나타내고, 표 2는 이하 설명들에서 사용될 상수의 의미를 나타낸다.
상태 이름 정의
IDLE 비디오 콘텐츠의 재생은 시작하지 않고, 눈 추적 모듈은 잠들어 있고(대기 중이고), 시작 키(Start Key)를 누르거나 클릭할 때까지 대기한다. 에너지를 매우 적게 소비한다.
START 비디오 콘텐츠 재생이 시작되고, 눈 추적 모듈이 활성화되어 있고 CPU가 사용자의 눈들을 감지한다. 에너지를 소비한다.
STANDBY 눈 추적 모듈이 비활성되어 있고, CPU는 사용자의 눈들의 위치를 감지하지 않으나, 비디오 콘텐츠의 재생이 수행된다. 'START' 상태에 비해 약간의 에너지가 절약된다.
WAKEUP 눈 추적 모듈이 활성화되어 있고, CPU가 사용자의 눈들의 위치를 감지하고, 비디오 콘텐츠의 재생이 수행된다. START 상태와 같은 에너지를 소비한다.
CAPTURE 눈 추적 모듈이 활성화되어 있고, CPU가 사용자의 눈들의 위치를 감지하고, 비디오 콘텐츠의 재생이 수행된다. START 상태와 같은 에너지를 소비한다.
SLEEP 눈 추적 모듈이 잠들어 있고(대기 중이고), CPU가 사용자의 눈을 감지하지 않고, 비디오 콘텐츠의 재생이 일시중지된다. 사용자의 눈들이 소정의 시간 동안 감지되지 않는다면, 디스플레이 상의 비디오 콘텐츠의 제공은 전력 절약을 위해 꺼질 것이다.
이름 정의
T0 단위는 초(seconds)이다. T0은 비디오 콘텐츠의 재생 시작 이후의 시간이고, 컴퓨터 디바이스는 사용자의 눈들이 동일한 뷰 영역에 있는지 여부를 지속적으로 체크한다.
T1 단위는 초이다. T0초 동안 컴퓨터 디바이스는 사용자의 눈들이 동일한 뷰 영역에 있는 것을 감지한 이후에, 컴퓨터 디바이스는 T1초 동안 사용자의 눈들이 동일한 뷰 영역에 있는지 여부를 감지하기 위해 깨어난다. T1은 T0보다 적어야 한다.
T2 단위는 초이다. 컴퓨터 디바이스의 CPU는 T2초 동안 사용자의 눈을 감지하지 않는다.
T_0 단위는 초이다. 컴퓨터 디바이스의 CPU는 전력을 절약하기 위해 T_0초 동안 해제된다(released).
T_1 단위는 초이다. 컴퓨터 디바이스의 CPU는 전력을 절약하기 위해 T_1초 동안 해제된다. T_1은 T_0보다 길어야 한다.
N0 N0*T_0은 사용자가 동일한 눈 뷰 영역에서 비디오 콘텐츠를 보기 위한 시간을 의미한다.
N1 카운트 수가 N1에 오면, 이는 사용자가 (N0*T_0+(N1-N0)*T_1)초 동안 동일한 뷰 영역에서 비디오 콘텐츠를 보는 것을 의미한다. N1은 N0보다 커야 한다.
실시예에 따른 컴퓨터 디바이스의 작동 상태들의 천이(transition)는 도 3, 도 4 및 도 8, 및 표 1 및 표 2를 참조하여 이하에서 설명될 것이다.
도 8은 실시예에 따른 컴퓨터 디바이스의 작동 상태들의 천이를 도시하는 상태 천이도(State Transition Diagram)이다.
처음으로, 컴퓨터 디바이스(300)가 켜진 이후에 컴퓨터 디바이스(300)는 IDLE 상태로 진입한다. IDLE 상태에서, CPU(310)에 의해 비디오 콘텐츠의 재생이 시작되지 않고, 눈 추적 모듈(320)[카메라(410) 또는 깊이 센서]은 잠들어 있고(대기 중이고), CPU(310)는 사용자가 사용자 입력 모듈(350)의 시작 키를 누르거나 사용자가 디스플레이(340) 상에 디스플레이되는 시작 키 아이콘을 클릭할 때까지 기다린다. IDLE 상태에서는 단지 약간의 전력만이 소비된다.
IDLE 상태에 대한 단계(805)에서, 사용자가 사용자 입력 모듈(350)의 시작 키를 누르거나 사용자가 디스플레이(340) 상의 디스플레이된 시작 키 아이콘을 클릭하면, 컴퓨터 디바이스(300)는 START 상태로 진입한다. START 상태에서, 비디오 콘텐츠의 재생은 CPU(310)에 의해 시작되고, 눈 추적 모듈(320)[카메라(410) 또는 깊이 센서]이 작동하기 시작하고, CPU(310)가 사용자의 눈들의 위치를 감지하기 시작한다. START 상태는 더 많은 전력을 소비한다. 사용자 눈들의 감지는 T0초 동안 지속된다.
START 상태에 대한 단계(810)에서, T0초보다 적은 시간 동안 사용자의 눈들이 동일한 뷰 영역에 있는 것이 감지된다면, 사용자의 눈들의 감지는 또 다른 T0초 동안 반복적으로 지속된다.
START 상태에 대한 단계(815)에서, T0초 동안 사용자의 눈들이 동일한 뷰 영역에 있는 것이 감지된다면, 컴퓨터 디바이스(300)는 STANDBY 상태로 진입한다. 컴퓨터 디바이스(300)가 STANDBY 상태로 진입할 때마다, 카운터는 CPU(310)에 의해 증분되고, 메모리(360)에 카운터 수가 업데이팅된다.
START 상태에 대한 단계(820)에서, 사용자의 눈들이 T0초 동안 전혀 감지되지 않는다면(부재한다면), 컴퓨터 디바이스(300)는 CAPTURE 상태로 진입한다. CAPTURE 상태에서, 비디오 콘텐츠의 재생은 CPU(310)에 의해 수행되고, 눈 추적 모듈(320)이 작동하고 CPU(310)가 사용자의 눈을 감지한다. 컴퓨터 디바이스(300)가 START 상태로부터 CAPTURE 상태로 진입할 때, 메모리(360)에 현재 비디오 제공 시간이 기록된다. CAPTURE 상태는 START 상태와 거의 동일한 전력을 소비한다.
STANDBY 상태에 대한 단계(825)에서, 카운트 수가 N0보다 적은 경우, CPU(310) 및 눈 추적 모듈(320)은 T_0초 동안 사용자의 눈들의 위치를 감지하는 작동을 하지 않는다. 또한, 카운트 수가 N0 이상이면(단, N1 미만), CPU(310) 및 눈 추적 모듈(320)은 T_1초 동안 사용자의 눈들의 위치를 감지하는 작동을 하지 않는다. T_1은 T_0보다 길다. 카운트 수가 N1에 오면, 이는 사용자가 적어도 (N0*T_0+(N1-N0)*T_1)초 동안 동일한 뷰 영역에서 비디오 콘텐츠를 지속적으로 본다는 것을 의미한다. N1은 N0보다 커야한다. 카운트가 N1에 올 때, 카운트의 수는 0으로 리셋된다.
STANDBY 상태에서, CPU(310) 및 눈 추적 모듈(320)이 T_0 또는 T_1초 간격들 동안 사용자의 눈들의 위치를 감지하는 작동을 하지 않지만, CPU(310)는 비디오 콘텐츠의 재생을 수행한다. STANDBY 상태는 사용자의 눈들의 위치의 감지가 수행되지 않기 때문에 약간의 전력을 절약할 수 있다.
전술한 설명으로부터 이해할 수 있듯이, 수 N0 및 N1은 사용자가 동일한 눈 뷰 영역에서 비디오 콘텐츠를 시청하기 위한 시간에 관한 것이다. 수 N0 및 N1은, 사용자가 컴퓨터 디바이스(300)로 비디오 콘텐츠를 시청할 때 사용자는 초 단위로 매우 빈번하게 컴퓨터 디바이스(300)에 대한 사용자의 눈들 위치를 변경하지 않을 것이지만 사용자가 그/그녀의 안락함을 위해 분 단위로 사용자의 눈들의 위치를 변경할 것이라는 고려사항에 기초하여 결정될 수 있다.
CPU(310) 및 눈 추적 모듈(320)이 T_0 또는 T_1초 동안 사용자의 눈들의 위치를 감지하지 않기 위해 잠들어 있는 이후에, 컴퓨터 디바이스(300)는 WAKEUP 상태로 진입한다.
WAKEUP 상태에 대한 단계(830)에서, 사용자의 눈들이 T1초 동안 동일한 뷰 영역에 있는 것이 감지된다. 사용자의 눈들이 T1초 동안 동일한 뷰 영역에 있는 것이 감지된다면, 컴퓨터 디바이스(300)는 STANDBY 상태로 재진입한다. T1은 T0보다 적어야 한다. 사용자의 눈들의 위치들이 동일한 뷰 영역 내에 유지되는 한, 컴퓨터 디바이스(300)는 STANDBY 상태와 WAKEUP 상태 사이를 왕복할(reciprocate) 것이다.
WAKEUP 상태에 대한 단계(835)에서, T1초보다 적은 시간 동안 사용자의 눈들이 동일한 뷰 영역에 있는 것이 감지된다면, 사용자의 눈들의 감지는 또 다른 T1초 동안 반복적으로 지속된다.
WAKEUP 상태에 대한 단계(840)에서, 사용자의 눈들이 또 다른 뷰 영역으로 이동되었다는 것이 감지된다면, 컴퓨터 디바이스(300)가 START 상태로 재진입한다. 이러한 START 상태에서, 비디오 콘텐츠의 재생은 지속하지만, 디스플레이(340) 상의 픽셀 배열은 사용자의 눈들이 이동된 뷰 영역에 대응하는 픽셀 배열로 스위칭 될 수 있다. 컴퓨터 디바이스(300)가 WAKEUP 상태로부터 START 상태로 재진입할 때, 카운트의 수는 0으로 리셋된다.
WAKEUP 상태에 대한 단계(845)에서, 사용자의 눈들이 T1초 동안 전혀 감지되지 않는다면(부재한다면), 컴퓨터 디바이스(300)는 CAPTURE 상태로 진입한다. 컴퓨터 디바이스(300)가 WAKEUP 상태로부터 CAPTURE 상태로 진입할 때, 예를 들어 카운트 수가 N0보다 적다면, 컴퓨터 디바이스(300)가 CAPTURE 상태로 진입하는 시간보다 T_0초 먼저인 비디오 제공 시간이 메모리(360)에 기록된다. 또한, 예를 들어 카운트 수가 N0 이상이면(단, N1 미만), 컴퓨터 디바이스(300)가 CAPTURE 상태로 진입할 때의 비디오 재생 위치보다 T_1초 먼저인 비디오 제공 시간이 메모리(360)에 기록되고 카운트 수는 0으로 리셋된다.
CAPTURE 상태에 대한 단계(850)에서, 컴퓨터 디바이스(300)가 CAPTURE 상태로 진입하고 나서 T2초보다 적게 지난 후에 사용자의 눈들이 감지된다면, 컴퓨터 디바이스(300)는 START 상태로 재진입한다. 이 START 상태에서, 사용자의 눈들이 부재한 것이 감지될 때의 비디오 제공 시간에서부터 비디오 콘텐츠의 재생이 재개될(resumed) 수 있다. 그러한 비디오 제공 시간은 전술된 것과 동일한 방식으로 기록될 수 있다. 예를 들어, 컴퓨터 디바이스(300)가 START 상태로부터 CAPTURE 상태로 진입하는 경우(S820), 컴퓨터 디바이스(300)가 CAPTURE 상태로 진입할 때의 비디오 제공 시간에서부터 비디오 콘텐츠의 재생이 재개될 수 있다. 또한, 컴퓨터 디바이스(300)가 WAKEUP 상태로부터 CAPTURE 상태로 진입하는 경우(S845), 컴퓨터 디바이스(300)가 CAPTURE 상태로 진입하는 시간보다 T_0 또는 T_1초 먼저인 비디오 제공 시간에서부터 비디오 콘텐츠의 재생이 재개될 수 있다.
CAPTURE 상태에 대한 단계(855)에서, 컴퓨터 디바이스(300)가 CAPTURE 상태로 진입하고나서 T2초가 지나는 동안 사용자의 눈들이 전혀 감지되지 않는다면(부재한다면), 컴퓨터 디바이스(300)는 SLEEP 상태로 진입한다. SLEEP 상태에서, CPU(310) 및 눈 추적 모듈(320)이 사용자의 눈들의 위치를 감지하는 작동을 하지 않고, 비디오 콘텐츠의 재생은 일시중지된다. 컴퓨터 디바이스(300)가 SLEEP 상태로 진입하고나서 소정 시간이 지나는 동안 사용자의 눈들이 감지되지 않는다면, CPU(310) 및 디스플레이(340)의 전력 절약을 위해 디스플레이(340) 상의 비디오 콘텐츠의 제공이 꺼질(turned off) 것이다.
SLEEP 상태에 대한 단계(860)에서, 사용자가 사용자 입력 모듈(350)의 시작 키를 누르거나 사용자가 디스플레이(340) 상에 디스플레이된 시작 키 아이콘을 클릭하면, 컴퓨터 디바이스(300)가 START 상태로 재진입한다. 또한 이러한 START 상태에서, 단계(850)에서 설명된 것과 같이, 사용자의 눈들이 부재한 것이 감지될 때의 비디오 제공 시간에서부터 비디오 콘텐츠의 재생이 재개될 수 있다.
단계(845)에 관하여, 사용자의 눈들이 부재하기 이전에 사용자의 눈들이 감지되는 뷰 영역이 스토리지(330)에 기록될 수 있다. 사용자가 동일한 뷰 영역에서 디스플레이(340)를 시청하는 경향이 일반적이기 때문에, 그러한 뷰 영역이 스토리지(330)에 기록된다면, 컴퓨터 디바이스(300)가 CAPTURE 상태로부터 START 상태로 진입할 때(S850), CPU(310)는 기록된 뷰 영역으로 사용자의 눈들의 위치를 감지하는 것을 시작할 수 있다. 기록된 뷰 영역이 사용자의 눈들의 위치가 위치될 가능성이 가장 큰 뷰 영역이기 때문에, 사용자의 눈들의 위치가 동일한 뷰 영역에서 감지된다면, 사용자의 눈들의 위치를 감지하기 위한 CPU(310)의 계산 비용은 최소화될 것이다.
컴퓨터 디바이스(300)의 전술한 기능들 외에, 사용자가 3D 표현 모드와 2D 표현 모드 사이를 스위칭할 수 있도록 컴퓨터 디바이스(300)가 구성될 수 있다. 예를 들어, 디스플레이(340)의 모든 픽셀 상에 비디오 콘텐츠의 왼쪽 뷰 또는 오른쪽 뷰만을 제공함으로써 2D 표현 모드가 실현될 수 있다. 2D 표현 모드에서, 눈 추적 모듈(320) 및 CPU(310)에 의한 사용자의 눈들의 감지는 필요하지 않다. 그러므로, 사용자가 2D 표현 모드로 스위칭한다면 컴퓨터 디바이스(300) 상의 더욱 감소된 전력-소비가 달성될 수 있다. 예를 들어, 컴퓨터 디바이스(300)의 배터리가 낮을 때, 2D 표현 모드가 선택될 수 있다.
이러한 것들 및 이외의 본 발명의 원리의 특징 및 장점은 본 명세서의 교시들(teachings)에 기초하여 관련 기술의 통상의 지식을 가진 자에 의해 용이하게 확인될 수 있다. 본 발명의 원리의 교시들은 하드웨어, 소프트웨어, 펌웨어, 특수 목적 프로세서들, 또는 이들의 조합들의 다양한 형태로 구현될 수 있다고 이해된다.
가장 바람직하게는, 본 발명의 원리의 교시들이 하드웨어 및 소프트웨어의 조합으로 구현될 수 있다. 게다가, 소프트웨어는 프로그램 저장 유닛 상에 실체적으로 체화된(tangibly embodied) 애플리케이션 프로그램으로 구현될 수 있다. 애플리케이션 프로그램은 임의의 적절한 아키텍처(architecture)를 포함하는 머신에 업로딩될 수 있고, 머신에 의해 실행될 수 있다. 하나 이상의 중앙 처리 장치("CPU"), 랜덤 액세스 메모리("RAM"), 및 입력/출력("I/O") 인터페이스들과 같은 하드웨어를 갖는 컴퓨터 플랫폼상에 머신이 구현되는 것이 바람직하다. 컴퓨터 플랫폼은 운영 체제 및 마이크로명령 코드(microinstruction code)도 포함할 수 있다. 본 명세서에서 설명되는 다양한 프로세스들 및 기능들은 CPU에 의해 실행될 수 있는, 마이크로명령 코드의 부분 또는 애플리케이션 프로그램의 부분, 또는 이들의 임의의 조합일 수 있다. 또한, 추가 데이터 스토리지 유닛과 같은 다양한 다른 주변 유닛들이 컴퓨터 플랫폼으로 접속될 수 있다.
첨부된 도면들에서 도시된 구성 시스템 요소들 및 방법들의 일부가 소프트웨어로 구현되는 것이 바람직하기 때문에, 시스템 요소들 또는 프로세스 기능 블록들 사이의 실제 접속은 본 발명의 원리가 프로그래밍이 되는 방식에 따라 다를 수 있다는 것이 더욱 이해된다. 본 명세서에서의 교시들로, 관련 기술의 통상의 기술자는 본 발명의 원리의 이들 및 유사한 구성 및 구현을 고려할 수 있을 것이다.
예시적인 실시예들이 첨부된 도면들을 참조하여 본 명세서에서 설명되지만, 본 발명의 원리는 그러한 정확한 실시예들로 제한되지 않는다는 것과, 본 발명의 원리의 사상 또는 범위에서 벗어나지 않고 관련 기술의 통상의 기술자에 의해 다양한 변경 및 변형이 행해질 수 있다는 것이 이해된다. 이러한 모든 변경 및 변형은 첨부된 청구범위들에서 기재된 본 발명의 원리의 범위 내에 포함되는 것으로 의도된다.

Claims (12)

  1. 사용자의 눈을 감지하기 위한 감지기(320; detector); 및
    프로세서(310)
    를 포함하고, 상기 프로세서는,
    제1 시간 주기 동안 상기 사용자의 눈의 위치가 영역 내에 유지되는지 여부를 결정하고;
    상기 제1 시간 주기 동안 상기 사용자의 눈의 위치가 상기 영역 내에 유지된다면, 제2 시간 주기 동안 상기 사용자의 눈을 감지하는 것과 상기 사용자의 눈의 위치를 결정하는 것을 중단하도록
    구성된, 컴퓨터 디바이스(300).
  2. 제1항에 있어서,
    상기 프로세서(310)는, 제1 시간 주기 동안 상기 사용자의 눈의 위치가 상기 영역 내에 유지되는지 여부를 결정하고, 상기 제2 시간 주기 동안 상기 사용자의 눈을 감지하는 것과 상기 사용자의 눈의 위치를 결정하는 것을 중단하기를 반복하도록 더 구성된, 디바이스.
  3. 제1항 또는 제2항에 있어서,
    상기 프로세서(310)는, 상기 프로세서(310)가 제1 시간 주기 동안 상기 사용자의 눈의 위치가 영역 내에 유지되는지 여부를 결정하고, 제2 시간 주기 동안 상기 사용자의 눈을 감지하는 것과 상기 사용자의 눈의 위치를 결정하는 것을 중단하는 동안에도 콘텐츠를 재생하도록 더 구성된, 디바이스.
  4. 제1항 또는 제2항에 있어서,
    상기 프로세서(310)는, 상기 프로세서(310)가 제1 시간 주기 동안 상기 사용자의 눈의 위치가 영역 내에 유지되는지 여부를 결정하고, 제2 시간 주기 동안 상기 사용자의 눈을 감지하는 것과 상기 사용자의 눈의 위치를 결정하는 것을 중단하는 동안에도 비디오 콘텐츠를 재생하고,
    제3 시간 주기 동안 상기 사용자의 눈이 감지되지 않는다면, 상기 사용자의 눈을 감지하는 것과 상기 사용자의 눈의 위치를 결정하는 것을 중단하고, 상기 비디오 콘텐츠의 재생을 일시중지하도록 더 구성된, 디바이스.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 디바이스는 왼쪽 및 오른쪽 뷰들을 포함하는 입체 이미지의 제공이 가능한 디스플레이(340)를 더 포함하는, 디바이스.
  6. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 디바이스는 수 개의 뷰 영역에서 왼쪽 및 오른쪽 뷰들을 포함하는 입체 이미지의 제공이 가능한 디스플레이(340)를 더 포함하고, 상기 뷰 영역들은 교대로(alternately) 배열된 제1 뷰 영역들 및 제2 뷰 영역들 - 상기 제1 뷰 영역에서 상기 왼쪽 뷰는 상기 사용자의 왼쪽 눈에 제공되고 상기 오른쪽 뷰는 상기 사용자의 오른쪽 눈에 제공되고, 상기 제2 뷰 영역에서 상기 왼쪽 뷰는 상기 사용자의 오른쪽 눈에 제공되고 상기 오른쪽 뷰는 상기 사용자의 왼쪽 눈에 제공됨 - 을 포함하고,
    상기 프로세서(310)는,
    상기 사용자의 눈의 위치가 상기 제2 뷰 영역으로 이동하는지 여부를 결정하고,
    상기 사용자의 눈의 위치가 상기 제2 뷰 영역으로 이동한다고 결정되면, 상기 왼쪽 뷰가 상기 사용자의 왼쪽 눈에 제공되고 상기 오른쪽 뷰가 상기 사용자의 오른쪽 눈에 제공되도록, 디스플레이(340) 상에 디스플레이될 왼쪽 및 오른쪽 뷰들의 배열을 스위칭하도록 더 구성되는, 디바이스.
  7. 사용자의 눈을 감지하는 단계(S815, S830);
    제1 시간 주기 동안 상기 사용자의 눈의 위치가 영역 내에 유지되는지 여부를 결정하는 단계(S815, S830); 및
    상기 제1 시간 주기 동안 상기 사용자의 눈의 위치가 상기 영역 내에 유지된다면, 제2 시간 주기 동안 상기 사용자의 눈을 감지하는 것과 상기 사용자의 눈의 위치를 결정하는 것을 중단하는 단계(S825)
    를 포함하는 방법.
  8. 제7항에 있어서,
    상기 결정하는 단계와 상기 중단하는 단계를 반복하는 단계(S825, S830)
    를 더 포함하는 방법.
  9. 제7항 또는 제8항에 있어서,
    상기 결정하는 단계와 상기 중단하는 단계가 수행되는 동안에도 콘텐츠를 재생하는 단계(S825)
    를 더 포함하는 방법.
  10. 제7항 또는 제8항에 있어서,
    상기 결정하는 단계와 상기 중단하는 단계가 수행되는 동안에도 비디오 콘텐츠를 재생하는 단계(S825); 및
    제3 시간 주기 동안 상기 사용자의 눈이 감지되지 않는다면, 상기 사용자의 눈을 감지하는 것과 상기 사용자의 눈의 위치를 결정하는 것을 중단하고, 상기 비디오 콘텐츠의 재생을 일시중지하는 단계(S855)
    를 더 포함하는 방법.
  11. 제7항 내지 제10항 중 어느 한 항에 있어서,
    상기 디바이스는, 수 개의 뷰 영역에서 왼쪽 및 오른쪽 뷰들을 포함하는 입체 이미지의 제공이 가능한 디스플레이를 포함하고, 상기 뷰 영역들은 교대로 배열된 제1 뷰 영역들 및 제2 뷰 영역들 - 상기 제1 뷰 영역에서 상기 왼쪽 뷰는 상기 사용자의 왼쪽 눈에 제공되고 상기 오른쪽 뷰는 상기 사용자의 오른쪽 눈에 제공되고, 상기 제2 뷰 영역에서 상기 왼쪽 뷰는 상기 사용자의 오른쪽 눈에 제공되고 상기 오른쪽 뷰는 상기 사용자의 왼쪽 눈에 제공됨 - 을 포함하고,
    상기 방법은,
    상기 사용자의 눈의 위치가 상기 제2 뷰 영역으로 이동하는지 여부를 결정하는 단계(S840),
    상기 사용자의 눈의 위치가 상기 제2 뷰 영역으로 이동한다고 결정되면, 상기 왼쪽 뷰가 상기 사용자의 왼쪽 눈에 제공되고 상기 오른쪽 뷰가 상기 사용자의 오른쪽 눈에 제공되도록, 상기 디스플레이 상에 디스플레이될 왼쪽 및 오른쪽 뷰들의 배열을 스위칭하는 단계(S840)
    를 더 포함하는 방법.
  12. 컴퓨터 판독가능 저장 매체로서,
    사용자의 눈을 감지하기 위한 감지기(320); 및
    프로세서(310)
    를 포함하는 컴퓨터 디바이스(300)을 위한 프로그램을 저장하고 있고,
    상기 프로그램은 상기 프로세서(310)가
    상기 사용자의 눈을 감지(S815, S830)하고,
    제1 시간 주기 동안 상기 사용자의 눈의 위치가 영역 내에 유지되는지 여부를 결정하고(S815, S830),
    상기 제1 시간 주기 동안 상기 사용자의 눈의 위치가 상기 영역 내에 유지된다면, 제2 시간 주기 동안 상기 사용자의 눈을 감지하는 것과 상기 사용자의 눈의 위치를 결정하는 것을 중단(S825)하도록 하는
    컴퓨터 판독가능 저장 매체.
KR1020147016722A 2011-12-23 2011-12-23 전력-소비 관리를 가진 컴퓨터 디바이스 및 컴퓨터 디바이스의 전력-소비 관리를 위한 방법 KR20140105479A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2011/084552 WO2013091245A1 (en) 2011-12-23 2011-12-23 Computer device with power-consumption management and method for managing power-consumption of computer device

Publications (1)

Publication Number Publication Date
KR20140105479A true KR20140105479A (ko) 2014-09-01

Family

ID=48667690

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147016722A KR20140105479A (ko) 2011-12-23 2011-12-23 전력-소비 관리를 가진 컴퓨터 디바이스 및 컴퓨터 디바이스의 전력-소비 관리를 위한 방법

Country Status (7)

Country Link
US (1) US9654768B2 (ko)
EP (1) EP2795425A4 (ko)
JP (1) JP6032856B2 (ko)
KR (1) KR20140105479A (ko)
CN (1) CN104145230A (ko)
BR (1) BR112014012556A2 (ko)
WO (1) WO2013091245A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070980A1 (ko) * 2019-10-08 2021-04-15 엘지전자 주식회사 이동단말기 및 그 제어 방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2839665B1 (en) * 2012-04-03 2019-01-16 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. An autostereoscopic screen and method for reproducing a 3d image
US9336440B2 (en) 2013-11-25 2016-05-10 Qualcomm Incorporated Power efficient use of a depth sensor on a mobile device
US9830739B2 (en) 2014-06-17 2017-11-28 Google Inc. Automultiscopic display with viewpoint tracking and scalability for multiple views
US10761591B2 (en) * 2017-04-01 2020-09-01 Intel Corporation Shutting down GPU components in response to unchanged scene detection
US10298921B1 (en) * 2018-02-27 2019-05-21 Looking Glass Factory, Inc. Superstereoscopic display with enhanced off-angle separation
WO2021056177A1 (en) 2019-09-24 2021-04-01 Citrix Systems, Inc. Systems and methods for screen brightness control and auto-lock based on eye detection
CN112584280B (zh) * 2019-09-27 2022-11-29 百度在线网络技术(北京)有限公司 智能设备的控制方法、装置、设备和介质
WO2021237065A1 (en) 2020-05-21 2021-11-25 Looking Glass Factory, Inc. System and method for holographic image display
US11415728B2 (en) 2020-05-27 2022-08-16 Looking Glass Factory, Inc. System and method for holographic displays
US11415935B2 (en) 2020-06-23 2022-08-16 Looking Glass Factory, Inc. System and method for holographic communication
WO2022119940A1 (en) 2020-12-01 2022-06-09 Looking Glass Factory, Inc. System and method for processing three dimensional images
US11849100B2 (en) * 2021-05-31 2023-12-19 Canon Kabushiki Kaisha Information processing apparatus, control method, and non-transitory computer readable medium

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4987487A (en) * 1988-08-12 1991-01-22 Nippon Telegraph And Telephone Corporation Method of stereoscopic images display which compensates electronically for viewer head movement
JP2662252B2 (ja) 1988-08-12 1997-10-08 日本電信電話株式会社 立体像表示装置
JPH0340692A (ja) 1989-07-07 1991-02-21 Nippon Telegr & Teleph Corp <Ntt> 立体画像表示方法
GB2294350A (en) 1994-10-21 1996-04-24 Sharp Kk Light source and display
JP3040692B2 (ja) 1995-05-12 2000-05-15 三菱重工業株式会社 流量制御弁
US6593957B1 (en) 1998-09-02 2003-07-15 Massachusetts Institute Of Technology Multiple-viewer auto-stereoscopic display systems
JP2005164916A (ja) * 2003-12-02 2005-06-23 Canon Inc 立体表示装置
DE10359403B4 (de) 2003-12-18 2005-12-15 Seereal Technologies Gmbh Autostereoskopisches Multi-User-Display
US7091471B2 (en) * 2004-03-15 2006-08-15 Agilent Technologies, Inc. Using eye detection for providing control and power management of electronic devices
KR100647517B1 (ko) 2005-08-26 2006-11-23 (주)마스터이미지 셀 구조 패러랙스-배리어 및 이를 이용하는 입체영상 표시장치
JP2008139600A (ja) 2006-12-01 2008-06-19 Toshiba Corp 表示装置
TWI379655B (en) 2007-12-21 2012-12-21 Wistron Corp Digital photo frame with power saving function and related power saving method
US20090282429A1 (en) 2008-05-07 2009-11-12 Sony Ericsson Mobile Communications Ab Viewer tracking for displaying three dimensional views
JP2010250789A (ja) * 2008-06-10 2010-11-04 Akira Tomono カメラ付き表示装置
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
EP2180716A1 (en) 2008-10-21 2010-04-28 Electronics and Telecommunications Research Institute Autostereoscopic display with observer tracking
KR20100044062A (ko) 2008-10-21 2010-04-29 한국전자통신연구원 무안경식 입체영상 표시 장치, 방법 및 이를 이용한 개인용단말
JP2010117619A (ja) 2008-11-14 2010-05-27 Sharp Corp 液晶表示装置
CN101840265B (zh) 2009-03-21 2013-11-06 深圳富泰宏精密工业有限公司 视觉感知装置及其控制方法
US8179449B2 (en) * 2009-05-20 2012-05-15 Sony Ericsson Mobile Communications Ab Portable electronic apparatus including a display and method for controlling display content based on movement of the display and user position
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置
CN102301316B (zh) * 2009-12-14 2015-07-22 松下电器(美国)知识产权公司 用户界面装置以及输入方法
US8913004B1 (en) * 2010-03-05 2014-12-16 Amazon Technologies, Inc. Action based device control
KR101729023B1 (ko) * 2010-10-05 2017-04-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
CN103782251A (zh) * 2011-06-24 2014-05-07 汤姆逊许可公司 利用用户的眼球运动可操作的计算机设备和操作该计算机设备的方法
US9196239B1 (en) * 2013-08-30 2015-11-24 Amazon Technologies, Inc. Distracted browsing modes

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070980A1 (ko) * 2019-10-08 2021-04-15 엘지전자 주식회사 이동단말기 및 그 제어 방법

Also Published As

Publication number Publication date
CN104145230A (zh) 2014-11-12
BR112014012556A2 (pt) 2017-06-06
JP6032856B2 (ja) 2016-11-30
WO2013091245A1 (en) 2013-06-27
US9654768B2 (en) 2017-05-16
EP2795425A1 (en) 2014-10-29
EP2795425A4 (en) 2015-08-26
JP2015506598A (ja) 2015-03-02
US20140347454A1 (en) 2014-11-27

Similar Documents

Publication Publication Date Title
KR20140105479A (ko) 전력-소비 관리를 가진 컴퓨터 디바이스 및 컴퓨터 디바이스의 전력-소비 관리를 위한 방법
CN109976506B (zh) 一种电子设备的唤醒方法、存储介质及机器人
US20190355331A1 (en) Managing Transitions of Adaptive Display Rates for Different Video Playback Scenarios
CN102428431B (zh) 包括显示器的便携式电子设备及控制此类设备的方法
CN104252222B (zh) 信息处理装置和信息处理方法
KR102121592B1 (ko) 시력 보호 방법 및 장치
US8866809B2 (en) System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface
US20170223271A1 (en) Power consumption in motion-capture systems with audio and optical signals
EP2724209B1 (en) Computer device operable with user&#39;s eye movement and method for operating the computer device
US9176608B1 (en) Camera based sensor for motion detection
CN106415437B (zh) 用于光学对象运动检测的成像布置
EP2683204A1 (en) Method and apparatus for controlling sleep mode in portable terminal
WO2013155098A1 (en) Multiple touch sensing modes
CN103116400B (zh) 一种屏幕显示状态的控制方法及电子设备
US20150193062A1 (en) Method and apparatus for buffering sensor input in a low power system state
WO2014149646A1 (en) Auxiliary device functionality augmented with fingerprint sensor
US20200363903A1 (en) Engagement analytic system and display system responsive to interaction and/or position of users
US11659266B2 (en) Power control based at least in part on user eye movement
EP2992403B1 (en) Depth sensors
US10152953B2 (en) Information processing apparatus and information processing method
CN104699237A (zh) 辨识使用者操作的方法及相关互动装置与计算机可读介质
CN104115485A (zh) 具有显示状态控制的移动电子装置
CN103608761A (zh) 输入设备、输入方法以及记录介质
US9866753B2 (en) Electronic device having camera and method for operating the same
JP2010282488A (ja) Atm周辺状況検出システム、atm周辺状況検出方法、およびそのためのプログラム

Legal Events

Date Code Title Description
A201 Request for examination