KR20120074484A - 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법 - Google Patents

이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
KR20120074484A
KR20120074484A KR1020100136338A KR20100136338A KR20120074484A KR 20120074484 A KR20120074484 A KR 20120074484A KR 1020100136338 A KR1020100136338 A KR 1020100136338A KR 20100136338 A KR20100136338 A KR 20100136338A KR 20120074484 A KR20120074484 A KR 20120074484A
Authority
KR
South Korea
Prior art keywords
multimedia device
image sensor
user
distance
icon
Prior art date
Application number
KR1020100136338A
Other languages
English (en)
Inventor
조용원
김상기
강민구
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100136338A priority Critical patent/KR20120074484A/ko
Publication of KR20120074484A publication Critical patent/KR20120074484A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Abstract

본 발명의 일실시예에 의한 이미지 센서를 이용하는 멀티미디어 디바이스는, 상기 멀티미디어 디바이스를 사용중인 유저를 디텍트하는 이미지 센서와, 상기 디텍트된 유저에 대한 depth data 를 추출하는 추출부와, 상기 추출된 depth data 에 따라, 상기 유저와 상기 멀티미디어 디바이스간 거리를 계산하는 계산부와, 상기 계산된 거리가 제1거리 범위에 속하는 경우 오리지널 방송 화면을 그대로 디스플레이 하고, 그리고 상기 계산된 거리가 제2거리 범위에 속하는 경우 터치 기반의 아이콘을 이미지 프로세싱 하고 상기 이미지 프로세싱된 터치 기반의 아이콘과 상기 오리지널 방송 화면을 디스플레이 하는 디스플레이부와, 그리고 상기 디스플레이된 아이콘을 선택 가능한 터치 센서를 포함한다.

Description

이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법{MULTIMEDIA DEVICE FOR PROCESSING DATA BY USING IMAGE SENSOR AND THE METHOD FOR CONTROLLING THE SAME}
본 발명은 멀티미디어 디바이스(multimedia device) 기술에 대한 것으로서, 보다 상세하게는 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법에 대한 것이다.
PC나 노트북 등에 탑재된 카메라를 이용하여 단순히 화상 통화를 하는 기술에 대한 논의는 그 동안 많이 이루어져 왔다. 또한, 최근에는 전기 전자 기술의 급격한 발전으로 사용자들이 원하는 다양한 기능 및 조건을 충족시킬 수 있는 방법들이 논의되고 있다.
그러나, 종래 기술에 의한 카메라 등은 화상 통화라는 단순한 기능 등에 국한되어 있고, 카메라를 통해 획득된 데이터를 이용하여 멀티미디어 디바이스의 여러가지 기능들을 구현하는 방법에 대한 연구는 미비한 실정이다.
본 발명의 일실시예는, 멀티미디어 디바이스를 사용하는 유저의 위치에 따라 다이나믹하게 변화하는 유저 인터페이스(user interface)에 관한 솔루션을 제공하고자 한다.
또한, 본 발명의 다른 일실시예는, 멀티미디어 장치에 연동되는 카메라 및 터치 센서간 인터페이스를 통해, 사용자가 원하는 데이터에 보다 신속하게 액세스할 수 있는 기술을 제공하고자 한다.
그리고, 본 발명의 또 다른 일실시예는, 멀티미디어 디바이스에 장착된 터치 센서를 특정 환경에 따라 제어함으로써, 소비 전력을 최소화 하는 프로토콜을 정의하고자 한다.
본 발명의 일실시예에 의한 이미지 센서를 이용하는 멀티미디어 디바이스의 제어 방법은, 상기 이미지 센서를 이용하여 상기 멀티미디어 디바이스를 사용중인 유저를 디텍트하는 단계와, 상기 디텍트된 유저에 대한 depth data 를 추출하는 단계와, 상기 추출된 depth data 에 따라, 상기 유저와 상기 멀티미디어 디바이스간 거리를 계산하는 단계와, 상기 계산된 거리가 제1거리 범위에 속하는 경우, 오리지널 방송 화면을 그대로 디스플레이 하는 단계와, 그리고 상기 계산된 거리가 제2거리 범위에 속하는 경우, 터치 기반의 아이콘을 이미지 프로세싱 하고 상기 이미지 프로세싱된 터치 기반의 아이콘과 상기 오리지널 방송 화면을 디스플레이 하는 단계를 포함한다.
그리고, 본 발명의 일실시예에 의한 이미지 센서를 이용하는 멀티미디어 디바이스는, 상기 멀티미디어 디바이스를 사용중인 유저를 디텍트하는 이미지 센서와, 상기 디텍트된 유저에 대한 depth data 를 추출하는 추출부와, 상기 추출된 depth data 에 따라, 상기 유저와 상기 멀티미디어 디바이스간 거리를 계산하는 계산부와, 상기 계산된 거리가 제1거리 범위에 속하는 경우 오리지널 방송 화면을 그대로 디스플레이 하고, 그리고 상기 계산된 거리가 제2거리 범위에 속하는 경우 터치 기반의 아이콘을 이미지 프로세싱 하고 상기 이미지 프로세싱된 터치 기반의 아이콘과 상기 오리지널 방송 화면을 디스플레이 하는 디스플레이부와, 그리고 상기 디스플레이된 아이콘을 선택 가능한 터치 센서를 포함한다.
본 발명의 일실시예에 의하면, 멀티미디어 디바이스를 사용하는 유저의 위치에 따라 다이나믹하게 변화하는 유저 인터페이스(user interface)에 관한 솔루션을 제공한다.
또한, 본 발명의 다른 일실시예에 의하면, 멀티미디어 장치에 연동되는 카메라 및 터치 센서간 인터페이스를 통해, 사용자가 원하는 데이터에 보다 신속하게 액세스할 수 있는 기술을 제공한다.
그리고, 본 발명의 또 다른 일실시예에 의하면, 멀티미디어 디바이스에 장착된 터치 센서를 특정 환경에 따라 제어함으로써, 소비 전력을 최소화 하는 프로토콜을 정의한다.
보다 구체적인 발명의 효과에 대해서는, 이하 목차에서 상세히 후술하도록 하겠다.
도 1은 본 발명의 일실시예에 따른 멀티미디어 장치를 포함한 전체 시스템의 일예를 개략적으로 나타낸 도면이다.
도 2는 도 1에 도시된 멀티미디어 장치의 일예를 보다 상세히 도시한 도면이다.
도 3은 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서를 이용하는 멀티미디어 장치 및 촬영 화면을 동시에 보여 주는 도면이다.
도 4는 본 발명의 일실시예에 의한 복수개의 이종 이미지 센서 및 멀티미디어 장치에서 검출 데이터(detection data) 및 인식 데이터(recognition data) 를 이용하는 과정을 설명하기 위한 도면이다.
도 5는 도 4에 도시된 데이터 베이스에 저장된 face vector 를 예시하여 설명하기 위한 도면이다.
도 6은 본 발명의 일실시예에 따른, 멀티미디어 디바이스와 연결된 복수개의 이종 이미지 센서의 동작을, 하드웨어 영역 및 소프트웨어 영역으로 나누어 설명하기 위한 도면이다.
도 7은 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 및 멀티미디어 장치를 각각 도시한 도면이다.
도 8은 본 발명의 다른 일실시예에 의한 복수 개의 이종 이미지 센서 및 멀티미디어 장치를 각각 도시한 도면이다.
도 9는 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서를 보다 상세히 도시한 도면이다.
도 10은 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제1 이미지 센서의 일예를 도시한 도면이다.
도 11은 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제1 이미지 센서의 다른 일예를 도시한 도면이다.
도 12는 도 11에 도시된 제1 이미지 센서를 이용하여 거리를 계산하는 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제1 이미지 센서에 의해 촬영된 이미지를 도시한 도면이다.
도 14는 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제2 이미지 센서에 의해 촬영된 이미지를 도시한 도면이다.
도 15는 본 발명의 다른 일실시예에 따라, 이미지 센서를 이용하는 멀티미디어 디바이스의 구체적인 모듈들을 도시한 도면이다.
도 16은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가, 제1거리 범위에 위치한 사용자를 디텍트 하는 과정을 도시한 도면이다.
도 17은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가, 제2거리 범위에 위치한 사용자를 디텍트 하는 과정을 도시한 도면이다.
도 18은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가, 도 16 및 도 17의 거리범위를 결정하는 기준에 대한 정보를 저장하고 있는 데이터베이스를 도시한 도면이다.
도 19는 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 사용자의 위치에 따라 변경된 유저 인터페이스를 제공하는 제1실시예를 도시한 도면이다.
도 20은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 사용자의 위치에 따라 변경된 유저 인터페이스를 제공하는 제2실시예를 도시한 도면이다.
도 21은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 사용자의 위치에 따라 변경된 유저 인터페이스를 제공하는 제3실시예를 도시한 도면이다.
도 22는 도 21에 도시된 디스플레이 화면의 넥스트 디스플레이 화면을 도시한 도면이다.
도 23은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 사용자의 위치에 따라 변경된 오디오 볼륨을 제공하는 과정을 도시한 도면이다.
도 24는 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 사용자의 위치에 따라 변경된 디스플레이 밝기를 제공하는 과정을 도시한 도면이다.
도 25는 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스의 제어 방법을 도시한 플로우 차트이다.
그리고, 도 26은 본 발명의 또 다른 일실시예에 따른 멀티미디어 디바이스의 제어 방법을 도시한 플로우 차트이다.
이하에서는 첨부된 도면을 참조하여 본 발명의 여러가지 실시예들을 보다 상세히 설명하도록 하겠다. 나아가, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함을 고려하여 부여되는 것으로서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수 있으며, 하드웨어 또는 소프트웨어로 설계 가능하다.
한편, 본 명세서에서 기술되는 멀티미디어 장치 또는 멀티미디어 디바이스는, 예컨대 방송 데이터를 수신하여 처리하는 여러가지 타입의 디바이스들에 해당한다. 나아가 상기 멀티미디어 장치는 Connected TV에 대응할 수도 있으며, 상기 Connected TV는 방송 수신 기능 뿐만 아니라 유무선 통신 장치 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린 또는 모션(motion) 인식 리모콘 등 보다 사용에 편리한 인터페이스를 가질 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수도 있다.
따라서, 상기 Connected TV는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 Connected TV는, 보다 구체적으로 예를 들면, 웹 TV, 인터넷 TV, HBBTV, 스마트 TV, DTV 등이 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
나아가, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
도 1은 본 발명의 일실시예에 따른 멀티미디어 장치를 포함한 전체 방송 시스템의 일예를 개략적으로 나타낸 도면이다. 도 1의 멀티미디어 장치는 예컨대 Connected TV에 대응할 수도 있으나, 본 발명의 권리범위가 Connected TV 만으로 한정되는 것은 아니며 본 발명의 권리범위는 원칙적으로 특허청구범위에 의해 정해져야 한다.
도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 멀티미디어 장치를 포함한 전체 시스템은, 컨텐츠 제공자(Content Provider;CP)(10), 서비스 제공자(Service Provider;SP)(20), 네트워크 제공자(Network Provider; NP)(30) 및 HNED(40)로 구분될 수 있다. 상기 HNED(40) 는, 예를 들어 본 발명의 실시예에 따른 멀티미디어 장치인 클라이언트(100)에 대응한다.
컨텐츠 제공자(10)는, 각종 컨텐츠를 제작하여 제공한다. 컨텐츠 제공자(10)에는 도 1에서와 같이 지상파 방송 송출자(terrestrial broadcaster), 케이블 방송 사업자(cable SO(System Operator) 또는 MSO(Multiple System Operator), 위성 방송 송출자(satellite broadcaster), 인터넷 방송 송출자(Internet broadcaster) 등이 예시될 수 있다. 또한, 컨텐츠 제공자(10)는, 방송 컨텐츠 외에, 다양한 애플리케이션 등을 제공할 수도 있다.
서비스 제공자(20)는, 컨텐츠 제공자(10)가 제공하는 컨텐츠들을 서비스 패키지화하여 제공할 수 있다. 예를 들어, 도 1의 서비스 제공자(20)는, 제1 지상파 방송, 제2 지상파 방송, 케이블 MSO, 위성 방송, 다양한 인터넷 방송, 애플리케이션 등을 패키지화하여 사용자에게 제공할 수 있다.
네트워크 제공자(30)는, 서비스를 클라이언트(100)에게 제공하기 위한 네트워크 망을 제공할 수 있다. 클라이언트(100)는 홈 네트워크(Home Network End User;HNED)를 구축하여 서비스를 제공받을 수도 있다.
한편, 클라이언트(100)도 네트워크를 통해, 컨텐츠를 제공하는 것이 가능하다. 이러한 경우, 상술한 바와 달리, 역으로, 클라이언트(100)가 컨텐츠 제공자가 될 수 있으며, 컨텐츠 제공자(10)가 클라이언트(100)로부터 컨텐츠를 수신할 수도 있다. 이와 같이 설계된 경우, 양방향 컨텐츠 서비스 또는 데이터 서비스가 가능한 장점이 있다.
도 2는 도 1에 도시된 멀티미디어 장치의 일예를 보다 상세히 도시한 도면이다.
본 발명의 일실시예에 의한 멀티미디어 장치(200)는, 네트워크 인터페이스부(Network Interface)(201), TCP/IP 매니저(TCP/IP Manager)(202), 서비스 전달 매니저(Service Delivery Manager)(203), 디멀티플렉서(Demux)(205), PSI&(PSIP and/or SI) 디코더(204), 오디오 디코더(Audio Decoder)(206), 비디오 디코더(Video Decoder)(207), 디스플레이부(Display A/V and OSD Module)(208), 서비스 제어 매니저(Service Control Manager)(209), 서비스 디스커버리 매니저(Service Discovery Manager)(210), 메타데이터 매니저(Metadata Manager)(212), SI&Metadata DB(211), UI 매니저(214), 그리고 서비스 매니저(213) 등을 포함하여 이루어 진다. 나아가, 복수개의 이종 이미지 센서(260)가 상기 멀티미디어 장치(200)와 연결되어 있으며, 예를 들어 USB 방식의 커넥션으로 연결되어 있다. 또한, 도 2에서는 상기 복수개의 이종 이미지 센서(260)가 별도의 모듈로 구성되도록 설계하였으나, 상기 복수개의 이종 이미지 센서(260)가 상기 멀티미디어 장치(200)에 하우징(housing) 된 형태로 설계할 수도 있다.
네트워크 인터페이스부(201)는 네트워크 망으로부터 수신되는 패킷(packet)들을 수신하고, 네트워크 망으로 패킷을 전송한다. 즉 네트워크 인터페이스부(201)는 네트워크 망을 통해 서비스 제공자로부터 서비스, 컨텐츠 등을 수신한다.
TCP/IP 매니저(202)는, 멀티미디어 장치(200)로 수신되는 패킷과 멀티미디어 장치(200)가 전송하는 패킷에 대하여, 즉 소스로부터 목적지까지의 패킷 전달에 관여한다. 서비스 전달 매니저(203)는 수신되는 서비스 데이터의 제어를 담당한다. 예를 들어, 실시간 스트리밍(real-time streaming) 데이터를 제어하는 경우 RTP/RTCP를 사용할 수 있다. 상기 실시간 스트리밍 데이터를 RTP를 사용하여 전송하는 경우, 상기 서비스 전달 매니저(203)는 상기 수신된 데이터 패킷을 RTP에 따라 파싱(parsing)하여 디멀티플렉서(205)에 전송하거나 서비스 매니저(213)의 제어에 따라 SI&Metadata DB(711)에 저장한다. 그리고 RTCP를 이용하여 상기 네트워크 수신 정보를 서비스를 제공하는 서버측에 피드백(feedback)한다.
디멀티플렉서(205)는 수신된 패킷을 오디오, 비디오, PSI(Program Specific Information) 데이터 등으로 역다중화하여 각각 오디오/비디오 디코더(206, 207), PSI&(PSIP and/or SI) Decoder(204)에 전송한다.
PSI&(PSIP and/or SI) Decoder(204)는 상기 디멀티플렉서(205)에서 역다중화된 PSI 섹션, PSIP(Program and Service Information Protocol) 섹션 또는 SI(Service Information) 섹션 등을 수신하여 디코딩한다.
또한 상기 PSI&(PSIP and/or SI) Decoder(204)는 상기 수신된 섹션들을 디코딩하여 서비스 정보에 관한 데이터베이스를 만들고, 상기 서비스 정보에 관한 데이터베이스는 SI&Metadata DB(211)에 저장한다.
오디오/비디오 디코더(206/207)는, 상기 디멀티플렉서(205)에서 수신된 비디오 데이터와 오디오 데이터를 디코딩한다.
UI 매니저(214)는 사용자를 위한 GUI(Graphic User Interface)를 OSD(On Screen Display) 등을 이용하여 제공하며, 사용자로부터 키 입력을 받아 상기 입력에 따른 수신기 동작을 수행한다. 예를 들어, 사용자로부터 채널선택에 관한 키 입력을 받으면 상기 키 입력신호를 서비스 매니저(213)에 전송한다.
서비스 매니저(213)는 서비스 전달 매니저(203), 서비스 디스커버리 매니저(210), 서비스 제어 매니저(209) 및 메타데이터 매니저(212) 등 서비스와 연관된 매니저를 제어한다.
또한 서비스 매니저(213)는 채널 맵(Channel Map)을 만들고 상기 유저 인터페이스 매니저(214)로부터 수신한 키 입력에 따라 상기 채널 맵을 이용하여 채널을 선택하다. 서비스 디스커버리 매니저(210)는 서비스를 제공하는 서비스 제공자를 선택하는데 필요한 정보를 제공한다. 상기 서비스 매니저(213)로부터 채널선택에 관한 신호를 수신하면, 서비스 디스커버리 매니저(210)는 상기 정보를 이용하여 서비스를 찾는다.
서비스 제어 매니저(209)는 서비스의 선택과 제어를 담당한다. 예를 들어, 사용자가 기존의 방송방식과 같은 Live Broadcasting 서비스를 선택하는 경우 IGMP 또는 RTSP 등을 사용하고, VOD(Video On Demand)와 같은 서비스를 선택하는 경우에는 RTSP를 사용하여 서비스의 선택, 제어를 수행한다. 메타데이터 매니저(212)는 서비스와 연관된 메타데이터를 관리하고 상기 메타데이터를 SI&Metadata DB(211)에 저장한다.
SI&Metadata DB(211)는 PSI&(PSIP and/or SI) Decoder(204)가 디코딩한 서비스 정보, 메타데이터 매니저(212)가 관리하는 메타데이터 및 서비스 디스커버리 매니저(210)가 제공하는 서비스 제공자를 선택하는데 필요한 정보를 저장한다. 또한 SI&Metadata DB(211)는 시스템에 대한 셋업 데이터 등을 저장할 수 있다.
한편, 상기 IG(250)는, IMS 기반의 IPTV 서비스에 접근하기 위해 필요한 기능들을 모아 놓은 게이트웨이 이다.
그리고, 도 2에 도시된 복수개의 이종 이미지 센서(260)는 상기 멀티미디어 장치(200) 주변에 위치한 사람 또는 사물에 대한 단수의 이미지 또는 복수의 이미지들을 촬영하도록 설계된다. 보다 구체적으로 예를 들면, 상기 복수개의 이종 이미지 센서(260)는 단수의 이미지 또는 복수의 이미지들을 연속적으로, 주기적으로, 선택된 시간에, 또는 특정 컨디션에서만 동작하도록 설계된다. 이에 대한 구체적인 설명은 이하에서 설명하도록 하겠다.
도 3은 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서를 이용하는 멀티미디어 장치 및 촬영 화면을 동시에 보여 주는 도면이다. 이하, 도 3을 참조하여, 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서를 이용하는 멀티미디어 장치 및 촬영 화면을 동시에 설명하면 다음과 같다.
일반적으로, depth data 처리와 관련된 제1 이미지 센서들은 제한된 해상도(예를 들어, 최대 VGA 급)와 인식 거리(예를 들어, 3.5m) 문제로 인하여, 원거리 안면 인식에 적합하지 않은 면이 존재한다. 또한, color data 처리와 관련된 제2 이미지 센서들은 인식 속도가 느리며 광조건(light condition)에 강인하지 못한 단점을 가지고 있다. 따라서, 이와 같은 각 이미지 센서들의 단점을 보완하기 위하여, 본 발명의 일실시예에 의한 멀티미디어 장치는 제1 이미지 센서와 제2 이미지 센서가 결합된 하이브리드 형태의 이미지 센서 모듈과 연동되도록 설계한다.
전술한 제1 이미지 센서로, 예를 들어 IR 카메라 또는 depth 카메라가 사용된다. 보다 구체적으로 예를 들면, 상기 IR 카메라 또는 depth 카메라로 TOF(Time Of Flight) 방식과 structured light 방식이 논의되고 있다. 상기 TOF 방식은, 적외선을 방사하여 돌아오는 시간차를 이용하여 거리 정보를 계산하고, 상기 structured light 방식은, 특정 패턴으로 적외선을 방사하고 변형되는 패턴을 분석하여 거리를 계산한다. 다만, 제1 이미지 센서의 경우, depth data 인식 및 처리 속도면에서 장점이 있고 어두운 곳에서도 사물, 사람 등을 용이하게 센싱 가능하다. 그러나, 먼거리에서는 해상도가 떨어지는 단점을 가지고 있다.
나아가, 전술한 제2이미지 센서로, 예를 들어 color 카메라 또는 RGB 카메라가 사용된다. 보다 구체적으로 예를 들면, 상기 color 카메라 또는 RGB 카메라로, stereo 카메라 방식과 mono 카메라 방식이 논의되고 있다. 상기 stereo 카메라 방식은, 두개의 카메라를 통해 촬영된 각각의 이미지 시차 비교 정보에 기초하여, 손 또는 얼굴 등을 검출하고 추적한다. 상기 mono 카메라 방식은, 한 개의 카메라를 통해 촬영된 shape, color 정보를 바탕으로 손 또는 얼굴 등을 검출하고 추적한다. 다만, 제2 이미지 센서의 경우, 제1 이미지 센서에 비해 해상도가 개선된 장점이 있으나, 주위 조명에 취약하고, 어두운 곳에서 인식이 어려운 한계가 있다. 특히, 정확한 depth 인식이 어려운 문제점이 존재한다.
이와 같은 종래 문제점들을 해결하기 위하여, 도 3에 도시된 바와 같이, 본 발명의 일실시예에 의한 멀티미디어 장치는 제1 이미지 센서와 제2 이미지 센서를 모두 구비하도록 설계된다. 다만, 상기 이미지 센서들은 상기 멀티미디어 장치에 embedded 형태로 설계될 수도 있고, 또는 별도의 하드웨어 모듈로 설계하는 것도 가능하다. 우선, 도 3의 (b) 영역에 도시된 바와 같이, 제1 이미지 센서는 상기 멀티미디어 장치 주변에 위치한 사용자들을 포함한 영상을 촬영한다. 구체적인 촬영 영상은 도 3의 (1), (2), (3), (4)에 순차적으로 도시되어 있다.
한편, 제1 이미지 센서의 촬영 및 데이터 분석이 완료되면, 도 3의 (a) 영역에 도시된 바와 같이, 제2 이미지 센서는 특정 사용자의 얼굴에 대한 영상을 촬영한다. 구체적인 촬영 영상은 도 3의 (5), (6), (7)에 순차적으로 도시되어 있다.
본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제1 이미지 센서는 상기 멀티미디어 장치의 주변에 위치한 제1영상을 촬영하고 상기 촬영된 제1영상으로부터 depth data 를 추출한다. 이는 도 3의 (1)에 도시된 바와 같이, 거리에 따라 각 사물의 영역이 다른 명암으로 표시되도록 설계 가능하다.
나아가, 상기 제1 이미지 센서는, 상기 추출된 depth data 를 이용하여 적어도 하나의 사용자의 얼굴을 인지 및 인식할 수 있다.. 즉, 기저장된 데이터베이스 등을 이용하여, 도 3의 (2)에 도시된 바와 같이 사용자의 신체 정보(예를 들어, 얼굴, 손, 발, 관절, 기타 등등)를 추출하고, 나아가 도 3의 (3)에 도시된 바와 같이 특정 사용자의 안면에 대한 위치 좌표 및 거리 정보를 획득한다. 보다 구체적으로 설명하면, 상기 사용자의 얼굴에 대한 위치 정보인 x, y, z 값들을 계산하도록 설계되며, 상기 x 는 상기 촬영된 제1영상에서 상기 얼굴의 가로축에 대한 위치, 상기 y는 상기 촬영된 제1영상에서 상기 얼굴의 세로축에 대한 위치, 그리고 상기 z는 상기 사용자의 얼굴과 제1 이미지 센서 사이의 거리를 의미한다.
또한, 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 color 이미지를 추출하기 위한 제2 이미지 센서는 상기 인지된 사용자의 얼굴에 대한 제2영상을 촬영하며, 이는 도 3의 (5)에 도시되어 있다.
한편, 도 3에 도시된 제1 이미지 센서)와 제2 이미지 센서()를 인접하여 설계할 경우, physical 위치 차이로 인한 에러는 무시할 만한 수준일 수도 있다. 다만, 본 발명의 또 다른 일실시예에 의하면, 전술한 physical 위치 차이에 대한 정보를 이용하여, 제1 이미지 센서에서 획득한 좌표정보나 거리정보를 보정하고, 제2 이미지 센서가 상기 보정된 좌표정보나 거리정보를 이용하여 사용자를 촬영할 수 있도록 설계된다. 또한, 상기 제1 이미지 센서와 상기 제2 이미지 센서가 지면으로부터 수평한 상태로 설계되어 있다면, 전술한 phisycal 위치 차이에 대한 정보는 수평 프레임을 기준으로 설정될 수가 있다.상기 제2 이미지 센서는, 도 3의 (7)에 도시된 바와 같이 상기 촬영된 제2영상으로부터 특징 정보를 추출한다. 상기 특징 정보는, 예컨대 상기 멀티미디어 장치를 사용하는 복수의 사용자들을 식별하기 위한 특정 부위(예를 들어, 입, 코, 눈 등)에 대응하는 데이터 이다. 나아가, 상기 제2 이미지 센서는, 상기 제1 이미지 센서의 촬영을 통해 얻어진 좌표값(상기 x, y, z 값들)에 기초하여, 상기 사용자의 얼굴에 대한 영역을 줌인할 수도 있다. 이는, 도 3의 (5)에서 (6)으로 전환되는 과정을 의미한다.
상기 제1 이미지 센서 및 상기 제2 이미지 센서의 촬영 및 분석이 완료된 경우, 본 발명의 일실시예에 의한 멀티미디어 장치는, 상기 추출된 특징 정보에 대응하는 데이터를 저장하고 있는 메모리에 액세스 하고, 상기 메모리에 저장된 특정 사용자를 식별하는 정보를 추출한다.
만약, 상기 특정 사용자를 식별하는 정보가 상기 메모리에 존재하는 경우, 상기 멀티미디어 장치는 상기 특정 사용자를 위하여 기설정된 서비스를 제공한다.
반면, 상기 특정 사용자를 식별하는 정보가 상기 메모리에 존재하지 않는 경우, 상기 멀티미디어 장치는 상기 인식된 사용자를 상기 메모리에 저장하기 위한 가이드 메시지를 디스플레이 하도록 설계된다.
전술하여 설명한 바와 같이, 본 발명의 일실시예에 의하면, 제1 이미지 센서가 사용자 위치 정보나 얼굴의 좌표 정보를 디텍트 하고, 제2 이미지 센서는 제1 이미지 센서에서 획득된 데이터를 이용하여 얼굴을 인식하도록 설계된다.
나아가, 본 발명의 다른 일실시예에 의하면, 무조건적으로 제2 이미지 센서를 이용하는 것이 아니라 특정 컨디션에서만 제2 이미지 센서가 동작하도록 설계된다. 예를 들어, 상기 제1 이미지 센서의 동작으로 획득한 사용자와의 거리 정보가 제1기준값 이하인 경우 또는 상기 제1 이미지 센서의 동작으로 획득한 사용자의 얼굴에 대한 인식율이 제2기준값 이상인 경우에는, 상기 제1 이미지 센서만으로 멀티미디어 장치 주변에 위치한 사용자 얼굴을 디텍트(detect) 하고 인식(recoginization)한다. 반면, 상기 제1 이미지 센서의 동작으로 획득한 사용자와의 거리 정보가 제1기준값 초과하는 경우 또는 상기 제1 이미지 센서의 동작으로 획득한 사용자의 얼굴에 대한 인식율이 제2기준값 미만인 경우에는, 상기 제2 이미지 센서를 추가적으로 이용하여 사용자의 얼굴을 인식하도록 설계된다.
그리고, 본 발명의 또 다른 일실시예에 의하면, 상기 제2 이미지 센서가 사용자의 얼굴을 인식하는 과정에서, 상기 제1 이미지 센서를 통해 획득한 거리 정보를 이용하여 줌인을 하고, 상기 제1 이미지 센서를 통해 획득한 얼굴 좌표 정보를 이용하여 얼굴 부분만을 촬영하도록 설계된다.
따라서, 이와 같이 전혀 다른 타입의 복수개의 이종 이미지 센서들을 이용할 경우, 원거리 안면 인식이 가능하고 데이터 처리 속도도 기존 보다 향상되는 본 발명 특유의 효과가 있다.
도 4는 본 발명의 일실시예에 의한 복수개의 이종 이미지 센서 및 멀티미디어 장치에서 검출 데이터(detection data) 및 인식 데이터(recognition data) 를 이용하는 과정을 설명하기 위한 도면이다.
얼굴 검출(face detection)과 얼굴 인식(face recognition)은 다른 프로세스 이다. 상기 얼굴 검출은, 하나의 이미지내 얼굴 영역을 디텍트 하는 프로세스를 포함한다. 반면, 상기 얼굴 인식은, 디텍트된 얼굴이 어떤 특정 사용자에 대응하는지 여부를 인식하는 프로세스이다. 특히, 본 발명의 일실시예에 따라, 제1이미지 센서를 이용하여 얼굴 검출 프로세스를 실행하고, 또한 제2이미지 센서를 이용하여 얼굴 인식 프로세스를 실행하는 과정을 도 4를 참조하여 설명하도록 하겠다.
도 4에 도시된 바와 같이, 본 발명의 일실시예에 의한 멀티미디어 디바이스는 디텍션 모듈(301), 인식 모듈(302), 데이터베이스(303), 제1이미지 센서(304), 제2이미지 센서(305) 등을 포함하며, 필요에 따라 디텍션 데이터(306) 및 인식 데이터(307)를 이용하게 된다. 상기 디텍션 데이터(306)는 예를 들어, 정보 기반(knowledge-based) 검출 기술(detection techniques), 특징 기반(feature-based) 검출 기술(detection techniques), 템플레이트 매칭 기술(template matching techniques), 외관 기반(appearance-based) 검출 기술(detection techniques)에 기초하여 생성될 수도 있다. 또한, 상기 인식 데이터(307)는 예를 들어, 특정 사용자를 식별하기 위한 눈, 코, 입, 턱, 영역, 거리, 모양, 각도 등의 데이터를 포함한다.
나아가, 상기 디텍션 모듈(301)은, 상기 제1이미지 센서(304)로부터 수신된 이미지 데이터를 이용하여사용자 얼굴의 존재를 판단한다. 또한, 사용자의 얼굴이 위치한 영역을 추정하는 과정에서, 전술하여 설명한 정보 기반(knowledge-based) 검출 기술(detection techniques), 특징 기반(feature-based) 검출 기술(detection techniques), 템플레이트 매칭 기술(template matching techniques), 외관 기반(appearance-based) 검출 기술(detection techniques)과 관련된 데이터가 사용된다.
그리고, 상기 인식 모듈(302)은, 상기 제2이미지 센서(305)로부터 수신된 이미지 데이터를 이용하여, 특정 사용자인지 여부를 식별한다. 이 때, 전술하여 설명한 인식 데이터(307)에 기초하여, 상기 수신된 이미지 데이터 및 상기 DB(303)에 저장된 face vector 정보를 비교하게 된다. 이는 도 5를 참조하여 보다 상세히 설명하도록 하겠다.
도 5는 도 4에 도시된 데이터 베이스에 저장된 face vector 를 예시하여 설명하기 위한 도면이다.
도 5에 도시된 바와 같이, 본 발명의 일실시예에 의한 멀티미디어 디바이스를 사용하는 각 유저들에 대한 face vector 들이 저장되어 있다. 상기 face vector 는, 예를 들어 유저들의 얼굴에서 나타나는 특징 정보들에 대한 데이터 집합으로, 특정 유저들 각각을 식별하기 위한 용도로 사용된다.
도 6은 본 발명의 일실시예에 따른, 멀티미디어 디바이스와 연결된 복수개의 이종 이미지 센서의 동작을, 하드웨어 영역 및 소프트웨어 영역으로 나누어 설명하기 위한 도면이다.
도 6에 도시된 바와 같이, 멀티미디어 디바이스가 복수개의 이종 이미지 센서를 통해 영상을 입력 받아 동작을 수행하는 구성은, 이미지 센서의 하드웨어 영역(360) 및 이미지 센서로부터 수신된 데이터를 처리하는 멀티미디어 디바이스의 소프트웨어 영역(350)으로 나누어 설명하도록 하겠다.
도 6에서는, 상기 하드웨어 영역(360)을 별도의 모듈로 도시하였으나, 상기 소프트웨어 영역(350)을 처리하는 멀티미디어 디바이스에 임베디드된 일체형으로 구성할 수도 있다.
먼저, 하드웨어 영역은, 데이터 수집 영역(340) 및 펌웨어 영역(330)을 포함할 수 있다.
상기 데이터 수집 영역(340)은, 이미지 센서를 통하여 멀티미디어 디바이스에서 인식되기 위한 원본 데이터를 입력 받는 영역으로, 적외선 광원(IR light projector), 깊이 이미지센서(depth image sensor), 컬러 이미지 센서(RGB image sensor), 마이크로폰, 및 카메라칩을 포함하여 구성될 수 있다.
또한, 펌웨어 영역(330)은, 하드웨어 영역에 존재하여 동작함으로써, 하드웨어 영역과 소프트웨어 영역의 연결을 구성하는 영역이다. 또한, 특정한 애플리케이션이 필요로 하는 호스트 애플리케이션으로 구성될 수 있고, 다운 샘플링(downsampling) 및 미러링(mirroring)동작 등을 수행할 수 있다.
따라서, 데이터 수집 영역(340) 및 펌웨어 영역(330)은 상호 연동하여 동작하며, 이를 통하여 하드웨어 영역(360)을 컨트롤 할 수 있으다. 또한, 상기 펌웨어 영역은 카메라칩에서 구동될 수 있다.
또한, 소프트웨어 영역(350)은, API(application programming interface)영역(320) 및 미들웨어(middleware) 영역(310)을 포함할 수 있다.
API영역(320)은, 멀티미디어 디바이스의 제어부에서 실행될 수 있다. 또한, 카메라부가 멀티미디어 디바이스와 별도의 외부기기로써 구성되는 경우, 상기 API 영역은, 퍼스널 컴퓨터, 게임콘솔, 및 셋탑박스 등에서 실행될 수 있다.
또한, API영역(320)은 상기 멀티미디어 디바이스가 하드웨어 영역의 센서를 구동시킬 수 있도록 하는 간단한 API일 수 있다.
미들웨어 영역(310)은, 인식 알고리즘 영역으로써, 깊이 프로세싱(depth processiong) 미들웨어를 포함할 수 있다. 또한, 상기 미들웨어는, 사용자가 손을 통하여 제스쳐를 입력하는 경우, 또는 신체 전 영역을 통하여 제스쳐를 입력하는 경우에도 명확한 사용자 컨트롤 API와 함께 애플리케이션을 제공할 수 있다. 또한, 상기 미들웨어 영역은 사용자의 손의 위치 검색하는 동작, 사용자의 위치 추적하는 동작, 사용자 골격의 특징을 추출하는 동작 및, 입력된 영상에서 사용자와 배경을 분리하여 인식하는 동작 등을 수행하기 위한 알고리즘을 포함할 수 있다. 또한, 상기 알고리즘은 하드웨어 영역에서 획득된 깊이(depth) 정보, 색상 정보, 적외선 정보, 및 음성 정보를 활용하여 동작될 수 있다.
도 7은 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 및 멀티미디어 장치를 각각 도시한 도면이다. 이하, 도 7을 참조하여, 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 및 멀티미디어 장치를 각각 설명하면 다음과 같다. 다만, 도 7에서는 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서와 멀티미디어 장치를 별개로 도시하였으나, 상기 멀티플 카메라가 상기 멀티미디어 장치에 임베디드(embedded)된 형태로 설계하는 것도 가능하다.
도 7에 도시된 바와 같이 본 발명의 일실시예에 의한 멀티미디어 장치(400)는 CPU(Central Processing Unit)(401) 및 GPU(Graphic Processing Unit)(404)의 모듈로 설계되며, 상기 CPU(401)는 어플리케이션(402) 및 얼굴인식처리 모듈(403)을 포함하고 있다. 한편, 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서(420)는 ASIC(Application Specific Intergrated Circuit)(421), 이미터(422), 제1 이미지 센서(423), 그리고 제2 이미지 센서(424)의 모듈로 설계된다. 그리고, 멀티미디어 장치(400) 및 복수 개의 이종 이미지 센서(420)는 유선 또는 무선의 인터페이스(410)로 연결되어 있으며, 예를 들어 USB (Universal Serial Bus) 인터페이스를 사용할 수도 있다. 다만, 도 7의 모듈들은 일실시예에 불과하며, 본 발명의 권리범위는 원칙적으로 특허청구범위에 의해 정해져야 한다.
상기 이미터(422)는, 상기 멀티미디어 장치(400) 주변에 위치한 적어도 하나 이상의 사용자에게 빛을 발산한다. 나아가, 상기 제1 이미지 센서(423)는, 상기 발산된 빛을 이용하여 제1영상을 촬영하고, 상기 촬영된 제1영상으로부터 depth data 를 추출하고, 상기 추출된 depth data 를 이용하여 상기 적어도 하나 이상의 사용자의 얼굴을 디텍트한다. 또한, 상기 제2 이미지 센서(424)는, 상기 디텍트된 사용자의 얼굴에 대한 제2영상을 촬영하고, 상기 촬영된 제2영상으로부터 특징 정보를 추출한다.
그리고, 상기 추출된 특징 정보는, 상기 인터페이스(410)를 통해 상기 멀티미디어 장치의 얼굴인식처리 모듈(403)로 전송된다. 도 7에 도시하지는 않았지만, 상기 얼굴인식처리 모듈(403)은 예컨대, 수신부, 메모리, 추출부, 제어부 등을 포함하도록 설계된다.
상기 얼굴인식처리 모듈(403)의 수신부는 상기 복수 개의 이종 이미지 센서(420) 및 인터페이스(410)를 통해 전송된 특징 정보를 수신한다. 나아가, 상기 얼굴인식처리 모듈(403)의 메모리는 적어도 하나 이상의 사용자에 대한 특징 정보 및 대응하는 ID를 저장하고 있다.
따라서, 상기 얼굴인식처리 모듈(403)의 추출부는, 상기 수신된 특징 정보에 대응하는 ID 를 상기 메모리로부터 추출하고, 상기 얼굴인식처리 모듈(403)의 제어부는 상기 ID에 해당하는 기설정된 기능들을 자동으로 수행하도록 설계된다.
한편, 얼굴인식처리 모듈을 도 7에 도시된 바와 같이, 멀티미디어 장치의 CPU에서 수행하도록 설계하는 경우, 카메라 설계 비용을 낮추고 다양한 얼굴인식 및 기능 추가 등의 확장성 면에서 유리한 효과가 있다.
도 8은 본 발명의 다른 일실시예에 의한 복수 개의 이종 이미지 센서 및 멀티미디어 장치를 각각 도시한 도면이다. 이하, 도 8을 참조하여, 본 발명의 다른 일실시예에 의한 복수 개의 이종 이미지 센서 및 멀티미디어 장치를 각각 설명하면 다음과 같다. 다만, 도 8에서는 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서와 멀티미디어 장치를 별개로 도시하였으나, 상기 멀티플 카메라를 상기 멀티미디어 장치에 임베디드(embedded)된 형태로 설계하는 것도 가능하다.
도 8에 도시된 바와 같이 본 발명의 일실시예에 의한 멀티미디어 장치(500)는 CPU(Central Processing Unit)(501) 및 GPU(Graphic Processing Unit)(503)의 모듈로 설계되며, 상기 CPU(501)는 어플리케이션(502)을 포함하고 있다. 한편, 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서(520)는 얼굴인식처리 모듈(521), ASIC(Application Specific Intergrated Circuit)(522), 이미터(523), 제1 이미지 센서(524), 그리고 제2 이미지 센서(525)의 모듈로 설계된다. 그리고, 멀티미디어 장치(500) 및 복수 개의 이종 이미지 센서(520)는 유선 또는 무선의 인터페이스(510)로 연결되어 있으며, 예를 들어 USB (Universal Serial Bus) 인터페이스를 사용할 수도 있다. 다만, 도 8의 모듈들은 일실시예에 불과하며, 본 발명의 권리범위는 원칙적으로 특허청구범위에 의해 정해져야 한다.
도 8은 도 7과 비교하여, 얼굴인식처리 모듈(521)이 복수 개의 이종 이미지 센서(520)에 탑재된다는 점에서 차이가 있으며, 나머지 동일한 설명은 생략하도록 하겠다.
한편, 얼굴인식처리 모듈을 도 8에 도시된 바와 같이, 복수 개의 이종 이미지 센서(520)단에서 수행하도록 설계하는 경우, 독립된 플랫폼을 통하여 보다 다양한 형태의 카메라를 설계하는 것이 가능하다.
도 9는 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서를 보다 상세히 도시한 도면이다. 이하, 도 9를 참조하여, 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서를 보다 상세히 설명하면 다음과 같다.
도 9에 도시된 바와 같이, 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서는, 제1 이미지 센서 그룹(610)과 제2 이미지 센서(620), 컨트롤러(630), 메모리(640), 인터페이스(650) 등을 포함하며, 상기 컨트롤러(630)의 제어에 따라 마이크로폰(670) 및 외부 오디오 소스(660)로부터 오디오 데이터를 수신하도록 설계된다.
상기 메모리(640)는, 예를 들어, 플래쉬 메모리 등으로 설계할 수도 있고, 상기 인터페이스(650)는 예를 들어 USB 인터페이스로 설계되어 외부 멀티미디어 장치와 연결된다. 한편, 상기 제1 이미지 센서 그룹(610)은 이미터(emitter)(680) 및 제1 이미지 센서(690)를 포함하며, 상기 이미터는 예를 들어, IR(Infra-Red) 이미터로 설계 가능하다.
나아가, 상기 컨트롤러(630)의 제어에 따라, 상기 이미터(680)의 라이트 프로젝터(682)는 렌즈(681)를 투사하여, 멀티미디어 장치 주변에 위치한 적어도 하나 이상의 사용자에게 빛을 발산한다.
또한, 상기 컨트롤러(630)의 제어에 따라, 상기 제1 이미지 센서(690)는 렌즈(691)을 통해 수신된 빛을 이용하여 제1영상을 촬영하고, 상기 촬영된 제1영상으로부터 depth data 를 추출하고, 이를 상기 컨트롤러(630)에 전송한다.
상기 컨트롤러(630)는, 상기 전송된 depth data 를 이용하여 상기 적어도 하나 이상의 사용자의 얼굴을 디텍트하고, 다음으로 상기 제2 이미지 센서(620)를 제어한다.
상기 제2 이미지 센서(620)는, 상기 컨트롤러(630)의 제어에 따라, 렌즈(621)를 통해 인가되는 상기 디텍트된 사용자의 얼굴에 대한 제2영상을 촬영한다. 나아가, 상기 제2 이미지 센서(620)는, 상기 촬영된 제2영상으로부터 추출된 특징 정보를, 상기 컨트롤러(620)에 전송한다.
그리고, 상기 컨트롤러(630)는, 상기 인터페이스(650)를 이용하여, 상기 추출된 특징 정보를, 멀티미디어 장치에 전송하도록 설계된다. 따라서, 이를 수신한 멀티미디어 장치는, 촬영된 영상의 사용자가 DB에 저장된 사용자 중 어느 특정 사용자인지를 신속하게 식별할 수가 있는 효과가 있다.
도 10은 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제1 이미지 센서의 일예를 도시한 도면이다. 이하, 도 10을 참조하여, 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제1 이미지 센서의 일예를 설명하면 다음과 같다. 도 10에 도시된 IR 소스(710)는 도 6의 이미터(680)에 대응할 수 있고, 도 10에 도시된 depth 이미지 프로세서(720)는 도 9의 제1 이미지 센서(690)에 대응할 수도 있는 바, 도 9 및 도 10의 설명은 보충적으로 적용될 수도 있다. 또한, 도 10에 도시된 카메라는, 예컨대 전술한 structured light 방식을 차용하여 설계하는 것도 가능하다.
도 10에 도시된 바와 같이, 상기 IR 소스(710)는 코드화된 패턴 영상을 타겟 사용자(730)에게 연속적으로 투영하도록 설계된다. 그리고, 상기 depth 이미지 프로세서(720)는 상기 타겟 사용자(730)에 의해 최초 패턴 영상이 왜곡된 정보를 이용하여, 상기 사용자의 위치를 추정한다.
도 11은 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제1 이미지센서의 다른 일예를 도시한 도면이다. 이하, 도 11을 참조하여, 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제1 이미지 센서의 다른 일예를 설명하면 다음과 같다. 도 11에 도시된 LED(810)는 도 9의 이미터(680)에 대응할 수 있고, 도 11에 도시된 depth 이미지 프로세서(820)는 도 9의 제1 이미지 센서(690)에 대응할 수도 있는 바, 도 9 및 도 11의 설명은 보충적으로 적용될 수도 있다. 또한, 도 11에 도시된 카메라는, 예컨대 전술한 TOF 방식을 차용하여 설계하는 것도 가능하다.
도 11에 도시된 바와 같이, 상기 LED(810)에 의해 발산된 빛은 타겟 사용자(830)에게 전송된다. 그리고, 상기 타겟 사용자(830)에 의해 반사된 빛(reflected light)은 상기 depth 이미지 프로세서(820)에 전송된다. 도 11에 도시된 모듈들은, 도 10과 달리 시간 차이에 대한 정보를 이용하여 상기 타겟 사용자(830)의 위치를 계산한다. 이는 도 12를 참조하여 보다 상세히 설명하도록 하겠다.
도 12는 도 11에 도시된 제1 이미지 센서를 이용하여 거리를 계산하는 방법을 설명하기 위한 도면이다. 이하, 도 12를 참조하여, 도 11에 도시된 제1 이미지 센서를 이용하여 거리를 계산하는 방법을 설명하면 다음과 같다.
도 12의 왼쪽 그래프에 도시된 바와 같이, 발산된 빛(emitted light)과 반사된 빛(reflected light) 사이의 시간 차이를 통해, 도착 시간인 t 값을 얻을 수가 있다.
또한, 도 12의 오른쪽에 수식에 도시된 바와 같이, 상기 LED(810)와 상기 타겟 사용자(830)까지의 거리 및 상기 타겟 사용자(830)와 상기 depth 이미지 프로세서(820)까지의 총거리는, 광속과 상기 t 값의 곱셈으로 계산된다. 따라서, 결과적으로 상기 LED(830) 또는 상기 depth 이미지 프로세서(820)와 상기 타겟 사용자(830)까지의 거리는 1/d 로 추정된다.
도 13은 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제1 이미지 센서에 의해 촬영된 이미지를 도시한 도면이다. 이하, 도 13을 참조하여 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제1 이미지 센서에 의해 촬영된 보다 구체적인 이미지를 설명하면 다음과 같다.
도 13에 도시된 바와 같이, 제1 이미지 센서로 촬영된 이미지에서는 RGB 등의 색상 정보가 화려하게 표현되지는 않는다. 다만, 거리에 따라 명암을 차등적으로 표현함으로써, 개별 사물의 대략적인 위치를 신속하게 알아낼 수 있는 장점이 있다.
예컨대, 도 13에 도시된 바와 같이, 가장 멀리 위치한 복도(hall way)의 경우, 가장 어두운 명암으로 표시되며, 제1 이미지 센서로부터 약 10m 정도의 거리에 떨어져 있음을 확인한다. 나아가, 중간 정도의 거리 레벨에 위치한 벽(wall)의 경우, 중간 톤의 명암으로 표시되며, 제1 이미지 센서로부터 약 5m 정도의 거리에 떨어져 있음을 확인한다. 그리고, 상대적으로 가장 가까운 거리에 위치한 TV 시청자(TV viewer)의 경우, 가장 밝은 톤의 명암으로 표시되며, 제1 이미지 센서로부터 약 4m 정도의 거리에 떨어져 있음을 확인한다.
도 14는 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제2이미지센서에 의해 촬영된 이미지를 도시한 도면이다. 이하, 도 14를 참조하여, 본 발명의 일실시예에 의한 복수 개의 이종 이미지 센서 중 제2 이미지 센서에 의해 촬영된 보다 구체적인 이미지를 설명하면 다음과 같다.
제1 이미지 센서와 달리, 제2 이미지 센서의 경우 선명한 RGB 색상을 사용하게 되므로, 사용자의 얼굴의 주요 구성 요소들을 용이하게 식별할 수 있는 장점이 있다. 특히, 도 14에 예시된 바와 같이, 사람을 식별하는데 사용되는 눈 주변, 코 주변, 입 주변에 대한 데이터를 가공하여, 얼굴 인식을 위한 특징 정보로 사용하도록 설계된다. 물론, 도 14에서는 눈, 코, 입을 예시하였지만, 경우에 따라 다른 얼굴 구성 요소, 예컨대 귀, 이마, 머리색, 주름, 피부색, 얼굴형, 얼굴크기 등이 사용될 수도 있다.
도 15는 본 발명의 다른 일실시예에 따라, 이미지 센서를 이용하는 멀티미디어 디바이스의 구체적인 모듈들을 도시한 도면이다. 한편, 도 1 내지 도 14에서는 제1이미지 센서 및 제2이미지 센서를 이용하여, 사용자를 디텍트 하고 인식하는 기술에 대하여 설명하였다. 다만, 도 15 이하에서는, 전술하여 설명한 제1이미지 센서를 이용하여 사용자와 멀티미디어 디바이스간 거리를 계산하고, 그 결과에 따라 멀티미디어 디바이스의 주요 기능(function)들을 자동으로 조절하는 기술에 대하여 설명하도록 하겠다.
도 15에 도시된 바와 같이, 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스(1500)는 방송 네트워크 인터페이스(1501), 스피커(1502), 메모리(1503), 제어부(1504), 계산부(1505), 추출부(1506), 디스플레이부(1507), 터치 센서(1508), 그리고 인터페이스(1509) 등을 포함하며, 이들은 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어의 결합으로 설계 가능하다. 나아가, 도 15에 도시된 모듈들은 일실시예이며, 본 발명의 권리범위는 원칙적으로 특허청구범위에 의해 정해져야 한다. 또한, 상기 멀티미디어 디바이스(1500)는, 예를 들어 방송 수신기, TV 등이 될 수도 있다.
상기 멀티미디어 디바이스(1500)는 방송 네트워크(1520)와 유선 또는 무선으로 연결되어 있으며, 상기 방송 네트워크 인터페이스(1501)는 예컨대 방송국으로부터 수신한 방송 데이터 중 비디오 데이터는 상기 디스플레이부(1507)로 전송하고, 상기 방송 데이터 중 오디오 데이터는 상기 스피커(1502)로 전송한다. 물론, 이와 같은 과정에서 사용되어 질 수 있는 디멀티플렉서, 디코더, 이미지 프로세서 등의 모듈은 생략하였다.
상기 멀티미디어 디바이스(1500)와 USB 등의 인터페이스(1509)로 연결되어 있는 이미지 센서(1510)는, 상기 멀티미디어 디바이스(1500)를 사용중인 유저를 디텍트한다. 상기 이미지 센서(1510)는 전술하여 설명한 제1 이미지 센서에 대응할 수 있으며, 유저와 멀티미디어 디바이스간 거리를 측정하기 위해 사용된다. 즉, 상기 이미지 센서(1510)는, 예를 들어 IR 카메라 또는 depth 카메라가 사용된다. 보다 구체적으로 예를 들면, 상기 IR 카메라 또는 depth 카메라로 TOF(Time Of Flight) 방식과 structured light 방식 중 어느 하나가 채용된다. 상기 TOF 방식은, 적외선을 방사하여 돌아오는 시간차를 이용하여 거리 정보를 계산하고, 상기 structured light 방식은, 특정 패턴으로 적외선을 방사하고 변형되는 패턴을 분석하여 거리를 계산한다.
상기 추출부(1506)는, 상기 디텍트된 유저에 대한 depth data 를 추출하고, 상기 계산부(1505)는 상기 추출된 depth data 에 따라, 상기 유저와 상기 멀티미디어 디바이스(1500)간 거리를 계산한다.
상기 디스플레이부(1507)는, 상기 계산된 거리가 제1거리 범위에 속하는 경우 오리지널 방송 화면을 그대로 디스플레이 한다. 반면, 상기 계산된 거리가 제2거리 범위에 속하는 경우, 상기 디스플레이부(1507)는 터치 기반의 아이콘을 이미지 프로세싱 하고 상기 이미지 프로세싱된 터치 기반의 아이콘과 상기 오리지널 방송 화면을 디스플레이 한다.
그리고, 상기 터치 센서(1508)는, 상기 디스플레이부(1507)에서 디스플레이된 아이콘을 사용자의 손으로 직접 선택 가능한 감지 센서를 포함하고 있다.
한편, 상기 메모리(1503)는, 전술하여 설명한 상기 제1거리 범위 및 상기 제2거리 범위를 저장하고 있다. 특히, 상기 제1거리 범위 및 상기 제2거리 범위는, 예컨대 상기 멀티미디어 디바이스(1500)를 사용하는 유저가 손으로 화면을 터치할 수 있는 정도의 거리를 기준으로 정해질 수가 있다. 이에 대해서는 도 16 내지 도 18을 참조하여 보다 상세히 설명하도록 하겠다.
나아가, 도 15에 도시하지는 않았으나, 상기 제어부(1504)는 상기 메모리(1503)에 액세스하여, 상기 계산부(1505)에 의해 계산된 거리가 상기 제1거리 범위 또는 상기 제2거리 범위에 속하는지 여부를 판단하는 판단부를 더 포함하고 있다. 그리고, 상기 제어부(1504)는, 상기 계산된 거리가 상기 제1거리 범위에 속하는 경우, 상기 멀티미디어 디바이스의 터치 센서를 디스에이블(disable) 시키고, 상기 계산된 거리가 상기 제2거리 범위에 속하는 경우, 상기 멀티미디어 디바이스의 터치 센서를 인에이블(enable) 시키도록 설계된다. 따라서, 예컨대 TV 등의 멀티미디어 디바이스(1500)의 터치 센서를 하루 24시간 내내 가동함으로써 발생하는 불필요한 소비 전력량을 대폭 줄일 수가 있다.
또한, 상기 제어부(1504)는, 상기 계산부(1505)에 의해 계산된 거리가 상기 제2거리 범위에 속하는 경우, 상기 멀티미디어 디바이스(1500)의 디스플레이 밝기(brightness)를 기설정된 제1셋팅값으로 조정하고, 그리고 상기 멀티미디어 디바이스의 오디오 볼륨을 기설정된 제2셋팅값으로 조정한다. 이에 대해서는 도 23 및 도 24를 참조하여 보다 상세히 후술하도록 하겠다.
또한, 상기 디스플레이부(1507)는, 상기 계산부(1505)에 의해 계산된 거리가 제2거리 범위에 속하는 경우, 상기 오리지널 방송 화면과 괸련된 정보를 표시하는 아이콘을, 상기 멀티미디어 디바이스(1500)의 스크린내 제1영역에 디스플레이 한다. 이에 대해서는 도 20을 참조하여 보다 상세히 후술하도록 하겠다.
또한, 상기 디스플레이부(1507)는, 상기 계산부(1505)에 의해 계산된 거리가 제2거리 범위에 속하는 경우, 상기 오리지널 방송 화면과 독립된 정보를 표시하는 복수개의 아이콘들 중 제1아이콘을, 상기 멀티미디어 디바이스(1500)의 스크린내 제1영역에 디스플레이 하고, 상기 복수의 아이콘들을 하나씩 확인하는 과정에서 필요한 인디케이터를, 상기 멀티미디어 디바이스(1500)의 스크린내 제2영역에 디스플레이 하고, 그리고 상기 터치 센서(1508)에 의해 상기 인디케이터가 선택된 것으로 감지된 경우, 상기 복수개의 아이콘들 중 제2아이콘을, 상기 제1영역에 디스플레이 하도록 설계된다. 이에 대해서는 도 21 및 도 22를 참조하여 보다 상세히 후술하도록 하겠다.
전술하여 설명한 상기 제1아이콘, 상기 제2아이콘 및 상기 인디케이터는 상기 터치 센서(1508)에 의해 감지될 수 있는 형태로 설계되어 있다.
그리고, 상기 이미지 센서(1510)는 예컨대 depth camera에 대응하고, 상기 depth camera 는 상기 멀티미디어 디바이스(1500)에 임베디드 되어 있거나 또는 도 15에 도시된 바와 같이 별도의 모듈로 설계되어 있다.
도 16은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가, 제1거리 범위에 위치한 사용자를 디텍트 하는 과정을 도시한 도면이다. 그리고, 도 17은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가, 제2거리 범위에 위치한 사용자를 디텍트 하는 과정을 도시한 도면이다. 전술하여 설명한 도 10 내지 도 13, 그리고 도 16 및 도 17을 참조하여, 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가 이미지 센서를 이용하여 유저와의 거리를 계산하는 방법을 설명하면 다음과 같다.
도 16에 도시된 바와 같이, 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스(1600)는 이미지 센서(1610)를 이용하여 상기 멀티미디어 디바이스(1600)를 사용 중인 유저를 촬영한다. 특히, 상기 이미지 센서(1610)는, 예를 들어 도 10 내지 도 13에서 전술하여 설명한 depth camera 에 해당하며, 상기 depth camera 를 이용하여 상기 멀티미디어 디바이스(1600) 및 유저간 거리를 추정할 수가 있다. 도 16에서는 유저와 상기 멀티미디어 디바이스(1600)가 약 3m 이격되어 있는 것으로 도시하였으며, 이 경우 일반적으로 상기 유저가 상기 멀티미디어 디바이스(1600)의 화면을 직접 손의 터치로 제어한다는 것은 불가능하므로, 상기 멀티미디어 디바이스(1600)의 터치 센서와 관련된 모듈들이 동작하지 않도록 설계한다.
반면, 도 17에서는 이미지 센서(1710)의 촬영으로 멀티미디어 디바이스(1700)와 유저가 약 1m 이격되어 있는 것으로 가정하였다. 이는 상기 유저가 상기 멀티미디어 디바이스에 근접하여 상기 멀티미디어 디바이스(1700)의 화면을 직접 손의 터치로 제어할 것으로 추정할 수가 있다. 따라서, 상기 멀티미디어 디바이스(1700)의 터치 센서와 관련된 모듈을이 동작하도록 설계한다.
도 18은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가, 도 16 및 도 17의 거리범위를 결정하는 기준에 대한 정보를 저장하고 있는 데이터베이스를 도시한 도면이다. 이하, 도 18을 참조(도 16 및 도 17 보조 참조)하여, 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 터치 센서를 구동하는 거리적 기준을 설명하면 다음과 같다.
유저가 멀티미디어 디바이스의 스크린을 손으로 터치 가능한 거리를 기준으로 제1거리 범위 및 제2거리 범위를 나눌 수가 있다. 도 18에 도시된 바와 같이, 옵션1에 의하면, 제1거리 범위는 1m 이상인 케이스이고 제2거리 범위는 1m 미만인 케이스이다. 그리고, 옵션 2에 의하면, 제1거리 범위는 0.5m 이상인 케이스이고 제2거리 범위는 0.5m 미만인 케이스 이다. 전술한 도 16 및 도 17은 도 18의 옵션 1에 따라 설계된 경우를 가정하였다. 따라서, 제1거리 범위에 유저가 위치하는 경우에는 일반적인 방송 데이터만을 출력하도록 설계되지만, 제2거리 범위에 유저가 위치하는 경우에는 터치 센서 및 다양한 유저 인터페이스를 제공하도록 설계된다. 이에 대해서는, 이하 도면에서 상세히 설명하도록 하겠다.
한편, 도 18에서는 거리적 기준만을 예시하였으나, 시간적 기준도 고려할 수가 있다. 즉, 사용자가 아주 잠시 멀티미디어 디바이스에 머문 경우까지 터치 센서를 반드시 구동시킬 필요는 없다고 추정할 수가 있다. 따라서, 도 18에서 예시한 거리적 기준 뿐만 아니라, 시간적 기준(예를 들어, 0.5초 또는 1초 등)까지 만족시키는 것으로 터치 센서의 구동 여부를 결정하는 것이 본 발명의 또 다른 일실시예이다.
도 19는 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 사용자의 위치에 따라 변경된 유저 인터페이스를 제공하는 제1실시예를 도시한 도면이다. 이하, 도 19를 참조하여, 유저가 멀티미디어 디바이스에 근접한 경우 새로운 UI 를 제공하는 과정을 설명하면 다음과 같다. 특히, 도 18에 도시된 데이터베이스에서 옵션 1에 따라 설계된 것으로 가정하나, 이는 일실시예이며 본 발명의 권리범위는 원칙적으로 특허청구범위에 의해 정해져야 한다.
도 19의 (a)에 도시된 바와 같이, 이미지 센서(1910)의 동작으로 유저(1920)가 상기 멀티미디어 디바이스(1900)로부터 약 3m 이격되어 있는 것으로 판단되면, 상기 멀티미디어 디바이스(1900)는 일반적인 방송 화면을 출력한다.
그러나, 도 19의 (b)에 도시된 바와 같이, 이미지 센서(1911)의 동작으로 유저(1921)가 상기 멀티미디어 디바이스(1901)로부터 약 1m 이내에 위치하는 것으로 판단되면, 상기 멀티미디어 디바이스(1901)는 일반적인 방송 화면과 함께, 부가 데이터(1931)를 출력한다. 상기 부가 데이터(1931)는, 예를 들어 상기 유저(1921)가 손 터치로 선택 가능한 아이콘 형태가 될 수도 있다. 따라서, 사용자의 입장에서는 멀티미디어 디바이스와 자신과의 거리에 따라 전혀 다른 유저 인터페이스를 경험할 수 있는 장점이 있다. 또한, 상기 부가 데이터(1931)는, 보다 구체적으로 예를 들면, 광고, 방송 프로그램 정보 등이 될 수도 있는데, 이에 대해서는 도 20 내지 도 22를 참조하여 보다 상세히 후술하도록 하겠다.
도 20은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 사용자의 위치에 따라 변경된 유저 인터페이스를 제공하는 제2실시예를 도시한 도면이다. 이하, 도 20을 참조하여, 유저가 멀티미디어 디바이스에 근접한 경우 새로운 UI 를 제공하는 보다 구체적인 과정을 설명하면 다음과 같다. 특히, 도 18에 도시된 데이터베이스에서 옵션 1에 따라 설계된 것으로 가정하나, 이는 일실시예이며 본 발명의 권리범위는 원칙적으로 특허청구범위에 의해 정해져야 한다.
도 20의 (a)에 도시된 바와 같이, 이미지 센서(2010)의 동작으로 유저(2020)가 상기 멀티미디어 디바이스(2000)로부터 약 3m 이격되어 있는 것으로 판단되면, 상기 멀티미디어 디바이스(2000)는 일반적인 방송 화면을 출력한다.
그러나, 도 20의 (b)에 도시된 바와 같이, 이미지 센서(2011)의 동작으로 유저(2021)가 상기 멀티미디어 디바이스(2001)로부터 약 1m 이내에 위치하는 것으로 판단되면, 상기 멀티미디어 디바이스(2001)는 일반적인 방송 화면과 함께, 방송 프로그램 정보(2031)를 출력한다. 상기 방송 프로그램 정보(2031)는, 현재 출력 중인 방송 프로그램과 관련되어 있으며, 상기 방송 프로그램 정보(2031)는 유저(2021)의 손으로 직접 터치 가능한 아이콘 형태로 설계된다. 따라서, 상기 방송 프로그램 정보(2031)가 유저(2021)에 의해 선택되면, 보다 상세 정보가 디스플레이 된다. 예를 들어, 관련 URL 로 접속되도록 설계된다.
도 21은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 사용자의 위치에 따라 변경된 유저 인터페이스를 제공하는 제3실시예를 도시한 도면이다. 이하, 도 21을 참조하여, 유저가 멀티미디어 디바이스에 근접한 경우 새로운 UI 를 제공하는 보다 구체적인 과정을 설명하면 다음과 같다. 특히, 도 18에 도시된 데이터베이스에서 옵션 1에 따라 설계된 것으로 가정하나, 이는 일실시예이며 본 발명의 권리범위는 원칙적으로 특허청구범위에 의해 정해져야 한다.
도 21의 (a)에 도시된 바와 같이, 이미지 센서(2110)의 동작으로 유저(2120)가 상기 멀티미디어 디바이스(2100)로부터 약 3m 이격되어 있는 것으로 판단되면, 상기 멀티미디어 디바이스(2100)는 일반적인 방송 화면을 출력한다.
그러나, 도 21의 (b)에 도시된 바와 같이, 이미지 센서(2111)의 동작으로 유저(2121)가 상기 멀티미디어 디바이스(2101)로부터 약 1m 이내에 위치하는 것으로 판단되면, 상기 멀티미디어 디바이스(2101)는 일반적인 방송 화면과 함께, 현재 출력중인 방송과 관련성이 없는 광고 정보(2131)을 제1영역에 디스플레이 한다. 나아가, 상기 멀티미디어 디바이스(2101)는 상기 제1영역에 디스플레이된 광고 정보(2131)를 페이지업 또는 다운할 수 있는 인디케이터(2141)를 제2영역에 디스플레이 한다. 상기 광고 정보(2131) 및 인디케이터(2141)는 모두 유저(2121)의 손으로 직접 터치 가능한 아이콘 형태로 설계된다. 따라서, 상기 광고 정보(2131))가 유저(2121)에 의해 선택되면, 보다 상세한 광고 정보가 디스플레이 된다. 예를 들어, 관련 URL 로 접속되도록 설계된다. 나아가, 상기 인디케이터(2141)가 유저(2121)에 의해 선택되면, 넥스트(next) 광고 정보 또는 이전 광고 정보가 상기 제1영역에 디스플레이 된다. 이에 대해서는 도 22를 참조하여 보다 상세히 설명하도록 하겠다.
도 22는 도 21에 도시된 디스플레이 화면의 넥스트 디스플레이 화면을 도시한 도면이다. 이하, 도 22를 참조하여, 다음 광고를 확인하기 위한 특정 인디케이터가 선택된 경우, 변경된 디스플레이 화면을 설명하면 다음과 같다.
도 22의 (a)에 도시된 바와 같이, 이미지 센서(2210)의 동작으로 유저(2220)가 상기 멀티미디어 디바이스(2200)로부터 약 1m 이내에 위치하는 것으로 판단되면, 상기 멀티미디어 디바이스(2200)는 일반적인 방송 화면과 함께, 현재 출력중인 방송과 관련성이 없는 광고 정보(2230)을 제1영역에 디스플레이 한다. 나아가, 상기 멀티미디어 디바이스(2200)는 상기 제1영역에 디스플레이된 광고 정보(2230)를 페이지업 또는 다운할 수 있는 인디케이터(2240)를 제2영역에 디스플레이 한다. 도 22의 (a)는 전술한 도 21의 (b)와 거의 동일하다. 다만, 도 22의 (a)에서는 유저(2220)가 상기 인디케이터(2240)를 손으로 터치하는 모습을 추가 도시하였다.
즉, 유저가 상기 제2영역에 디스플레이된 인디케이터를 손으로 터치한 경우, 도 22의 (b)에 도시된 바와 같이, 멀티미디어 디바이스(2201)는 도 22의 (a)에 도시된 제1영역에 넥스트 광고 정보(2231)를 디스플레이 한다. 그리고, 도 22의 (a)에 도시된 제2영역에는 동일한 인디케이터(2241)가 디스플레이 된다. 나아가, 이미지 센서(2211)의 디텍트 결과, 유저(2221)와 멀티미디어 디바이스(2201)간 거리는 계속 1m 이내로 유지되고 있음을 가정하였다.
그러나, 유저(2221)가 상기 멀티미디어 디바이스(2201)로부터 1m 이상 이격되어 진다면, 일반 방송 화면으로 복귀하고 전술하여 설명한 터치 센서로 감지될 수 있는 아이콘은 모두 사라지도록 설계한다.
도 23은 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 사용자의 위치에 따라 변경된 오디오 볼륨을 제공하는 과정을 도시한 도면이다. 이하, 도 23을 참조하여, 유저가 멀티미디어 디바이스에 근접한 경우 오디오 볼륨 상태를 자동으로 조정하는 과정을 설명하면 다음과 같다. 특히, 도 18에 도시된 데이터베이스에서 옵션 1에 따라 설계된 것으로 가정하나, 이는 일실시예이며 본 발명의 권리범위는 원칙적으로 특허청구범위에 의해 정해져야 한다.
도 23의 (a)에 도시된 바와 같이, 이미지 센서(2310)의 동작으로 유저(2320)가 상기 멀티미디어 디바이스(2300)로부터 약 3m 이격되어 있는 것으로 판단되면, 상기 멀티미디어 디바이스(2300)는 현재 설정된 오디오 볼륨 상태를 유지하도록 설계된다.
그러나, 도 23의 (b)에 도시된 바와 같이, 이미지 센서(2311)의 동작으로 유저(2321)가 상기 멀티미디어 디바이스(2301)로부터 약 1m 이내에 위치하는 것으로 판단되면, 상기 멀티미디어 디바이스(2301)는 현재 설정된 오디오 볼륨 상태 보다 낮은 오디오 볼륨 상태로 자동 변경하도록 설계된다. 이는 유저와 멀티미디어 디바이스간 거리에 따라 비율을 조정하는 방식이 될 수도 있고, 기설정된 셋팅값을 사용할 수도 있으며, 또는 유저가 직접 근거리에서의 오디오 볼륨값을 지정해 둘 수도 있다.
따라서, 유저는 멀티미디어 디바이스에 가까이 근접하여도 오디오 볼륨을 수동으로 조정할 필요가 없어서, 사용자의 편의성을 대폭 제고하는 장점이 있다. 즉, 이와 같이 설계하는 경우, 불필요하게 유저의 청각을 자극하는 것을 미리 방지할 수 있는 효과가 있다.
도 24는 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스가 사용자의 위치에 따라 변경된 디스플레이 밝기를 제공하는 과정을 도시한 도면이다. 이하, 도 24를 참조하여, 유저가 멀티미디어 디바이스에 근접한 경우 디스플레이 밝기(brightness) 상태를 자동으로 조정하는 과정을 설명하면 다음과 같다. 특히, 도 18에 도시된 데이터베이스에서 옵션 1에 따라 설계된 것으로 가정하나, 이는 일실시예이며 본 발명의 권리범위는 원칙적으로 특허청구범위에 의해 정해져야 한다.
도 24의 (a)에 도시된 바와 같이, 이미지 센서(2410)의 동작으로 유저(2420)가 상기 멀티미디어 디바이스(2400)로부터 약 3m 이격되어 있는 것으로 판단되면, 상기 멀티미디어 디바이스(2400)는 현재 설정된 디스플레이 밝기 상태(2430)를 유지하도록 설계된다.
그러나, 도 24의 (b)에 도시된 바와 같이, 이미지 센서(2411)의 동작으로 유저(2421)가 상기 멀티미디어 디바이스(2401)로부터 약 1m 이내에 위치하는 것으로 판단되면, 상기 멀티미디어 디바이스(2401)는 현재 설정된 디스플레이 밝기 상태 보다 낮은 디스플레이 밝기 상태(2431)로 자동 변경하도록 설계된다. 이는 유저와 멀티미디어 디바이스간 거리에 따라 비율을 조정하는 방식이 될 수도 있고, 기설정된 셋팅값을 사용할 수도 있으며, 또는 유저가 직접 근거리에서의 디스플레이 밝기를 지정해 둘 수도 있다.
따라서, 유저는 멀티미디어 디바이스에 가까이 근접하여도 디스플레이 밝기를 수동으로 조정할 필요가 없어서, 사용자의 편의성을 대폭 제고하는 장점이 있다. 즉, 이와 같이 설계하는 경우, 불필요하게 유저의 시각을 자극하는 것을 미리 방지할 수 있는 효과가 있다.
도 25는 본 발명의 다른 일실시예에 따른 멀티미디어 디바이스의 제어 방법을 도시한 플로우 차트이다. 이하, 도 25를 참조하여, 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스의 제어 방법을 순차적으로 설명하면 다음과 같다.
이미지 센서를 이용하는 멀티미디어 디바이스는, 이미지 센서를 이용하여 멀티미디어 디바이스를 사용중인 유저를 디텍트 한다(S2510). 또한, 상기 디텍트된 유저에 대한 depth data 를 추출하고(S2520), 상기 추출된 depth data 에 따라, 상기 유저와 상기 멀티미디어 디바이스간 거리를 계산한다(S2530).
그리고, 상기 계산된 거리가 제1거리 범위에 속하는 경우, 오리지널 방송 화면을 그대로 디스플레이 하고(S2540), 상기 계산된 거리가 제2거리 범위에 속하는 경우, 터치 기반의 아이콘을 이미지 프로세싱 하고 상기 이미지 프로세싱된 터치 기반의 아이콘과 상기 오리지널 방송 화면을 디스플레이 한다(S2550).
다만, 도 25에 도시된 방법 발명은, 이전 물건 발명에 대한 설명(도 1 내지 도 24)을 참조하여, 보충적으로 해석할 수도 있다.
도 26은 본 발명의 또 다른 일실시예에 따른 멀티미디어 디바이스의 제어 방법을 도시한 플로우 차트이다. 이하, 도 26을 참조하여, 본 발명의 또 다른 일실시예에 의한 멀티미디어 디바이스의 제어 방법을 순차적으로 설명하면 다음과 같다. 특히, 도 26에 도시된 S2610 단계 내지 S2640 단계는, 예를 들어 도 25에 도시된 S2530 단계 및 S2540 단계 사이에 위치하도록 설계된다.
도 26에 도시된 바와 같이, 본 발명의 또 다른 일실시예에 의한 제어 방법은, 도 25에서 설명된 제1거리 범위 및 제2거리 범위를 저장하고 있는 메모리에 액세스 한다(S2610). 나아가, 상기 계산된 거리가 상기 제1거리 범위 또는 상기 제2거리 범위에 속하는지 여부를 판단한다(S2620).
그리고, 상기 계산된 거리가 상기 제1거리 범위에 속하는 경우, 상기 멀티미디어 디바이스의 터치 센서를 디스에이블(disable) 시키고(S2630), 상기 계산된 거리가 상기 제2거리 범위에 속하는 경우, 상기 멀티미디어 디바이스의 터치 센서를 인에이블(enable) 시킨다(S2640).
나아가, 상기 S2640 단계는, 예를 들어 상기 계산된 거리가 상기 제2거리 범위에 속하는 경우, 상기 멀티미디어 디바이스의 디스플레이 밝기(brightness)를 기설정된 제1셋팅값으로 조정하는 단계 및 상기 멀티미디어 디바이스의 오디오 볼륨을 기설정된 제2셋팅값으로 조정하는 단계를 더 포함한다.
한편, 도 25에 도시된 S2550 단계는, 예를 들어 상기 오리지널 방송 화면과 괸련된 정보를 수신하는 단계 및 상기 수신된 정보를 표시하는 아이콘을, 상기 멀티미디어 디바이스의 스크린내 제1영역에 디스플레이 하는 단계(상기 아이콘은 터치 센서에 의해 감지될 수 있는 형태로 되어 있음)를 포함한다.
그리고, 도 25에 도시된 S2550 단계는, 예를 들어 상기 오리지널 방송 화면과 독립된 정보를 표시하는 복수개의 아이콘들 중 제1아이콘을, 상기 멀티미디어 디바이스의 스크린내 제1영역에 디스플레이 하는 단계(상기 제1아이콘은 터치 센서에 의해 감지될 수 있는 형태로 되어 있음)와, 상기 복수의 아이콘들을 하나씩 확인하는 과정에서 필요한 인디케이터를, 상기 멀티미디어 디바이스의 스크린내 제2영역에 디스플레이 하는 단계(상기 인디케이터는 터치 센서에 의해 감지될 수 있는 형태로 되어 있음)와, 그리고 상기 터치 센서에 의해 상기 인디케이터가 선택된 것으로 감지된 경우, 상기 복수개의 아이콘들 중 제2아이콘을, 상기 제1영역에 디스플레이 하는 단계(상기 제2아이콘은 터치 센서에 의해 감지될 수 있는 형태로 되어 있음)를 포함한다.
또한, 설명의 편의상 도 1 내지 도 26의 각 도면들을 나누어 설명하였으나, 당업자의 필요에 따라 각 도면을 결합하여 별도의 실시예를 구현하는 것도 본 발명의 권리범위에 속한다.
따라서, 이와 같이 설계된 본 발명의 일실시예들에 의하면, 멀티미디어 디바이스와 유저간 거리를 계산하여 터치 센서가 설치된 멀티미디어 디바이스의 소비 전력을 대폭 감소할 수 있는 효과가 있다.
나아가, 멀티미디어 디바이스와 유저간 거리를 계산하여 멀티미디어 디바이스와 관련된 컨텐츠의 유저 인터페이스를 임의로 자동 변경함으로써, 사용자의 편의성 및 액세스 속도를 제고할 수 있는 장점이 있다.
그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양발명의 설명은 보충적으로 적용될 수가 있다.
본 발명에 따른 방법 발명은 모두 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
1500 : 멀티미디어 디바이스
1509 : 인터페이스
1510 : 이미지 센서
1520 : 방송 네트워크

Claims (13)

  1. 이미지 센서를 이용하는 멀티미디어 디바이스의 제어 방법에 있어서,
    상기 이미지 센서를 이용하여 상기 멀티미디어 디바이스를 사용중인 유저를 디텍트하는 단계;
    상기 디텍트된 유저에 대한 depth data 를 추출하는 단계;
    상기 추출된 depth data 에 따라, 상기 유저와 상기 멀티미디어 디바이스간 거리를 계산하는 단계;
    상기 계산된 거리가 제1거리 범위에 속하는 경우, 오리지널 방송 화면을 그대로 디스플레이 하는 단계; 그리고
    상기 계산된 거리가 제2거리 범위에 속하는 경우, 터치 기반의 아이콘을 이미지 프로세싱 하고 상기 이미지 프로세싱된 터치 기반의 아이콘과 상기 오리지널 방송 화면을 디스플레이 하는 단계
    를 포함하는 이미지 센서를 이용하는 멀티미디어 디바이스의 제어 방법.
  2. 제1항에 있어서,
    상기 제1거리 범위 및 상기 제2거리 범위를 저장하고 있는 메모리에 액세스 하는 단계;
    상기 계산된 거리가 상기 제1거리 범위 또는 상기 제2거리 범위에 속하는지 여부를 판단하는 단계;
    상기 계산된 거리가 상기 제1거리 범위에 속하는 경우, 상기 멀티미디어 디바이스의 터치 센서를 디스에이블(disable) 시키는 단계; 그리고
    상기 계산된 거리가 상기 제2거리 범위에 속하는 경우, 상기 멀티미디어 디바이스의 터치 센서를 인에이블(enable) 시키는 단계
    를 더 포함하는 이미지 센서를 이용하는 멀티미디어 디바이스의 제어 방법.
  3. 제2항에 있어서,
    상기 계산된 거리가 상기 제2거리 범위에 속하는 경우,
    상기 멀티미디어 디바이스의 디스플레이 밝기(brightness)를 기설정된 제1셋팅값으로 조정하는 단계; 그리고
    상기 멀티미디어 디바이스의 오디오 볼륨을 기설정된 제2셋팅값으로 조정하는 단계
    를 더 포함하는 이미지 센서를 이용하는 멀티미디어 디바이스의 제어 방법.
  4. 제1항에 있어서,
    상기 계산된 거리가 제2거리 범위에 속하는 경우, 터치 기반의 아이콘을 이미지 프로세싱 하고 상기 이미지 프로세싱된 터치 기반의 아이콘과 상기 오리지널 방송 화면을 디스플레이 하는 상기 단계는,
    상기 오리지널 방송 화면과 괸련된 정보를 수신하는 단계; 그리고
    상기 수신된 정보를 표시하는 아이콘을, 상기 멀티미디어 디바이스의 스크린내 제1영역에 디스플레이 하는 단계-상기 아이콘은 터치 센서에 의해 감지될 수 있는 형태로 되어 있음-
    를 포함하는 이미지 센서를 이용하는 멀티미디어 디바이스의 제어 방법.
  5. 제1항에 있어서,
    상기 계산된 거리가 제2거리 범위에 속하는 경우, 터치 기반의 아이콘을 이미지 프로세싱 하고 상기 이미지 프로세싱된 터치 기반의 아이콘과 상기 오리지널 방송 화면을 디스플레이 하는 상기 단계는,
    상기 오리지널 방송 화면과 독립된 정보를 표시하는 복수개의 아이콘들 중 제1아이콘을, 상기 멀티미디어 디바이스의 스크린내 제1영역에 디스플레이 하는 단계-상기 제1아이콘은 터치 센서에 의해 감지될 수 있는 형태로 되어 있음-;
    상기 복수의 아이콘들을 하나씩 확인하는 과정에서 필요한 인디케이터를, 상기 멀티미디어 디바이스의 스크린내 제2영역에 디스플레이 하는 단계-상기 인디케이터는 터치 센서에 의해 감지될 수 있는 형태로 되어 있음-; 그리고
    상기 터치 센서에 의해 상기 인디케이터가 선택된 것으로 감지된 경우, 상기 복수개의 아이콘들 중 제2아이콘을, 상기 제1영역에 디스플레이 하는 단계-상기 제2아이콘은 터치 센서에 의해 감지될 수 있는 형태로 되어 있음-
    를 포함하는 이미지 센서를 이용하는 멀티미디어 디바이스의 제어 방법.
  6. 제1항에 있어서,
    상기 이미지 센서는 depth camera에 대응하는 이미지 센서를 이용하는 멀티미디어 디바이스의 제어 방법.
  7. 이미지 센서를 이용하는 멀티미디어 디바이스에 있어서,
    상기 멀티미디어 디바이스를 사용중인 유저를 디텍트하는 이미지 센서;
    상기 디텍트된 유저에 대한 depth data 를 추출하는 추출부;
    상기 추출된 depth data 에 따라, 상기 유저와 상기 멀티미디어 디바이스간 거리를 계산하는 계산부;
    상기 계산된 거리가 제1거리 범위에 속하는 경우 오리지널 방송 화면을 그대로 디스플레이 하고, 그리고 상기 계산된 거리가 제2거리 범위에 속하는 경우 터치 기반의 아이콘을 이미지 프로세싱 하고 상기 이미지 프로세싱된 터치 기반의 아이콘과 상기 오리지널 방송 화면을 디스플레이 하는 디스플레이부; 그리고
    상기 디스플레이된 아이콘을 선택 가능한 터치 센서
    를 포함하는 이미지 센서를 이용하는 멀티미디어 디바이스.
  8. 제7항에 있어서,
    상기 제1거리 범위 및 상기 제2거리 범위를 저장하고 있는 메모리;
    상기 메모리에 액세스하여, 상기 계산된 거리가 상기 제1거리 범위 또는 상기 제2거리 범위에 속하는지 여부를 판단하는 판단부; 그리고
    상기 계산된 거리가 상기 제1거리 범위에 속하는 경우, 상기 멀티미디어 디바이스의 터치 센서를 디스에이블(disable) 시키고, 상기 계산된 거리가 상기 제2거리 범위에 속하는 경우, 상기 멀티미디어 디바이스의 터치 센서를 인에이블(enable) 시키는 제어부
    를 더 포함하는 이미지 센서를 이용하는 멀티미디어 디바이스.
  9. 제8항에 있어서,
    상기 제어부는,
    상기 계산된 거리가 상기 제2거리 범위에 속하는 경우,
    상기 멀티미디어 디바이스의 디스플레이 밝기(brightness)를 기설정된 제1셋팅값으로 조정하고, 그리고 상기 멀티미디어 디바이스의 오디오 볼륨을 기설정된 제2셋팅값으로 조정하는 이미지 센서를 이용하는 멀티미디어 디바이스.
  10. 제7항에 있어서,
    상기 디스플레이부는,
    상기 계산된 거리가 제2거리 범위에 속하는 경우,
    상기 오리지널 방송 화면과 괸련된 정보를 표시하는 아이콘을, 상기 멀티미디어 디바이스의 스크린내 제1영역에 디스플레이 하는 이미지 센서를 이용하는 멀티미디어 디바이스.
  11. 제7항에 있어서,
    상기 디스플레이부는,
    상기 계산된 거리가 제2거리 범위에 속하는 경우,
    상기 오리지널 방송 화면과 독립된 정보를 표시하는 복수개의 아이콘들 중 제1아이콘을, 상기 멀티미디어 디바이스의 스크린내 제1영역에 디스플레이 하고,
    상기 복수의 아이콘들을 하나씩 확인하는 과정에서 필요한 인디케이터를, 상기 멀티미디어 디바이스의 스크린내 제2영역에 디스플레이 하고, 그리고
    상기 터치 센서에 의해 상기 인디케이터가 선택된 것으로 감지된 경우, 상기 복수개의 아이콘들 중 제2아이콘을, 상기 제1영역에 디스플레이 하는
    이미지 센서를 이용하는 멀티미디어 디바이스.
  12. 제11항에 있어서,
    상기 제1아이콘, 상기 제2아이콘 및 상기 인디케이터는 터치 센서에 의해 감지될 수 있는 형태로 되어 있는 이미지 센서를 이용하는 멀티미디어 디바이스.
  13. 제7항에 있어서,
    상기 이미지 센서는 depth camera에 대응하고, 상기 depth camera 는 상기 멀티미디어 디바이스에 임베디드 되어 있거나 또는 별도의 모듈로 설계되어 있는 이미지 센서를 이용하는 멀티미디어 디바이스.
KR1020100136338A 2010-12-28 2010-12-28 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법 KR20120074484A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100136338A KR20120074484A (ko) 2010-12-28 2010-12-28 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100136338A KR20120074484A (ko) 2010-12-28 2010-12-28 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20120074484A true KR20120074484A (ko) 2012-07-06

Family

ID=46708596

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100136338A KR20120074484A (ko) 2010-12-28 2010-12-28 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR20120074484A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160090843A (ko) * 2013-11-25 2016-08-01 퀄컴 인코포레이티드 모바일 디바이스 상에서의 깊이 센서의 전력 효율적인 사용
KR20170091914A (ko) * 2016-02-02 2017-08-10 삼성전자주식회사 출력 장치를 제어하는 방법 및 장치
KR20210121772A (ko) * 2020-03-31 2021-10-08 엘지전자 주식회사 디스플레이 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160090843A (ko) * 2013-11-25 2016-08-01 퀄컴 인코포레이티드 모바일 디바이스 상에서의 깊이 센서의 전력 효율적인 사용
KR20170091914A (ko) * 2016-02-02 2017-08-10 삼성전자주식회사 출력 장치를 제어하는 방법 및 장치
KR20210121772A (ko) * 2020-03-31 2021-10-08 엘지전자 주식회사 디스플레이 장치

Similar Documents

Publication Publication Date Title
US9025023B2 (en) Method for processing image data in television having multiple image sensors and the television for controlling the same
US8577092B2 (en) Multimedia device, multiple image sensors having different types and method for controlling the same
KR101731346B1 (ko) 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치
EP2453384B1 (en) Method and apparatus for performing gesture recognition using object in multimedia device
KR20120051212A (ko) 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치
US11720179B1 (en) System and method for redirecting content based on gestures
KR101772456B1 (ko) 멀티미디어 장치와 복수 개의 이종 이미지 센서 그리고 그 제어방법
KR101758271B1 (ko) 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치
KR20150112708A (ko) 디스플레이 장치 및 그의 동작 방법
KR101819499B1 (ko) 멀티미디어 장치와 복수 개의 이종 이미지 센서 그리고 그 제어방법
US20120268424A1 (en) Method and apparatus for recognizing gesture of image display device
KR101741550B1 (ko) 멀티미디어 장치에서 빔포밍을 이용한 최적 시청환경 제공 방법 및 장치
KR20120074484A (ko) 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법
CN111556350B (zh) 一种智能终端及人机交互方法
KR20120050614A (ko) 멀티미디어 장치와 복수 개의 이종 이미지 센서 그리고 그 제어방법
KR101629324B1 (ko) 멀티미디어 장치와 복수 개의 이종 이미지 센서 그리고 그 제어방법
KR101759936B1 (ko) 복수개의 이종 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법
KR20120051213A (ko) 멀티미디어 장치의 영상촬영방법 및 그에 따른 멀티미디어 장치
KR102224489B1 (ko) 디지털 디바이스 및 그의 3차원 영상 처리 방법
KR102574730B1 (ko) Ar 글라스를 이용한 증강 현실 화면 및 리모컨 제공 방법 및 그를 위한 장치 및 시스템
KR20220164222A (ko) 전자장치 및 그 제어방법
CN115842957A (zh) 显示设备、显示设备的控制方法
KR20150064597A (ko) 디스플레이 장치 및 그의 동작 방법
KR20130076976A (ko) 방송 수신 장치 및 그 제어 방법

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination