KR101585466B1 - Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same - Google Patents

Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same Download PDF

Info

Publication number
KR101585466B1
KR101585466B1 KR1020090048289A KR20090048289A KR101585466B1 KR 101585466 B1 KR101585466 B1 KR 101585466B1 KR 1020090048289 A KR1020090048289 A KR 1020090048289A KR 20090048289 A KR20090048289 A KR 20090048289A KR 101585466 B1 KR101585466 B1 KR 101585466B1
Authority
KR
South Korea
Prior art keywords
point
reference point
image
user
display
Prior art date
Application number
KR1020090048289A
Other languages
Korean (ko)
Other versions
KR20100129629A (en
Inventor
김태환
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090048289A priority Critical patent/KR101585466B1/en
Publication of KR20100129629A publication Critical patent/KR20100129629A/en
Application granted granted Critical
Publication of KR101585466B1 publication Critical patent/KR101585466B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N2007/243Bitstream control arrangements

Abstract

사용자의 동작을 추적하면서 신속하고 정확하며 안정되게 사용자가 포인팅하고자 의도하는 화면상의 지점을 추정할 수 있고, 이를 통해 사용자가 효과적으로 그리고 편리하게 전자장치의 기능을 조정할 수 있게 해주는 전자장치 동작 제어방법과, 이를 채용하여 사용자가 효과적으로 그리고 편리하게 기능을 조정할 수 있는 전자장치. 본 발명의 동작 제어방법은 디스플레이 표시면과 이미지센서를 구비하는 전자장치에서 구현되며, 사용자가 상기 전자장치에 접촉하지 않는 상태로 전자장치를 조작할 수 있도록 해준다. 바람직한 실시예에 따르면, 먼저 이미지센서를 사용하여 디스플레이 표시면 전방을 촬상한다. 촬상한 이미지에서 사용자의 집게손가락 끝점과, 미간 중심점의 위치를 결정한다. 이어서, 상기 미간 중심점과 집게손가락 끝점을 연결하는 가상의 직선이 표시면과 만나는 점을 사용자가 포인팅하고자 하는 지점으로 추정하고, 추정된 포인팅 지점에 포인터를 표시하게 된다. 전자장치 사용자가 전자장치를 직접 접촉하거나 리모콘을 사용하지 않고서도 마치 터치패널을 사용하는 것과 같이 정확하고 안정되게 화면상의 메뉴를 포인팅할 수 있게 되고, 전자장치의 편의성이 크게 높아지는 효과가 있다.An electronic device operation control method that enables a user to estimate a point on a screen intended to be pointed by a user quickly, accurately, and stably while tracing a user's operation, thereby enabling a user to effectively and conveniently adjust functions of the electronic device; , Which employs it to enable a user to adjust functions effectively and conveniently. The operation control method of the present invention is implemented in an electronic device having a display screen and an image sensor, and allows a user to operate the electronic device without touching the electronic device. According to a preferred embodiment, first, an image is captured in front of the display screen using an image sensor. And determines the position of the user's forefinger end point and the near center point in the captured image. Then, a point at which a virtual straight line connecting the center point of the forehead and the forefinger end meets the display surface is estimated as a point at which the user wants to point, and a pointer is displayed at the estimated pointing point. The user of the electronic device can accurately and stably point the menu on the screen just like using the touch panel without touching the electronic device directly or using the remote controller, and the convenience of the electronic device is greatly increased.

텔레비전, 유저 인터페이스, UI, 터치스크린, 포인팅, 카메라, 이미지센서 Television, user interface, UI, touch screen, pointing, camera, image sensor

Description

움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치{Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a method for controlling an operation of an electronic device by motion detection,

본 발명은 전자장치 및 그 동작제어 방법에 관한 것으로서, 특히, 사용자의 형상이나 움직임을 검출하고 이로부터 사용자가 의도하는 조작명령을 추정하여 동작하는 전자장치와, 이와 같은 전자장치의 동작제어 방법에 관한 것이다.More particularly, the present invention relates to an electronic device that detects a shape or motion of a user and estimates an operation command intended by a user from the detected electronic device, and a method of controlling an operation of such an electronic device .

통신기술과 부품기술의 발전에 힘입어, 텔레비전은 화면의 풀칼라화, 디지털 전송방식의 채택, 전송채널의 다양화, 화면의 대형화 등 여러 측면에서 큰 발전을 거듭해왔다. 그렇지만, 방송신호 전송과 화상 재생 등 본질적 기능에 있어서의 비약적 발전에도 불구하고, 사용자인터페이스 그중에서도 조작 방식에 있어서는 발전이 매우 더딘 것이 현실이다. 즉, 텔레비전 사용자는 20~30년전과 마찬가지로 수신기 외면에 마련된 버튼을 누르거나 또는 리모콘을 조작하여야만 텔레비전 기능을 조정할 수 있다. 이에 따라, 리모콘을 찾을 수 없거나 리모콘의 건전지가 방전된 경우에는, 텔레비전 본체로 이동하여 버튼조작을 하여야만 하게 되는데, 텔레비전 설치장소가 넓은 경우에는 이 작업이 여간 번거로운 것이 아니다.Thanks to the development of communication technology and component technology, television has made great progress in various aspects such as full color screen, adoption of digital transmission method, diversification of transmission channel, and enlargement of screen. However, in spite of the breakthrough in essential functions such as broadcast signal transmission and image reproduction, it is a reality that the operation method of the user interface is very slow to develop. That is, a television user can adjust the television function only by pressing a button provided on the outside of the receiver or by operating the remote control, as in the case of 20 to 30 years ago. Accordingly, when the remote controller can not be found or the battery of the remote controller is discharged, the user must move to the television main body and perform button operation. However, if the television installation place is wide, this operation is not troublesome.

이러한 문제점을 해소하기 위한 시도를 살펴보면, 공개특허 1997-57020호(발명의 명칭: 음성인식에 의한 텔레비전 제어장치)는 사용자의 음성을 인식하여 선택메뉴용 OSD정보를 화면 표시함과 아울러, 음성에 의해 지정된 선택사항에 상응하는 텔레비젼의 동작이 행해지도록 함으로써, 리모콘을 쉽게 찾을 수 없을 경우에도 사용상의 편리함을 도모할 수 있게 해주는 텔레비전을 제시하고 있다. 그렇지만, 이와 같이 음성인식을 토대로 동작하는 텔레비전은 음성에 의한 지시명령이 어색할 수 있을 뿐만 아니라, 사용자의 통상적인 대화가 텔레비전 동작제어 명령과 혼동될 수 있기 때문에, 사용자로 하여금 조심스러움을 야기하여 불편할 수 있다.In order to solve such a problem, Japanese Laid-Open Patent Publication No. 1997-57020 (name of the invention: television control apparatus based on speech recognition) recognizes the user's voice and displays the OSD information for the selection menu on the screen, So that the convenience of use can be achieved even when the remote controller can not be easily found. However, the television operating on the basis of speech recognition as described above can not only be awkward in instruction commands by voice, but also can cause the user to be careful because the normal conversation of the user can be confused with the television operation control command. .

음성 대신에 사용자의 형상이나 움직임을 검출하고 이로부터 조작명령을 인식하여 동작하게 하려는 시도도 다양하게 이루어진 바 있다.Various attempts have been made to detect the shape or motion of the user instead of the voice, and to recognize and operate the operation command therefrom.

예컨대, 공개특허공보 2003-21988호(발명의 명칭: 영상처리를 이용한 원격 손가락 조종기)에는 텔레비젼 수신기에 부착된 카메라로 사용자의 손을 촬영하여 사용자의 손가락의 패턴을 인식한 후 그 패턴이 시스템 내에 저장되어 있는 특정 기능 수행을 위한 패턴과 일치하는 경우 해당 기능을 수행하는 방식이 기재되어 있다. 또한, 공개특허 2007-103895호(발명의 명칭: 손 제스쳐 인식 시스템 및 방법)는 카메라에 의하여 촬영한 영상 내에서 사용자의 손 제스쳐를 인식하여 손의 방향을 검출함으로써 전자기기의 동작을 조정할 수 있게 해주는 시스템이 기재되어 있다. 그러나, 이와 같은 방식에 따른 텔레비전은 사전에 정의되어있는 몇가지 제스쳐만을 인식할 수 있기 때문에, 사용자가 원하는 특정 기능을 수행하기 위해서는 해당 기능 수행을 위해 미리 지정된 제스쳐 패턴을 미리 학습하여 숙지하여야 하는 번거로움이 있고, 화면상의 특정 지점을 포인팅하는 것은 아예 불가능하다.For example, in Japanese Laid-Open Patent Publication No. 2003-21988 (titled remote finger manipulator using image processing), a user's hand is photographed with a camera attached to a television receiver to recognize a pattern of a user's finger, And a method for performing the corresponding function when the stored pattern matches the pattern for performing the specific function. In addition, Japanese Laid-Open Patent Application No. 2007-103895 (entitled " hand gesture recognition system and method ") discloses a hand gesture recognition system and method that can recognize the hand gesture of a user in an image captured by a camera, System is described. However, since the television according to the above-described method can recognize only some gestures defined in advance, in order to perform a specific function desired by the user, it is troublesome to learn and learn the predetermined gesture pattern in advance in order to perform the function And it is impossible to point to a specific point on the screen.

공개특허공보 2003-37692호(발명의 명칭: 손 지시 인식을 이용한 원격제어 시스템)에는 다수의 카메라에 의하여 사람의 형상을 영상 데이터로 취득하고, 취득된 사람의 형상으로부터 손 형상과, 손의 위치 및 손이 가리키는 방향을 인식하여, 전자기기를 제어하는 시스템이 기재되어 있다. 그렇지만, 이 시스템을 구현하기 위해서는 다수의 카메라를 실내에 설치해야 할 뿐만 아니라, 사용자의 손이 가리키는 방향이 불안정한 경우 손에 의한 포인팅이 실질적으로 어렵다는 문제점이 여전히 있다.Open No. 2003-37692 (a remote control system using hand direction recognition), a person's shape is acquired as image data by a plurality of cameras, and the shape of the hand from the shape of the person obtained and the position of the hand And a direction in which the hand points are indicated, thereby controlling the electronic apparatus. However, in order to implement this system, not only a plurality of cameras need to be installed indoors, but there is still a problem that pointing by hands is substantially difficult when the direction pointed by the user's hand is unstable.

한편, 눈의 위치나 시선을 검출하여 기기를 동작시키는 아이디어들도 제시된 바 있다.On the other hand, ideas for operating the device by detecting the position and the eyes of the eyes are also presented.

예컨대, 공개특허공보 2000-56563호(발명의 명칭: 응시위치 추적시스템)에는 카메라를 통하여 사용자의 얼굴영상을 취득하고, 취득된 디지털 영상신호로부터 사용자의 응시위치를 산출함으로써, 응시위치 정보로 기기를 제어할 수 있도록 하는 시스템이 기재되어 있다. 그렇지만, 이 시스템은 얼굴형상 취득과 응시위치 산출에 컴퓨팅파워 부담이 클 뿐만 아니라, 응시위치 파악이 부정확한 경우 정교한 포인팅이 어려워진다는 문제점이 있을 수 있다.For example, Japanese Unexamined Patent Publication (Kokai) No. 2000-56563 (entitled position registration system) acquires a face image of a user through a camera and calculates a user's gazing position from the obtained digital video signal, And a control unit for controlling the control unit. However, this system has a problem that the computational power burden is great in obtaining the face shape and calculating the gazing position, and it is difficult to precisely point the gaze when the gaze position is incorrect.

공개특허공보 2005-120132호(발명의 명칭: 영상 처리를 이용한 사용자 모션에 의한 원격제어 텔레비젼 및 그 제어 방법)에는 카메라에 의하여 사용자 모션을 검출하고, 사용자 인체의 특정 부위가 미리 지정된 시간 범위 내에 임의의 위치에 미리 지정된 횟수 이상 존재하는 경우 가상 메뉴를 활성화시키되, 사용자의 눈의 위치를 인식하여 사용자 시선이 향하는 곳에 가상 메뉴를 표시하며, 사용자의 손이 일정시간 머무는 메뉴에 대하여 사용자가 선택한 것으로 보고 기능을 실행하는 시스템이 기재되어 있다. 그렇지만, 이 시스템의 경우 촬상된 이미지 내에서 사용자 손의 위치로 사용자가 선택하고자 하는 메뉴를 인식하기 때문에, 텔레비전의 화면이 크고 화면과 사용자의 거리가 가까운 경우 사용자가 손을 움직여야 하는 범위가 과다하고, 더욱이 메뉴 선택을 위하여 일정 시간동안 손을 고정상태로 유지해야 하기 때문에, 팔이 아프고 메뉴 선택 및 기능 실행에 많은 시간이 소요될 수 있다.Open Publication No. 2005-120132 (titled "remote control television by user motion using image processing and control method thereof") detects a user motion by a camera, and when a specific part of the user's body is within a predetermined time range The virtual menu is activated when a predetermined number of times exist at the position of the user's eyes, the virtual menu is displayed at a position facing the user's eyes by recognizing the position of the user's eyes, A system for executing functions is described. However, in this system, since the user recognizes the menu to be selected by the position of the user's hand in the captured image, when the screen of the television is large and the distance between the screen and the user is close to each other, Furthermore, since the user must keep his / her hands fixed for a certain period of time in order to select a menu, his / her arm is sick and menu selection and function execution may take a long time.

이와 같이, 리모콘 조작의 불편함을 해소할 수 있도록 사용자의 형상이나 움직임, 시선 등을 검출하여 텔리비전을 조작할 수 있게 해주는 방법이 다양하게 제시된 바 있지만, 종래의 방법들은 포인팅이 부정확 또는 불안정하거나 아예 불가능할 수 있고, 메뉴 선택에 많은 시간이 소요되어 실시간 처리가 어렵다는 문제점이 있다. 이러한 문제점으로 말미암아, 본 출원이 행해지는 시점에 있어서 위와 같이 사용자의 형상이나 움직임, 시선 등을 검출하여 텔리비전 동작을 제어하는 방법들이 채택된 텔레비전이 상업적으로 실시되고 있는 예는 아직 없다.As described above, various methods for detecting the shape, movement, gaze, etc. of the user so as to solve the inconvenience of remote control operation have been proposed in various ways. However, the conventional methods are not suitable for pointing inaccurate or unstable And it takes a long time to select a menu, which makes it difficult to perform real-time processing. Due to such a problem, there is not yet an example in which a television adopting methods of detecting the shape, movement, sight line, etc. of the user and controlling the television operation is commercially performed at the time of the present application.

텔레비전에서의 포인팅은 특히 인터넷TV에서 심각한 문제라고 할 수 있다. 인터넷TV란 텔레비전 방송신호 수신과 아울러 인터넷접속 기능을 구비하는 TV를 말하는데, 이러한 인터넷TV에서는 화면에 표시된 웹문서 상의 많은 하이퍼텍스트 내지 메뉴항목 중 어느 하나를 선택하는 것이 매우 어렵다. 웹 서핑을 용이해게 해준다는 목적하에 다양한 형태의 리모콘이 제시된 바 있지만, 이러한 리모콘은 웹 서핑의 불편함은 크게 개선하지 못하면서 텔레비전 방송 시청시의 불편함만 가중시 키는 경우가 대부분이다. 즉, 텔레비전 방송 시청시에 사용자가 텔레비전을 조작하기 위해 본체 외주면 또는 리모콘의 키패드에서 주로 사용하는 키는 '채널업(+)', '채널다운(-)', '볼륨업(+)', '볼륨다운(-)', '전원 온/오프' 등 너댓 개에 불과한데, 조작키 숫자가 증가된 웹 서핑용 리모콘들은 제품 코스트를 상승시키는 것은 차치하고 방송시청시의 사용자의 불편함을 크게 가중시킨다.Pointing on television is a serious problem especially on Internet TV. The Internet TV is a TV having a function of receiving a television broadcasting signal and having an internet connection function. In such an Internet TV, it is very difficult to select one of a number of hypertext and menu items on a web document displayed on the screen. Although various types of remote controllers have been proposed for the purpose of facilitating web surfing, most of the remote controllers are only inconvenienced when viewing television broadcasts, while the inconvenience of web surfing is not improved greatly. That is, the keys mainly used in the outer surface of the main body or on the keypad of the remote controller for the user to operate the television at the time of watching television broadcast are 'channel up (+)', 'channel down (-)' , 'Volume down (-)', and 'power on / off'. However, the remote controllers for web surfing, which have increased the number of operation keys, do not increase the product cost, Weight.

따라서, 텔레비전 사용자가, TV시청 중에 또는 인터넷 서핑 중에, 텔레비전에 직접 접촉하지 않는 상태에서 화면상의 특정 지점을 신속하고 정확하며 안정되게 포인팅할 수 있게 해주는 방안이 절실하게 요구된다.Accordingly, there is a desperate need for a television user to be able to quickly, accurately, and stably point to a specific point on the screen while not directly touching the television while watching TV or surfing the Internet.

[문헌 1] 공개특허공보 2003-21988호 2003. 3. 15.[Patent Document 1] Published Japanese Patent Application No. 2003-21988 2003. 3. 15.

[문헌 2] 공개특허공보 2007-103895호 2007. 10. 25.[Patent Document 2] Published Japanese Patent Application No. 2007-103895 Published Oct. 25, 2007

[문헌 3] 공개특허공보 2003-37692호 2003. 5. 16.[Patent Document 3] Published Unexamined Patent Application No. 2003-37692 Published on May 16, 2003

[문헌 4] 공개특허공보 2000-56563호 2000. 9. 15.[Patent Document 4] Published Unexamined Patent Application No. 2000-56563 September 15, 2000 [

[문헌 5] 공개특허공보 2005-120132호 2005. 12. 22.[Patent Document 5] Published Japanese Patent Application No. 2005-120132 2005. 12. 22.

본 발명은 이와 같은 문제점을 해결하기 위한 것으로서, 사용자의 동작을 추적하고, 추적된 동작으로부터 사용자가 포인팅하고자 의도하는 화면상의 지점을 정확하고 안정되게 그리고 실시간으로 추정하고, 사용자가 실행하고자 조정기능을 추정하여 실행함으로써, 사용자가 효과적으로 그리고 편리하게 기능을 조정할 수 있게 해주는 이미지 디스플레이 장치를 제공하는 것을 그 기술적 과제로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a method and apparatus for tracking an operation of a user, accurately and stably estimating a point on a screen on which a user intends to point, The present invention also provides an image display device that enables a user to effectively and conveniently adjust a function.

또한, 본 발명은 사용자의 동작을 추적하면서 신속하고 정확하며 안정되게 사용자가 포인팅하고자 의도하는 화면상의 지점을 추정할 수 있고, 이를 통해 사용자가 효과적으로 그리고 편리하게 전자장치의 기능을 조정할 수 있게 해주는 전자장치 동작 제어방법을 제공하는 것을 다른 기술적 과제로 한다.In addition, the present invention can estimate a point on the screen that the user intends to point to quickly, accurately, and stably while tracing the user's operation, thereby allowing the user to adjust the functions of the electronic device effectively and conveniently And to provide a method of controlling a device operation.

상기 기술적 과제를 해결하기 위한 본 발명의 이미지 디스플레이 장치는 표시면을 구비하는 디스플레이 유닛과, 영상신호 처리부와, 이미지 캡쳐 유닛과, 제어부를 구비한다. 영상신호 처리부는 소정 포맷의 비디오 신호를 디스플레이 유닛에 제공하여 상기 비디오 신호에 상응한 영상이 표시면에 표시되도록 한다. 이미지 캡쳐 유닛은 상기 표시면 전방을 촬상한다. 제어부는 이미지 캡쳐 유닛이 촬상한 이미지를 사용하여 표시면 전방에 있는 사용자의 손에서의 제1 기준점과 사용자의 몸체에서의 제2 기준점의 위치를 결정하며, 상기 제1 및 제2 기준점의 위치정보를 사용하여 사용자가 상기 표시면 상에서 포인팅하고자 하는 지점을 추정한다. 그리고, 제어부는 디스플레이 유닛의 표시면 상에서 상기 추정된 포인팅 지점에 소정의 포인터가 표시되도록 영상신호 처리부를 제어한다.According to an aspect of the present invention, there is provided an image display apparatus including a display unit having a display surface, a video signal processing unit, an image capture unit, and a control unit. The video signal processing unit provides a video signal of a predetermined format to the display unit so that an image corresponding to the video signal is displayed on the display surface. The image capturing unit captures an image in front of the display surface. The control unit determines the position of the first reference point in the user's hand and the second reference point in the user's body in front of the display surface using the image captured by the image capture unit, To estimate a point the user wants to point to on the display surface. The control unit controls the video signal processor to display a predetermined pointer on the estimated pointing point on the display surface of the display unit.

특허청구범위를 포함한 본 명세서에 있어서, "몸체"란 사용자의 신체 중 상체에서 팔꿈치 아래의 하박과 손을 제외한 부분을 지칭하는 의미로 사용한다.In the present specification including the claims, the term "body" is used to refer to a portion of the user's body excluding an upper and lower hands under the elbow and a hand.

바람직한 실시예에 있어서, 상기 이미지 디스플레이 장치는 디지털텔레비전 형태로 구현된다. 이와 같은 실시예에 있어서, 이미지 디스플레이 장치는 방송신호를 수신하고 수신된 방송신호를 복조하고 복호화하여 비디오 비트스트림을 출력하는 방송신호 수신부를 더 구비한다. 이때, 영상신호 처리부는 비디오 비트스트림을 상기 포맷으로 변환하고, 포맷변환된 비디오 신호를 디스플레이 유닛에 출력함으로써 포맷변환된 비디오 신호에 상응한 영상이 표시면에 표시되도록 한다.In a preferred embodiment, the image display device is implemented in the form of a digital television. In this embodiment, the image display apparatus further includes a broadcast signal receiving unit for receiving a broadcast signal, demodulating and decoding the received broadcast signal, and outputting a video bit stream. At this time, the video signal processor converts the video bitstream into the format, and outputs the format-converted video signal to the display unit so that an image corresponding to the format-converted video signal is displayed on the display screen.

이미지 캡쳐 유닛은 상기 이미지 디스플레이 장치의 전면에서 서로 상이한 위치에 배치되는 2개 이상의 이미지 센서들을 구비하는 것이 바람직하다. 특히 바람직하기로는, 이미지 캡쳐 유닛이 수평위치와 수직위치가 서로 상이하게 배치되는 2개의 이미지 센서들로 구성된다.Preferably, the image capture unit has two or more image sensors disposed at different positions from each other in front of the image display device. Particularly preferably, the image capture unit is composed of two image sensors arranged such that the horizontal position and the vertical position are different from each other.

바람직한 실시예에 있어서, 상기 영상신호 처리부는 상기 포맷변환된 비디오 신호와 소정의 온스크린디스플레이(OSD) 조정메뉴 데이터를 합성함으로써, 상기 포맷변환된 비디오 신호에 상응한 영상에 소정의 온스크린디스플레이 조정메뉴가 융합되어, 상기 포인터와 함께 디스플레이에 표시되도록 한다.In a preferred embodiment, the video signal processor is configured to combine the format-converted video signal with predetermined on-screen display (OSD) adjustment menu data to provide a predetermined on-screen display adjustment to an image corresponding to the format- Menus are merged and displayed on the display together with the pointer.

바람직한 실시예에 있어서, 상기 OSD 조정메뉴 데이터는 상기 제어부가 상기 영상신호 처리부에 제공한다.In a preferred embodiment, the OSD adjustment menu data is provided to the video signal processor by the controller.

상기 제1 기준점은 손가락 끝점인 것이 바람직하다. 상기 제2 기준점으로는 어느 한쪽 눈(目)의 안구 중심, 미간 중심점 즉 양쪽 눈 안구 중심의 중점, 상기 손가락에 관련된 어깨 윤곽선 상의 한 점, 머리 상단 끝점, 팔꿈치 부위의 한 점 중 한 지점을 사용하는 것이 바람직하다.The first reference point may be a finger end point. As the second reference point, an eyeball center point of the one eye (eye), a midpoint between the eyeball centers, that is, one point on the shoulder contour line, the upper end point of the head, and the elbow point .

바람직한 실시예에 있어서, 이미지 디스플레이 장치는 이미지 캡쳐 유닛에 의하여 촬상된 이미지로부터 소정의 선택 이벤트를 검출하기 위한 선택 이벤트 검출수단을 더 구비한다. 제어부는 상기 선택 이벤트에 응답하여 상기 포인팅 지점에 상응한 동작이 이루어지도록 이미지 디스플레이 장치를 제어할 수 있다.In a preferred embodiment, the image display apparatus further comprises selection event detection means for detecting a predetermined selection event from the image captured by the image capture unit. The control unit may control the image display device to perform an operation corresponding to the pointing point in response to the selection event.

보다 일반적인 관점에서 상기 기술적 과제를 해결하기 위하여, 본 발명은 표시면을 구비하는 디스플레이 유닛과, 이미지 캡쳐 유닛과, 제어부를 구비하는 전자장치를 제공한다. 이미지 캡쳐 유닛은 전자장치의 전면에 설치되어, 표시면 전방을 촬상한다. 제어부는 이미지 캡쳐 유닛이 촬상한 이미지를 사용하여, 사용자의 손에서의 제1 기준점과, 몸체에서의 제2 기준점의 위치를 결정하며, 상기 제1 및 제2 기준점의 위치정보를 사용하여 사용자가 표시면상에서 포인팅하고자 하는 지점을 추정하고, 디스플레이 유닛의 표시면 상에서 상기 추정된 포인팅 지점에 소정의 포인터가 표시되도록 한다.In order to solve the above technical problems in a more general aspect, the present invention provides an electronic apparatus having a display unit having a display surface, an image capture unit, and a control unit. The image capture unit is installed on the front surface of the electronic device, and captures an image on the front of the display surface. The control unit determines the position of the first reference point in the user's hand and the second reference point in the body using the image captured by the image capture unit and uses the position information of the first and second reference points, Estimates a point to be pointed on the display surface, and displays a predetermined pointer on the estimated pointing point on the display surface of the display unit.

이미지 캡쳐 유닛은 상기 전자장치의 전면에서 서로 상이한 위치에 배치되는 2개 이상의 이미지 센서들을 구비하는 것이 바람직하다. 보다 바람직하기로는, 이미지 캡쳐 유닛이 수평위치와 수직위치가 서로 상이하게 배치되는 2개의 이미지 센서들로 구성된다.Preferably, the image capture unit comprises two or more image sensors disposed at different positions on the front surface of the electronic device. More preferably, the image capture unit is composed of two image sensors arranged such that the horizontal position and the vertical position are different from each other.

한편, 상기 다른 기술적 과제를 해결하기 위한 본 발명의 전자장치 동작 제어방법은 디스플레이 표시면과 이미지센서를 구비하는 전자장치에서 구현되며, 사용자가 상기 전자장치에 접촉하지 않는 상태로 상기 전자장치를 조작할 수 있도록 해준다. 먼저, 상기 이미지센서를 사용하여 상기 표시면 전방을 촬상한다. 촬상한 이미지에서 사용자의 손에서의 제1 기준점의 위치를 결정하고, 사용자의 몸체에서의 제2 기준점의 위치를 결정한다. 이어서, 상기 제1 및 제2 기준점의 위치정보를 사용하여 사용자가 표시면상에서 포인팅하고자 하는 지점을 추정한다. 마지막으로, 추정된 포인팅 지점에 포인터를 표시하게 된다.According to another aspect of the present invention, there is provided an electronic device operation control method of an electronic device including a display screen and an image sensor, wherein the electronic device is operated in a state in which the user does not touch the electronic device I can do it. First, the front of the display surface is imaged using the image sensor. Determines the position of the first reference point in the user's hand in the captured image, and determines the position of the second reference point in the user's body. Then, using the position information of the first and second reference points, the user estimates a point to be pointed on the display surface. Finally, a pointer is displayed at the estimated pointing point.

상기 제1 기준점은 손가락 끝점인 것이 바람직하다. 상기 제2 기준점으로는 어느 한쪽 눈(目)의 안구 중심, 미간 중심점 즉 양쪽 눈 안구 중심의 중점, 상기 손가락에 관련된 어깨 윤곽선 상의 한 점, 머리 상단 끝점, 팔꿈치 부위의 한 점 중 한 지점을 사용하는 것이 바람직하다.The first reference point may be a finger end point. As the second reference point, an eyeball center point of the one eye (eye), a midpoint between the eyeball centers, that is, one point on the shoulder contour line, the upper end point of the head, and the elbow point .

포인팅 지점을 추정함에 있어서는, 상기 제1 기준점과 상기 제2 기준점을 연결하는 가상의 직선이 상기 표시면과 만나는 점을 상기 포인팅 지점으로 추정할 수 있다. 그렇지만, 사용자의 손이 표시면 일부를 가리게 되는 현상을 감소시키고, 사용자가 팔을 높이 들지 않아도 되도록 추정 방식이 변형될 수도 있다. 일 예로서, 상기 제1 기준점보다 소정 거리만큼 위에 있는 보조기준점을 결정하고, 상기 보조기준점과 상기 제2 기준점을 연결하는 가상의 직선이 표시면과 만나는 점을 포인팅 지점으로 추정할 수 있다. 다른 예로서, 상기 제2 기준점보다 소정 거리만큼 아래에 있는 보조기준점을 결정하고, 상기 제1 기준점과 상기 보조기준점을 연결하 는 가상의 직선이 표시면과 만나는 점을 포인팅 지점으로 추정할 수 있다. 또 다른 예로서, 상기 제1 기준점과 상기 제2 기준점을 연결하는 가상의 직선이 표시면과 만나는 점을 결정하고, 결정된 점보다 소정 거리만큼 위에 있는 점을 포인팅 지점으로 추정할 수도 있다.In estimating the pointing point, a point at which a virtual straight line connecting the first reference point and the second reference point meet the display surface can be estimated as the pointing point. However, the phenomenon that the user's hand hides part of the display surface is reduced, and the estimation method may be modified such that the user does not need to raise the arm. As an example, it is possible to determine an auxiliary reference point that is a predetermined distance from the first reference point, and to estimate a point where a virtual straight line connecting the auxiliary reference point and the second reference point meets the display surface. As another example, it is possible to determine an auxiliary reference point that is a predetermined distance below the second reference point, and to estimate a point where a virtual straight line connecting the first reference point and the auxiliary reference point meets the display surface as a pointing point . As another example, it is possible to determine a point at which a virtual straight line connecting the first reference point and the second reference point meet with the display surface, and to estimate a point that is a predetermined distance from the determined point as a pointing point.

디스플레이 표시면 상에 포인터가 표시된 상태에서 상기 이미지센서에 의하여 소정의 선택 이벤트가 발생하는지를 모니터링하고, 상기 선택 이벤트가 발생하는 경우 이에 응답하여 포인팅 지점에 상응한 동작이 이루어지도록 하는 것이 바람직하다.It is preferable to monitor whether a predetermined selection event is generated by the image sensor in a state where a pointer is displayed on a display display surface and to perform an operation corresponding to a pointing point in response to the selection event.

또한, 소정의 기능비활성화 이벤트가 발생하는지를 모니터링하고, 상기 기능비활성화 이벤트가 발생하면 표시면에서 포인터를 소거함으로써, 포인터가 필요할 때에만 선택적으로 표시되도록 하는 것이 바람직하다. 상기 기능비활성화 이벤트는 예컨대 포인팅 지점이 표시면 밖에 있는 시간이 일정 시간이상 지속되는 것, 또는 포인터 내지 제1 기준점이 일정 시간이상 정지해있는 것이 될 수 있다.In addition, it is preferable to monitor whether a predetermined function inactivation event occurs, and to erase the pointer on the display surface when the function inactivation event occurs, so that the pointer is selectively displayed only when necessary. The function deactivation event may be, for example, that the time when the pointing point is outside the display surface continues for a predetermined time or that the pointer or the first reference point is stopped for a predetermined time or more.

본 발명에 따르면, 전자장치 사용자가 전자장치를 직접 접촉하거나 리모콘을 사용하지 않고서도 마치 터치패널을 사용하는 것과 같이 정확하고 안정되게 화면상의 메뉴를 포인팅할 수 있게 해주고, 포인팅, 메뉴/항목 선택, 기능조정 등 사용자가 의도하는 기능을 실시간 처리할 수 있다. 이에 따라, 전자장치에 대한 직감적인 유저 인터페이스가 가능해지는데, 특히 이러한 유저 인터페이스를 구현함에 있어 사용자의 사전학습이 요구되는 바는 거의 없다. 그러므로, 전자장치의 편의성 이 크게 높아지는 효과가 있다.According to the present invention, an electronic device user can precisely and stably point the on-screen menu, such as using a touch panel without touching the electronic device directly or using a remote control, and can perform pointing, menu / It is possible to process the function of user's intention in real time such as function adjustment. Accordingly, an intuitive user interface for an electronic device becomes possible, and in particular, the user's prior learning is hardly required in realizing such a user interface. Therefore, there is an effect that the convenience of the electronic device is greatly increased.

도 1은 본 발명에 의한 디지털텔레비전 수신기에서 사용자가 화면상의 한 지점을 포인팅하는 예를 개념적으로 보여준다.FIG. 1 conceptually shows an example in which a user points at a point on a screen in a digital television receiver according to the present invention.

도시된 디지털텔레비전 수신기의 전면에는 액정패널 디스플레이(50)가 마련되어 있고, 디스플레이(50)의 표시면(52)은 전방을 향하도록 상하방향으로 연이어져 배치되어 있다. 한편, 액정패널 디스플레이(50)의 네 모서리를 수납하면서 보호하는 하우징의 전면에서, 대각선 방향으로 위치하는 두 구석지점 부근에는 이미지센서(54a, 54b)가 각각 마련되어 있다.A liquid crystal panel display 50 is provided on the front surface of the digital television receiver and the display surface 52 of the display 50 is arranged in a vertical direction so as to face forward. On the other hand, image sensors 54a and 54b are provided in the vicinity of two corner points located diagonally from the front face of the housing for housing and protecting the four corners of the liquid crystal panel display 50.

이와 같은 디지털텔레비전 수신기를 통해 방송을 시청하는 중에 볼륨이나 채널 또는 여타의 기능을 조정하고 싶은 경우, 사용자는 사전에 정해진 특정 제스쳐를 취함으로써 하프톤(Half tone) 또는 완전한 톤(Full tone)의 OSD(On-screen Display) 조정메뉴가 방송영상에 중첩되어 표시되게 할 수 있다. 일 실시예에 있어서, OSD 조정메뉴는 '채널업(+)' 아이콘(56a), '채널다운(-)' 아이콘(56b), '볼륨업(+)' 아이콘(56c), '볼륨다운(-)' 아이콘(56d), 볼륨 레벨 인디케이터(56e), '전원 온/오프' 아이콘(56f)을 포함한다.When a user wishes to adjust a volume, channel, or other function while viewing a broadcast through such a digital television receiver, the user may select a specific gesture predetermined, and thus, a halftone or full tone OSD (On-screen Display) adjustment menu to be superimposed on the broadcast image. In one embodiment, the OSD adjustment menu includes a 'channel up (+)' icon 56a, a 'channel down (-)' icon 56b, an 'up' icon 56c, - 'icon 56d, a volume level indicator 56e, and a' power on / off 'icon 56f.

OSD 조정메뉴가 표시된 상태에서, 사용자는 별도의 리모콘이나 포인팅 디바이스를 사용하지 않고서 자신의 손으로 자신이 포인팅하고자 하는 위치를 손으로 가리킴으로써, 이 위치를 포인팅할 수 있다. 일 실시예에 있어서, 텔레비전 수신기는 이미지센서(54a, 54b)에 의하여 지속적으로 전방을 촬상하면서, 사용자의 미 간 중심점 Peye(Xeye,Yeye,Zeye)와 화면에 가까운 손의 손가락 끝점 Pf(Xf,Yf,Zf)의 공간좌표를 결정한다. 여기서, 상기 손가락은 사용자가 뻗고 있는 손가락 또는 집게손가락이 될 수 있다. 이어서, 수신기는 두 기준점 (Xeye,Yeye,Zeye), (Xf,Yf,Zf)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 점 Ppoint(Xpoint,Ypoint,Zpoint)을 결정하고, 이 점을 사용자가 포인팅하고자 의도하는 점이라고 추정한다. 이어서, 디지털텔레비전 수신기는 추정된 포인팅 지점에 포인터를 표시하고, 포인터 지점에 위치하는 아이콘을 두드러지게 하여 강조하여 표시한다.With the OSD control menu displayed, the user can point to this position by pointing his or her hand at the position he or she wishes to point, without using a separate remote control or pointing device. In one embodiment, the television receiver captures the frontward center point Peye (Xeye, Yeye, Zeye) of the user and the finger end point Pf (Xf, Yf, Zf). Here, the finger may be a finger or a forefinger extending from the user. The receiver then determines a point Ppoint (Xpoint, Ypoint, Zpoint) at which a virtual straight line connecting the two reference points (Xeye, Yeye, Zeye), (Xf, Yf, Zf) meets the display screen 52, It is assumed that the point is intended to be pointed by the user. Then, the digital television receiver displays the pointer at the estimated pointing point and emphasizes and displays the icon positioned at the pointer point.

두 기준점 Peye(Xeye,Yeye,Zeye), Pf(Xf,Yf,Zf)의 좌표가, 비록 사용자의 자세 등에 따른 정확도 변동은 있을지라도, 쉽게 결정될 수 있기 때문에 포인팅 지점의 결정이 신속하게 이루어질 수 있다. 또한, 위 두 점이 20~30 센티미터(cm) 이상 이격되어 있기 때문에 포인팅의 안정성이 매우 높게 된다. 사용자가 손을 움직이는 경우, 표시면 상의 포인터는 신속하게 손의 움직임을 추종한다. 직감적이고 감각적인 방식으로 이루어지는 이와 같은 포인팅은 쉬울 뿐만 아니라, 별도의 기기 조작을 요하지 않기 때문에 간단하다. 이와 같이, 사용자는 수신기 방향으로 손가락을 가리킴으로써 오히려 터치패널을 사용하는 것보다도 디스플레이(50) 표시면 위의 한 점을 쉽고 간단하게 포인팅할 수 있다.The pointing point can be determined quickly because the coordinates of the two reference points Peye (Xeye, Yeye, Zeye) and Pf (Xf, Yf, Zf) can be easily determined even if there is accuracy variation according to the user's attitude or the like . Also, since the two points are spaced by 20 to 30 centimeters (cm), the stability of the pointing is very high. When the user moves the hand, the pointer on the display surface quickly follows the movement of the hand. This pointing, which is intuitive and sensible, is not only easy, but also simple because it does not require any device manipulation. Thus, by pointing the finger in the direction of the receiver, the user can easily and easily point a point on the display surface 50 of the display 50 rather than using the touch panel.

한편, 포인팅을 의도했던 지점에 포인터가 표시되어 있는 상태에서, 사용자는 사전에 정해진 선택 이벤트를 연출함으로써, 예컨대 전방의 가상 버튼을 누르듯이 집게손가락 끝을 앞으로 구부림으로써, 포인터 주변에 있는 메뉴 항목이 선택, 실행되도록 할 수 있다. 예컨대, 사용자가 '채널업(+)' 아이콘 위에 포인터를 가져다 둔 상태에서 선택 이벤트를 연출하면, 수신기는 방송신호 수신 채널번호를 증가시킨다. 연속적으로 선택 이벤트가 발생하는 경우, 그에 상응하여 채널번호가 연속적으로 증가될 수 있다. 음량의 경우에도 이와 동일한 방식으로 변경될 수 있다. 한편, '볼륨업(+)'이나 '볼륨다운(-)' 아이콘을 연속적으로 선택하는 대신에 레벨 인디케이터(56e) 상의 특정 세그먼트를 선택함으로써 볼륨 레벨을 한번에 여러 단계 변화시킬 수도 있다.On the other hand, in a state in which the pointer is displayed at a point where the pointing was intended, the user directs the predetermined selection event, for example, by bending the forefinger forward in the same manner as pressing the forward virtual button, Selected, and executed. For example, if a user brings a selection event while holding a pointer on a 'channel up (+)' icon, the receiver increases the broadcast signal receiving channel number. When the selection event occurs continuously, the channel number can be continuously increased correspondingly. The volume can also be changed in the same way. On the other hand, instead of sequentially selecting the 'volume up (+)' or 'volume down (-)' icon, the volume level can be changed in several steps at a time by selecting a specific segment on the level indicator 56e.

도 2a 및 도 2b는 일 실시예에 있어서 두 기준점 Peye(Xeye,Yeye,Zeye), Pf(Xf,Yf,Zf)의 좌표를 결정하는데 사용되는 좌표계를 보여준다. 본 실시예에 있어서, 수신기의 전방 공간에 있는 각 점 Po(Xo,Yo,Zo)의 위치를 결정하기 위한 원점으로는 디스플레이 표시면(52)의 중앙점이 사용된다. 그리고, 이 원점을 기준으로 직교좌표계의 각 좌표축이 적절하게 배치된다.Figures 2a and 2b show a coordinate system used to determine the coordinates of two reference points Peye (Xeye, Yeye, Zeye), Pf (Xf, Yf, Zf) in one embodiment. In the present embodiment, the center point of the display display surface 52 is used as the origin for determining the position of each point Po (Xo, Yo, Zo) in the front space of the receiver. Then, coordinate axes of the orthogonal coordinate system are appropriately arranged on the basis of this origin.

도 3은 본 발명에 의한 디지털텔레비전 수신기의 일 실시예를 보여준다. 도시된 디지털텔레비전 수신기는 방송신호 수신부(10), 영상신호 처리부(40), 디스플레이(50) 및 시스템 제어부(60)를 포함한다.3 shows an embodiment of a digital television receiver according to the present invention. The digital television receiver includes a broadcast signal receiving unit 10, a video signal processing unit 40, a display 50, and a system control unit 60.

방송신호 수신부(10)에 있어서, 튜너(12)는 안테나 또는 케이블을 통해 입력되는 다수의 방송신호들 중에서 사용자가 선국한 어느 한 채널의 방송신호를 선택하여 출력한다. 복조부(14)는, 해당 수신기에 채택된 변조방식 예컨대 8-VSB 변조방식에 상응하는 복조기법에 의하여, 튜너(12)로부터의 방송신호를 복조하여, 복조된 트랜스포트 스트림을 출력한다. 역다중화부(16)는 복조된 트랜스포트 스트림을 역다중화하여, 부호화된 비디오 비트스트림과 부호화된 오디오 비트스트림을 분리해낸다. 영상복호화부(18)는 부호화된 비디오 비트스트림을 복호화하여 비디오 비트스트림을 출력한다.In the broadcast signal receiving unit 10, the tuner 12 selects a broadcast signal of a channel selected by a user from among a plurality of broadcast signals inputted through an antenna or cable, and outputs the selected broadcast signal. The demodulator 14 demodulates the broadcast signal from the tuner 12 and outputs the demodulated transport stream by a demodulation technique corresponding to the modulation scheme adopted in the receiver, for example, the 8-VSB modulation scheme. The demultiplexer 16 demultiplexes the demodulated transport stream to separate the encoded video bit stream and the encoded audio bit stream. The video decoding unit 18 decodes the encoded video bit stream and outputs a video bit stream.

영상신호 처리부(40)는 영상복호화부(18)로부터의 비디오 비트스트림을 디스플레이 가능한 영상 출력포맷으로 변환 처리하며, 디스플레이(50)는 포맷변환된 비디오 신호에 상응한 영상을 그 표시면(52)에 디스플레이한다. 한편, 디스플레이(50) 표시면(52)에는 방송 영상 이외에도 기능조정을 위한 OSD 조정메뉴가 하프톤(Half tone) 또는 온전한 톤(Full tone)으로 표시될 수 있다. 다른 한편으로, 방송 영상 및 OSD 조정메뉴 이외에, 인터넷 콘텐츠가 디스플레이(50) 표시면(52)에 표시될 수도 있다. 이를 위하여, 영상신호 처리부(40)는 시스템 제어부(60)로부터 선택제어신호와, OSD 표시 데이터 또는 인터넷 콘텐츠 데이터를 받아들여, 선택제어신호에 따라, 포맷변환된 비디오 신호에 OSD 조정메뉴가 중첩된 영상 또는 인터넷 콘텐츠 영상신호를 디스플레이(50)에 제공한다. 디스플레이(50)는 영상신호 처리부(40)로부터의 영상신호에 상응한 영상을 디스플레이하게 된다.The video signal processing unit 40 converts the video bit stream from the video decoding unit 18 into a video output format that can be displayed and the display 50 displays an image corresponding to the format converted video signal on the display surface 52, . In addition to the broadcast image, the OSD adjustment menu for function adjustment may be displayed as a half tone or a full tone on the display screen 52 of the display 50. On the other hand, in addition to the broadcast video and OSD adjustment menu, the Internet content may be displayed on the display 50 (52). To this end, the video signal processing unit 40 receives the selection control signal, the OSD display data or the Internet content data from the system control unit 60, and outputs the OSD adjustment menu to the format- And provides the video or Internet content video signal to the display 50. The display 50 displays an image corresponding to the video signal from the video signal processing unit 40. [

음성복호화부(20)는 부호화된 오디오 비트스트림을 복호화하여 오디오 비트스트림을 출력한다. 디지털-아날로그 변환기(DAC, 미도시됨)는 오디오 비트스트림을 아날로그 음성신호로 변환하고, 증폭기(미도시됨)는 아날로그 음성신호를 증폭하여 스피커(30)를 통해 출력한다.The speech decoding unit 20 decodes the encoded audio bit stream and outputs an audio bit stream. A digital-to-analog converter (DAC, not shown) converts the audio bitstream to an analog audio signal, and an amplifier (not shown) amplifies the analog audio signal and outputs it through the speaker 30.

시스템 제어부(60)는 수신기의 각 부분을 전반적으로 제어하고, 사용자의 조작 명령에 응답하여 수신기의 각 부분의 기능을 조정한다. 시스템 제어부(60)는 마이크로프로세서 또는 마이크로컨트롤러에 의하여 구현되는데, 특히, 역할이 분담되는 두 개 이상의 마이크로프로세서 또는 마이크로컨트롤러에 의하여 구현될 수도 있다. 시스템 제어부(60)는 사용자의 조작 명령을 수신기 본체 외면에 마련된 버튼들(미도시됨) 또는 리모콘으로부터 받아들일 수 있다.The system control unit 60 controls each part of the receiver as a whole and adjusts the function of each part of the receiver in response to a user's operation command. The system control unit 60 is implemented by a microprocessor or a microcontroller, and in particular, may be realized by two or more microprocessors or microcontrollers whose roles are shared. The system control unit 60 can receive a user's operation command from buttons (not shown) or a remote controller provided on the outer surface of the receiver main body.

나아가, 본 발명에 따르면, 시스템 제어부(60)는 사용자의 조작 명령을, 이미지센서(54a, 54b)가 촬상한 사용자 화상으로부터 사용자가 포인팅하고자 의도하는 표시면 위의 지점을 추정하여, 인식할 수도 있다. 포인팅 지점을 추정하면, 시스템 제어부(60)는 영상신호 처리부(40)에 포인터에 관한 영상신호를 제공하여, 디스플레이(50) 표시면의 포인팅 지점에 포인터가 표시되도록 한다. 이와 같은 상태에서, 사용자가 특정 기능 또는 메뉴를 선택하면, 시스템 제어부(60)는 이 선택에 응답하여 그에 상응한 기능조정이 이루어지도록 수신기의 해당 부분을 제어한다.Further, according to the present invention, the system control unit 60 estimates a point on the display surface on which the user intends to point, from the user image captured by the image sensors 54a and 54b, have. When the pointing point is estimated, the system control unit 60 provides the video signal processing unit 40 with the video signal related to the pointer so that the pointer is displayed at the pointing point of the display surface of the display 50. In this state, when the user selects a specific function or menu, the system control unit 60 controls the corresponding part of the receiver so that the corresponding function adjustment is made in response to the selection.

메모리(70)에서, ROM(72)은 시스템 제어부(60)의 동작을 위한 운영체제 내지 펌웨어와, 그리고 본 발명을 구현하는데 필요한 응용프로그램을 저장한다. 특히, ROM(72)에는 본 발명에 의한 제어 기능 활성화의 판단에 필요한 사용자 제스처 패턴 데이터와, 손가락 끝점 추출에 필요한 윤곽선 패턴 데이터를 저장하는 것이 바람직하다. RAM(74)은 시스템 동작 과정에서 발생하는 임시데이터를 저장한다. 메모리(70) 중 전부 또는 일부는 시스템 제어부(60)를 구성하는 마이크로컨트롤러의 내장 메모리에 의하여 대체될 수도 있다.In the memory 70, the ROM 72 stores an operating system or firmware for operation of the system control unit 60, and an application program necessary for implementing the present invention. In particular, the ROM 72 preferably stores user gesture pattern data necessary for judging activation of the control function according to the present invention and contour pattern data required for finger end point extraction. The RAM 74 stores temporary data generated during the system operation. All or a part of the memory 70 may be replaced by a built-in memory of the microcontroller constituting the system control unit 60. [

네트웍인터페이스(80)는 시스템 제어부(60)가 인터넷에 접근할 수 있게 해준다. 이 네트웍인터페이스(80)는 예컨대, 케이블 모뎀, xDSL 모뎀, 광망종단장 치(ONU: Optical Network Unit) 내지 FTTH(Fiber-to-the-Home) 모뎀이 될 수 있다. 한편, 위와 같이 네트웍인터페이스(80)가 디지털텔레비전 수신기에 내장될 수도 있지만, 변형된 실시예에 있어서는 디지털텔레비전 수신기와는 별도로 제작된 형태의 모뎀이 디지털텔레비전 수신기에 외부적으로 접속될 수도 있다. 시스템 제어부(60)는 사용자 제어 명령에 따라 인터넷을 통해 외부의 웹서버, 메일서버, 또는 FTP서버에 접속하여 콘텐츠를 요구하고, 수신되는 콘텐츠를 영상신호 처리부(40)를 통하여 디스플레이(50)에 표시되게 할 수 있다. 여기서, 인터넷 기능 선택, 인터넷 접속 요청, HTTP요구, 전자메일 수발신 또는 FTP요구 등 인터넷 관련 제어 명령도, 디스플레이(50)에 메뉴 내지 선택항목을 표시한 상태에서, 이미지센서(54a, 54b)로부터의 촬상한 이미지에서 사용자가 의도하는 포인팅 지점을 추정하고 선택 이벤트를 인식하여 받아들일 수 있음은 물론이다.The network interface 80 allows the system control unit 60 to access the Internet. The network interface 80 may be, for example, a cable modem, an xDSL modem, an optical network unit (ONU), or a fiber-to-the-home (FTTH) modem. Meanwhile, although the network interface 80 may be embedded in the digital television receiver as described above, in a modified embodiment, a modem of a type separately made from the digital television receiver may be externally connected to the digital television receiver. The system control unit 60 accesses an external web server, a mail server, or an FTP server via the Internet in accordance with a user control command to request contents and transmits the received contents to the display 50 through the video signal processing unit 40 Can be displayed. Here, the Internet-related control commands such as the Internet function selection, the Internet access request, the HTTP request, the E-mail reception / FTP request, etc. are also displayed on the display 50, It is needless to say that it is possible to estimate the pointing point intended by the user in the captured image and to recognize and accept the selected event.

도 4는 시스템 제어부(60)에서 실행되는 프로그램 모듈의 구성을 보여준다. 각 프로그램 모듈의 동작을 총체적으로 제어하는 주 제어부(100) 이외에, 기능활성화 이벤트 검출부(102), 기준점 화소 검출부(104), 포인터 위치 결정부(106), 포인터 표시 제어부(108), 선택 이벤트 검출부(110), 동작 제어부(112), 및 기능비활성화 이벤트 검출부(114)가 시스템 제어부(60)에서 실행된다.FIG. 4 shows a configuration of a program module executed by the system control unit 60. FIG. In addition to the main control unit 100 for controlling the operation of each program module, the function activation event detection unit 102, the reference point pixel detection unit 104, the pointer position determination unit 106, the pointer display control unit 108, The operation control unit 112, and the function inactivation event detection unit 114 are executed in the system control unit 60. [

한편, 시스템 제어부(60)의 일부를 구성하는 것은 아니지만, 도 4에는 설명의 편의상 제1 내지 제4 프레임 메모리들(122~128)을 함께 도시하였다. 제1 내지 제4 프레임 메모리(122~128) 각각은 이미지센서(54a 또는 54b)가 촬상한 화상 데이터를 1 프레임 단위로 저장한다. 제1 프레임 메모리(122)는 제1 이미지센서(54a) 에 의해 촬상된 현재 프레임의 화상 데이터를 저장한다. 제2 프레임 메모리(124)는 제1 이미지센서(54a)에 의해 촬상된 이전 프레임의 화상 데이터를 저장한다. 여기서, 연산 부담을 줄이기 위하여, 이미지센서들(54a 또는 54b)이 촬상한 영상프레임을 모두 사용하는 대신에, 일부를 스키핑하고, 예컨대 0.1초 또는 0.5초당 한 프레임씩만을 선택하여 사용할 수도 있는데, 이러한 경우 '이전 프레임'이란 0.1초 또는 0.5초 이전의 프레임을 일컫는다. 3 프레임 메모리(126)는 제2 이미지센서(54a)에 의해 촬상된 현재 프레임의 화상 데이터를 저장한다. 제4 프레임 메모리(128)는 제2 이미지센서(54a)에 의해 촬상된 이전 프레임의 화상 데이터를 저장한다. 일 실시예에 있어서, 제1 내지 제4 프레임 메모리들(122~128)은 메모리(70)의 RAM(74)에 의해 구현될 수 있다.4 does not constitute a part of the system control unit 60, but the first to fourth frame memories 122 to 128 are shown together for convenience of explanation. Each of the first to fourth frame memories 122 to 128 stores image data captured by the image sensor 54a or 54b in units of one frame. The first frame memory 122 stores the image data of the current frame captured by the first image sensor 54a. The second frame memory 124 stores the image data of the previous frame captured by the first image sensor 54a. Here, instead of using all of the image frames sensed by the image sensors 54a or 54b, it is possible to skip a part of the image frames and to select only one frame per 0.1 second or 0.5 second in order to reduce the computation burden. In this case, 'previous frame' refers to a frame 0.1 seconds or 0.5 seconds before. The 3-frame memory 126 stores image data of the current frame captured by the second image sensor 54a. The fourth frame memory 128 stores image data of a previous frame captured by the second image sensor 54a. In one embodiment, the first to fourth frame memories 122 to 128 may be implemented by the RAM 74 of the memory 70.

시스템 제어부(60)에 있어서, 주 제어부(100)는 기능활성화 이벤트 검출부(102)로 하여금 본 발명에 의한 제어기능을 활성화시키기 위한 이벤트가 발생하는지를 모니터링하도록 한다. 기능활성화 이벤트 검출부(102)로부터 이벤트 발생 보고 내지 제어기능 활성화 요구가 수신되면, 주 제어부(100)는 도 1에 도시된 바와 같이 디스플레이(50) 상에서 OSD 조정메뉴가 방송영상에 중첩되어 표시되도록 포인터 표시 제어부(108)를 통하여 영상신호 처리부(40)를 제어한다. 아울러, 제어기능 활성화 요구에 응답하여, 주 제어부(100)는 기준점 화소 검출부(104), 포인터 위치 결정부(106), 포인터 표시 제어부(108), 및 선택 이벤트 검출부(110)를 활성화시킨다.In the system control unit 60, the main control unit 100 causes the function activation event detection unit 102 to monitor whether an event for activating the control function according to the present invention occurs. When an event occurrence report or a control function activation request is received from the function activation event detection unit 102, the main control unit 100 displays the OSD control menu on the display 50 as shown in FIG. 1, And controls the video signal processing unit 40 through the display control unit 108. In response to the control function activation request, the main control unit 100 activates the reference point pixel detection unit 104, the pointer position determination unit 106, the pointer display control unit 108, and the selection event detection unit 110.

그리고, 주 제어부(100)는 기준점 화소 검출부(104)로 하여금 이미지센 서(54a,54b)에 의해 획득한 화상 내에서 기준점들의 화소 위치를 검출하도록 하고, 포인터 위치 검출부(106)로 하여금 상기 화소 위치들을 토대로 사용자가 포인팅하고자 하는 지점의 위치를 추정하여 포인터 위치를 결정하도록 한다. 포인터 위치를 수신하면, 주 제어부(100)는 포인터 표시 제어부(108)로 하여금 포인터 위치를 재조정하고 포인터 주변의 아이콘을 강조하여 표시하도록 한다. 선택 이벤트 검출부(110)로부터 선택 이벤트 검출 신호를 수신하면, 주 제어부(100)는 포인터 주변의 아이콘에 해당하는 기능조정이 이루어지도록 동작제어부(112)를 통해서 튜너(12), 음성증폭기(미도시됨) 등 수신기 요소들의 동작을 제어한다. 기능 비활성화 이벤트 검출부(114)로부터 기능 비활성화 이벤트 발생신호를 수신하면, 주 제어부(100)는 디스플레이(50) 상에서 OSD 조정메뉴를 소거하도록 포인터 표시 제어부(108)를 제어하고, 기준점 화소 검출부(104), 포인터 위치 결정부(106), 포인터 표시 제어부(108), 및 선택 이벤트 검출부(110)를 대기모드로 전환한다.The main control unit 100 causes the reference point pixel detection unit 104 to detect the pixel position of the reference points in the image acquired by the image sensors 54a and 54b and causes the pointer position detection unit 106 to detect the pixel position Based on the positions, the user determines the pointer position by estimating the position of the point to be pointed. Upon receiving the pointer position, the main control unit 100 causes the pointer display control unit 108 to readjust the pointer position and highlight the icon around the pointer. Upon reception of the selection event detection signal from the selection event detection unit 110, the main control unit 100 controls the tuner 12, the audio amplifier (not shown) through the operation control unit 112 to perform the function adjustment corresponding to the icon around the pointer, And the like). The main control unit 100 controls the pointer display control unit 108 to erase the OSD adjustment menu on the display 50. The control unit 100 controls the reference point pixel detection unit 104, The pointer position determination unit 106, the pointer display control unit 108, and the selection event detection unit 110 to the standby mode.

기능활성화 이벤트 검출부(102)는 본 발명에 의한 제어기능 활성화 조건으로서 사전에 정해진 기능활성화 이벤트가 발생하는지를 모니터링하고, 기능활성화 이벤트가 발생하는 경우 주 제어부(102)로 하여금 제어기능 활성화를 위한 프로세스를 실행해줄 것을 요구하게 된다. 바람직한 실시예에 있어서, 기능활성화 이벤트는 사용자가 사전에 정해진 패턴의 제스쳐를 일정 시간, 예컨대 3초 이상의 시간동안, 취하는 것으로 정해진다. 이와 같은 제스쳐의 예로는 한 눈을 감아 윙크하는 것, 얼굴의 특정 부위에 손바닥 또는 주먹을 가져다대고 있는 것, 손가락 또는 손바닥을 모니터 쪽으로 향하게 가리키고 있는 것 등을 들 수 있다.The function activation event detection unit 102 monitors whether a predetermined function activation event is generated as a control function activation condition according to the present invention. When the function activation event occurs, the main control unit 102 performs a process for activating the control function And execute it. In a preferred embodiment, the function activation event is determined by the user taking a gesture of a predetermined pattern for a period of time, e.g., 3 seconds or more. Examples of such gestures include winking with one eye, holding a palm or fist at a specific area of the face, or pointing a finger or palm toward the monitor.

기능활성화 이벤트 검출부(102)는 일정 주기(예컨대 1초)마다 제1 프레임 메모리(122)에 저장된 영상 데이터를 독출하여 ROM(72)에 저장되어 있는 제스쳐 패턴 데이터와 비교함으로써, 사용자가 기능활성화를 위한 제스쳐를 취하고 있는지를 판단한다. 사용자가 상기 제스쳐를 취하고 있고 일정 시간 이상 유지하는 것으로 판단하는 경우, 기능활성화 이벤트 검출부(102)는 사용자가 기능활성화를 요구하는 것으로 판단하고, 주 제어부(100)에 제어기능 활성화를 요구한다.The function activation event detection unit 102 reads out the image data stored in the first frame memory 122 every predetermined period (for example, one second) and compares the image data with the gesture pattern data stored in the ROM 72, And judges whether the gesture is taken. If it is determined that the user has taken the gesture and remains for a predetermined time or more, the function activation event detection unit 102 determines that the user requests the function activation and requests the main control unit 100 to activate the control function.

기준점 화소 검출부(104)는 제1 이미지센서(54a)에 의해 촬상된 현재 프레임의 화상 데이터를 제1 프레임 메모리(122)로부터 독출하고, 이 화상(도 5의 154a) 내에서 객체인 사용자의 윤곽선을 검출하고, 이 윤곽선을 메모리(70)에 저장된 패턴과 비교함으로써, 화상 내에서 제1 기준점에 해당하는 화소(도 5의 155a)의 위치를 결정한다. 여기서, 제1 기준점이란 사용자의 신체에서 양손 중 화면에 가까운 손의 손가락 끝점, 특히 뻗쳐져 있는 손가락 또는 집게손가락의 끝점을 말한다. 윤곽선 검출이나 패턴 비교는 기존에 다양한 방법이 제시되어 있고 본 발명이 속하는 기술분야에서 당업자가 용이하게 구현할 수 있으므로 이에 대한 상세한 설명은 생략한다.The reference point pixel detection unit 104 reads the image data of the current frame captured by the first image sensor 54a from the first frame memory 122 and outputs the outline of the user, which is an object in this image (154a in Fig. 5) And the position of the pixel (155a in Fig. 5) corresponding to the first reference point in the image is determined by comparing this contour with the pattern stored in the memory 70. Fig. Here, the first reference point refers to a finger end point of a hand, particularly a stretched finger or an index finger of a hand, near the screen of both hands of the user's body. Various methods for contour detection and pattern comparison have been proposed, and a detailed description thereof will be omitted because those skilled in the art can easily implement the present invention.

마찬가지 방법으로, 기준점 화소 검출부(104)는 제2 이미지센서(54b)에 의해 촬상된 현재 프레임의 화상 데이터를 제3 프레임 메모리(126)로부터 독출하고, 이 화상(도 5의 154b) 내에서 제1 기준점에 해당하는 화소(도 5의 155b)의 위치를 결정한다. 나아가, 기준점 화소 검출부(104)는 제1 및 제2 이미지센서(54a, 54b)에 의해 각각 촬상된 화상(도 5의 154a, 154b) 내에서 사용자의 좌우측 안구 중심에 해당하는 화소들의 위치를 결정한다. 그리고, 각 화상에서 좌우측 안구 중심에 해당하는 화소들의 위치를 평균하여, 제2 기준점 즉 좌우측 안구 중심의 중점 내지 미간 중심점에 해당하는 화소의 위치를 결정한다.Similarly, the reference point pixel detection section 104 reads the image data of the current frame captured by the second image sensor 54b from the third frame memory 126, The position of the pixel (155b in Fig. 5) corresponding to one reference point is determined. Further, the reference point pixel detection unit 104 determines the positions of pixels corresponding to the left and right eyeball centers of the user in the images (154a and 154b in Fig. 5) respectively captured by the first and second image sensors 54a and 54b do. The positions of the pixels corresponding to the centers of the left and right eyeballs in each image are averaged to determine the positions of the pixels corresponding to the second reference point, that is, the center of gravity of the left and right eyeball centers.

포인터 위치 결정부(106)는 제1 및 제2 이미지센서(54a, 54b)에 의해 각각 촬상된 화상(도 5의 154a, 154b) 내에서 제1 및 제2 기준점에 해당하는 화소(도 5의 155a, 55b)의 위치 데이터를 기준점 화소 검출부(104)로부터 받아들이고, 이 데이터들을 사용하여 제1 기준점 Pf(Xf,Yf,Zf) 및 제2 기준점 Peye(Xeye,Yeye,Zeye)의 공간좌표를 계산한다. 그리고, 포인터 위치 결정부(106)는 제1 기준점 Pf(Xf,Yf,Zf) 및 제2 기준점 Peye(Xeye,Yeye,Zeye)의 공간좌표를 사용하여, 디스플레이 표시면(52)에서의 포인터 위치 Ppoint(Xpoint,Ypoint,0)를 결정한다.The pointer positioning unit 106 determines the positions of the pixels corresponding to the first and second reference points in the image (154a, 154b in Fig. 5) respectively picked up by the first and second image sensors 54a, 54b 155a and 55b from the reference point pixel detection unit 104 and calculates the spatial coordinates of the first reference point Pf (Xf, Yf, Zf) and the second reference point Peye (Xeye, Yeye, Zeye) do. The pointer position determination unit 106 determines the pointer position on the display screen 52 using the spatial coordinates of the first reference point Pf (Xf, Yf, Zf) and the second reference point Peye (Xeye, Yeye, Zeye) Ppoint (Xpoint, Ypoint, 0) is determined.

이를 위하여, 포인터 위치 결정부(106)는 먼저 제1 이미지센서(54a)에 의해 촬상된 화상(154a)에 대하여, 제1 기준점 즉 손가락 끝점에 해당한다고 결정된 화소(155a)의 위치를 토대로, 해당 화소에 상이 맺힐 수 있는 점들의 위치를 기술하는 가상의 직선(156a)의 방정식을 계산한다. 또한, 포인터 위치 결정부(106)는 제2 이미지센서(54b)에 의해 촬상된 화상(154b)에 대하여, 화상 내에서 제1 기준점에 해당한다고 결정된 화소(155b)의 위치를 토대로, 해당 화소에 상이 맺힐 수 있는 점들의 위치를 기술하는 가상의 직선(156b)의 방정식을 계산한다. 그 다음, 포인터 위치 결정부(106)는 두 직선의 교점을 결정한다. 교점 결정은, 두 직선(156a, 156b)의 방정식을 대수적으로 연립하여 풀어서 이루어질 수도 있지만, 계산 오류를 감안하여 수치해석적으로 예컨대 반복법(iteration)에 의하여 각각의 직선에서 상 대 직선과 가장 거리가 가까운 점들을 결정하고 그 중점을 계산하여 결정하는 것이 바람직하다. 이 교점이 제1 기준점 Pf(Xf,Yf,Zf)이 된다. 그리고, 제2 기준점 Peye(Xeye,Yeye,Zeye) 즉, 사용자의 미간 중심점도 이와 유사한 방식으로 결정할 수 있다.For this purpose, the pointer positioning unit 106 firstly calculates the position of the pixel 155a determined to correspond to the first reference point, that is, the finger end point, with respect to the image 154a picked up by the first image sensor 54a An equation of a hypothetical straight line 156a describing the positions of the points at which images can be formed in the pixel is calculated. The pointer positioning unit 106 also determines the position of the pixel 155b determined to correspond to the first reference point in the image with respect to the image 154b picked up by the second image sensor 54b, An equation of a hypothetical straight line 156b describing the positions of points at which an image can be formed is calculated. Then, the pointer positioning unit 106 determines the intersection of two straight lines. The intersection determination may be performed by solving the equations of the two straight lines 156a and 156b in an algebraic manner and solving them. However, taking the calculation error into consideration, it is necessary to numerically analyze, for example, iteration to make the distance from the straight line It is desirable to determine nearby points and calculate their center point. This intersection becomes the first reference point Pf (Xf, Yf, Zf). Also, the second reference point Peye (Xeye, Yeye, Zeye), that is, the center-of-gravity point of the user, can be determined in a similar manner.

나아가, 포인터 위치 결정부(106)는 도 1에 도시된 바와 같이 두 기준점 Pf(Xf,Yf,Zf), Peye(Xeye,Yeye,Zeye)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 지점의 좌표(Xpoint,Ypoint,0)를 결정하고, 이 점을 사용자가 포인팅하고자 의도하는 점이라고 추정한다.1, a virtual straight line connecting the two reference points Pf (Xf, Yf, Zf), Peye (Xeye, Yeye, Zeye) is displayed on the display display surface 52 The coordinates (Xpoint, Ypoint, 0) of the meeting point are determined, and this point is assumed to be a point that the user intends to point to.

포인터 표시 제어부(108)는, 주 제어부(100)의 메뉴 활성화 지시신호에 응답하여, 선택제어신호를 영상신호 처리부(40)에 출력함과 아울러, 디스플레이(50) 상에서 OSD 조정메뉴가 방송영상에 중첩되어 표시되도록 OSD 조정메뉴 데이터를 영상신호 처리부(40)에 제공한다. 도 1에 도시된 바와 같이, OSD 조정메뉴는 '채널업(+)' 아이콘(56a), '채널다운(-)' 아이콘(56b), '볼륨업(+)' 아이콘(56c), '볼륨다운(-)' 아이콘(56d), 볼륨 레벨 인디케이터(56e), '전원 온/오프' 아이콘(56f)을 포함하며, 그밖에 수신기 기능조정 아이콘이나, 'OSD 조정메뉴 끝내기' 아이콘을 추가로 포함할 수 있다. 포인터가 표시될 때에는, 포인팅 지점에 위치하는 아이콘이 색상이나 명도 또는 채도에 있어 두드러지게 강조되어 표시된다. 그리고, 주 제어부(100)를 통하여 또는 포인터 위치 결정부(106)로부터 직접 포인터 좌표 데이터를 수신하면, 새로운 포인터 좌표에 맞추어 OSD 조정메뉴 데이터를 갱신하여 영상신호 처리부(40)에 제공한다.The pointer display control unit 108 outputs the selection control signal to the video signal processing unit 40 in response to the menu activation instruction signal of the main control unit 100 and displays the OSD adjustment menu on the display 50 And provides the OSD adjustment menu data to the video signal processing unit 40 so as to be superimposed and displayed. As shown in FIG. 1, the OSD adjustment menu includes a 'channel up (+)' icon 56a, a 'channel down (-)' icon 56b, a ' Icon 56d, a volume level indicator 56e and a power on / off icon 56f, and further includes a receiver function adjustment icon or an 'OSD adjustment menu end' icon . When the pointer is displayed, the icon located at the point of the point is highlighted in color, brightness, or saturation. When the pointer coordinate data is directly received through the main control unit 100 or from the pointer positioning unit 106, the OSD adjustment menu data is updated in accordance with the new pointer coordinates and provided to the video signal processing unit 40. [

선택 이벤트 검출부(110)는 사용자가 포인터 위치에 상응한 기능조정을 요구하는 선택 이벤트가 발생하는지를 모니터링하고, 선택 이벤트가 발생하는 경우 주 제어부(102)로 하여금 해당 기능조정을 위한 프로세스를 실행해줄 것을 요구하게 된다. 바람직한 실시예에 있어서, 선택 이벤트는 사용자가 전방의 가상 버튼을 누르듯이 집게손가락 끝을 앞으로 구부리는 것, 즉 허공에 대한 클릭을 검출하는 것으로 정해진다. 이와 같이 사용자가 허공에 클릭하는 순간, 도 6에 도시된 바와 같이, 손가락 끝 좌표는 높이가 낮아지거나 화면쪽으로 이동하거나 또는 양자가 모두 발생하게 된다.The selection event detection unit 110 monitors whether a selection event that requires a function adjustment corresponding to a pointer position is generated by the user and causes the main control unit 102 to execute a process for adjusting the function when a selection event occurs . In a preferred embodiment, the selection event is set to detect a user bending forward the forefinger tip, i.e., a click on the air, as if pressing the virtual button ahead. 6, the fingertip coordinates are either lowered in height, moved toward the screen, or both occur at the moment when the user clicks in the air.

도 7은 선택 이벤트 검출 과정의 일 실시예를 보여준다. 본 실시예에 있어서, 선택 이벤트 검출부(110)는 기준점 화소 검출부(104)로부터 프레임 단위로 제1 기준점 즉, 손가락 끝점 데이터를 받아들여 RAM(74)에 저장한다(제200단계). 한편, 선택 이벤트 검출부(110)는 제1 및 제2 프레임 메모리(122, 124)로부터의 화상 데이터를 받아들이고, 손의 윤곽선을 추출한 후 윤곽선 상의 특징점 또는 중심점의 위치를 저장해둔다(제202단계). 선택 이벤트 검출부(110)는 기준점 화소 검출부(104)로부터 받아들인 좌표로부터 전후방향(z축 방향) 및 상하방향(y축 방향)의 프레임간 좌표 변화량을 계산한 후, 일정 시간(예컨대 0.5초) 동안의 누적 좌표변화량을 계산한다(제204단계). 그리고, 선택 이벤트 검출부(110)는 전후방향(z축 방향) 또는 상하방향(y축 방향)의 누적 좌표변화량(ΔZf, ΔYf)이 각각 기준치(TH1, TH2)보다 큰 지를 판단한다(제206단계). 만약 전후방향(z축 방향)과 상하방향(y축 방향)의 누적 좌표변화량(ΔZf, ΔYf)이 모두 각각의 기준치(TH1, TH2)보 다 작다면, 제어명령 비활성화 명령이 인가되지 않는 한 검출 프로세스는 제200단계로 복귀한다(제214단계).FIG. 7 shows an embodiment of a selection event detection process. In this embodiment, the selection event detection unit 110 receives the first reference point, that is, the finger end point data, in units of frames from the reference point pixel detection unit 104, and stores it in the RAM 74 (operation 200). On the other hand, the selection event detection unit 110 receives the image data from the first and second frame memories 122 and 124, extracts the outline of the hand, and stores the position of the feature point or the center point on the contour line in operation 202. The selected event detection unit 110 calculates a frame change amount between frames in the forward and backward directions (z-axis direction) and the vertical direction (y-axis direction) from the coordinates received from the reference point pixel detection unit 104, Is calculated (Step 204). The selected event detection unit 110 determines whether the cumulative coordinate change amounts DELTA Zf and DELTA Yf in the forward and backward directions (z-axis direction) or the vertical direction (y-axis direction) are larger than the reference values TH1 and TH2 ). If the cumulative coordinate change amounts DELTA Zf and DELTA Yf in the forward and backward directions (z-axis direction) and the vertical direction (y-axis direction) are both smaller than the respective reference values TH1 and TH2, The process returns to operation 200 (operation 214).

한편, 제206단계에서 전후방향(z축 방향) 또는 상하방향(y축 방향)의 누적 좌표변화량(ΔZf, ΔYf)이 각각 기준치(TH1, TH2)보다 크다고 판단된 경우, 선택 이벤트 검출부(110)는 해당 시간동안의 윤곽선 이동량을 계산하고, 윤곽선 이동량이 일정 기준치(TH3)보다 작은 지를 판단한다(제208단계, 제210단계). 만약 제210단계에서 윤곽선 이동량이 기준치(TH3)보다 작다고 판단되면, 선택 이벤트 검출부(110)는 손이 전체적으로 움직이지 않은 상태에서 손가락만 클릭했다고 간주하고 선택 이벤트 발생신호를 주 제어부(100)로 송신한다(제212단계). 그렇지만, 제210단계에서 윤곽선 이동량이 기준치(TH3)보다 크다고 판단된 경우에는, 선택 이벤트 검출부(110)는 포인팅을 위하여 손이 전체적으로 이동하였다고 보고 선택 이벤트 발생신호를 송신하지 않는다. 주 제어부(100)로부터 제어명령 비활성화 명령이 인가되지 않는 한, 이 프로세스가 반복적으로 수행된다.On the other hand, if it is determined in step 206 that the cumulative coordinate change amounts DELTA Zf and DELTA Yf in the forward and backward directions (z-axis direction) or up and down directions (y-axis direction) are larger than the reference values TH1 and TH2, (Step 208, step 210). The contour movement amount is calculated based on the contour movement amount. If it is determined in operation 210 that the movement amount of the outline is smaller than the reference value TH3, the selection event detection unit 110 regards that only the finger is clicked in a state where the hand does not move as a whole and transmits a selection event generation signal to the main control unit 100 (Operation 212). However, if it is determined in operation 210 that the movement amount of the outline is larger than the reference value TH3, the selection event detection unit 110 does not transmit the selection event generation signal because the hand has moved overall for pointing. This process is repeatedly performed unless a control command deactivation command is applied from the main control unit 100. [

선택 이벤트 검출부(110)로부터 선택 이벤트 검출 신호를 수신하면, 주 제어부(100)는 포인터 주변의 아이콘에 해당하는 기능조정이 이루어지도록 동작제어부(112)에게 기능조정을 지시한다. 이에 따라, 동작 제어부(112)는 튜너(12), 음성증폭기(미도시됨) 등 수신기 요소들의 동작을 제어하여 사용자가 의도한 기능조정이 이루어지도록 한다.Upon receiving the selection event detection signal from the selection event detection unit 110, the main control unit 100 instructs the operation control unit 112 to perform the function adjustment corresponding to the icon around the pointer. Accordingly, the operation control unit 112 controls the operation of the receiver elements such as the tuner 12 and the voice amplifier (not shown) so that the user can perform the intended function adjustment.

기능비활성화 이벤트 검출부(114)는 본 발명에 의한 제어기능을 종료하기 위한 기능비활성화 이벤트가 발생하는지를 모니터링하고, 기능비활성화 이벤트가 발 생하는 경우 주 제어부(102)에 기능비활성화 이벤트 발생신호를 송신한다. 기능비활성화 이벤트의 예로는 예컨대 5초 이상의 시간동안 손가락의 움직임이 없는 것을 들 수 있다.The function deactivation event detector 114 monitors whether a function deactivation event for terminating the control function according to the present invention is generated and transmits a function deactivation event generation signal to the main controller 102 when a function deactivation event occurs. An example of a function deactivation event is that there is no finger movement for a time of 5 seconds or more, for example.

본 발명에 의한 디지털텔레비전 수신기는 다음과 같이 동작한다.The digital television receiver according to the present invention operates as follows.

도 8은 본 발명에 의한 디지털텔레비전 수신기에서 제어기능의 전체적인 흐름을 보여준다.8 shows the overall flow of the control function in the digital television receiver according to the present invention.

방송시청 중에 또는 인터넷 사용 중에 사용자는 기능 활성화를 위한 요건으로 사전에 정해진 이벤트를 발생시킴으로써 본 발명에 의한 제어기능을 활성화시켜 편리하게 수신기의 기능을 조정할 수 있다. 이러한 기능활성화 이벤트는 일정한 패턴의 제스쳐, 예컨대 한 눈을 감아 윙크하는 것, 얼굴의 특정 부위에 손바닥 또는 주먹을 가져다대고 있는 것, 손가락으로 또는 손바닥을 모니터 쪽으로 향하게 가리키고 있는 것 등의 제스쳐를 일정 시간(예컨대 3초 이상의 시간)동안 취하는 것으로 정해질 수 있음은 위에서 설명한 바와 같다.The user can conveniently adjust the function of the receiver by activating the control function according to the present invention by generating a predetermined event as a requirement for activating the function during watching the broadcast or using the Internet. Such a function activation event may be a gesture of a certain pattern, such as winking a single eye, bringing a palm or fist to a specific part of the face, pointing a finger or palm toward the monitor, (E.g., a time of 3 seconds or more).

전원이 켜져 있는 한, 수신기는 이미지센서(54a, 54b)를 통하여 수신기 전방의 화상을 계속 획득하면서, 위와 같은 기능활성화 이벤트가 발생하는지 모니터링한다(제300단계). 기능활성화 이벤트가 발생하면, 시스템 제어부(60)는 수신기가 방송수신 모드를 수행하고 있는지, 인터넷 모드를 수행하고 있는지를 판단한다(제302단계). 만약, 수신기가 방송수신 모드를 수행하고 있는 상태였다면, 시스템 제어부(60)는 방송수신 제어프로세스를 수행한다(제304단계). 이에 반하여, 수신기가 인터넷 모드를 수행하고 있었다면, 시스템 제어부(60)는 인터넷 브라우징 제어 프로세스를 수행한다(제306단계).As long as the power is on, the receiver continues to acquire the image in front of the receiver through the image sensors 54a and 54b, and monitors whether the above-mentioned function activation event occurs (operation 300). When the function activation event occurs, the system controller 60 determines whether the receiver is performing the broadcast reception mode or the Internet mode (operation 302). If the receiver is in the broadcast reception mode, the system controller 60 performs a broadcast reception control process (operation 304). On the other hand, if the receiver is performing the Internet mode, the system control unit 60 performs an Internet browsing control process (operation 306).

도 9는 도 8에 도시된 방송수신 제어프로세스(제304단계)를 보여준다.FIG. 9 shows a broadcast reception control process shown in FIG. 8 (Step 304).

포인터 표시 제어부(108)는 OSD 조정메뉴 데이터를 영상신호 처리부(40)에 제공하는 한편 선택제어신호를 출력하여, 영상신호 처리부(40)가 방송영상에 OSD 조정메뉴가 중첩된 영상을 디스플레이(50)를 통해 출력하도록 한다(제320단계). 이와 같은 상태에서, 포인터 위치 결정부(106)는 사용자가 포인팅하고자 의도하는 위치를 추정하여 포인터 위치로 결정하고, 결정된 포인터 위치에 포인터를 표시한다(제322단계).The pointer display control unit 108 provides the OSD adjustment menu data to the video signal processing unit 40 and outputs a selection control signal so that the video signal processing unit 40 displays the video on which the OSD adjustment menu is superimposed on the broadcast video, ) (Step 320). In this state, the pointer positioning unit 106 estimates a position that the user intends to point to and determines a pointer position, and displays a pointer at the determined pointer position (operation 322).

포인터 위치 결정 과정을 도 10을 참조하여 보다 구체적으로 설명한다.The pointer positioning process will be described in more detail with reference to FIG.

제1 및 제2 이미지센서(54a, 54b)는 지속적으로 화상이 획득하여 프레임 메모리(122, 126)에 저장한다(제340단계). 기준점 화소 검출부(104)는 제1 및 제2 이미지센서(54a, 54b)에 의해 촬상된 화상 내에서, 제1 기준점 즉, 사용자의 집게손가락 끝점에 해당하는 화소(도 5의 155a, 155b)의 위치를 결정하고, 마찬가지로 제2 기준점 즉, 미간 중심점에 해당하는 해당하는 화소의 위치를 결정한다. 포인터 위치 결정부(106)는 이 화소들의 위치 데이터를 사용하여 제1 기준점 Pf(Xf,Yf,Zf) 및 제2 기준점 Peye(Xeye,Yeye,Zeye)의 공간좌표를 계산한다(제342단계, 제344단계). 그리고, 포인터 위치 결정부(106)는 제1 기준점 Pf(Xf,Yf,Zf) 및 제2 기준점 Peye(Xeye,Yeye,Zeye)의 공간좌표를 사용하여, 디스플레이 표시면(52)에서의 포인터 좌표 Ppoint(Xpoint,Ypoint,0)를 결정한다(제346단계). 포인터 좌표가 결정되면, 포인터 표시 제어부(108)는 새로운 포인터 좌표에 맞게 OSD 조정메 뉴 데이터를 갱신하여 영상신호 처리부(40)에 제공한다. 이에 따라, 화면상에서 갱신된 포인터 좌표에 해당하는 위치에 포인터가 표시되고, 포인터 주위에 있는 메뉴항목 하이이콘이 색상이나 명도 또는 채도에 있어 두드러지게 강조되어 표시된다(제348단계).The first and second image sensors 54a and 54b continuously acquire images and store them in the frame memories 122 and 126 (operation 340). The reference point pixel detection unit 104 detects the first reference point, that is, the pixels (155a and 155b in Fig. 5) corresponding to the user's forefinger end points in the image captured by the first and second image sensors 54a and 54b And determines the position of the corresponding pixel corresponding to the second reference point, that is, the center point between the weights. The pointer position determination unit 106 calculates the spatial coordinates of the first reference point Pf (Xf, Yf, Zf) and the second reference point Peye (Xeye, Yeye, Zeye) using the position data of the pixels (Step 342, Step 344). The pointer position determination unit 106 determines the coordinates of the pointer on the display screen 52 using the spatial coordinates of the first reference point Pf (Xf, Yf, Zf) and the second reference point Peye (Xeye, Yeye, Zeye) Ppoint (Xpoint, Ypoint, 0) is determined (operation 346). When the pointer coordinates are determined, the pointer display control unit 108 updates the OSD adjustment menu data in accordance with the new pointer coordinates and provides the OSD adjustment menu data to the video signal processing unit 40. [ Accordingly, the pointer is displayed at a position corresponding to the pointer coordinates updated on the screen, and the menu item highlight icon around the pointer is highlighted and emphasized in hue, brightness, or saturation (Step 348).

다시 도 9를 참조하면, 제322단계에서 포인팅하고자 하는 위치에 포인터가 표시되면, 사용자는 선택 이벤트를 발생시킴으로써 즉, 손가락으로 허공에 클릭을 함으로써, 포인터가 위치하고 있는 지점과 관련된 아이콘을 선택하여, 이 아이콘에 해당하는 조정기능을 실행시킬 수 있다. 시스템 제어부(60)의 선택 이벤트 검출부(110)는 선택 이벤트가 발생하면(제324단계), 선택 이벤트 발생신호를 주 제어부(100)에 출력한다. 주 제어부(100)는 동작 제어부(112)로 하여금 음성증폭기 또는 튜너를 제어하도록 함으로써 해당 조정기능이 실행될 수 있도록 한다(제326단계). 이에 따라 사용자가 의도하는 기능이 손쉽게 구현될 수 있다. 한편, 사용자가 조정기능을 이용하던 중에 일정 시간동안 손가락을 움직이지 않거나 화면상의 'OSD 조정메뉴 끝내기' 아이콘을 선택하면(328), 비활성화 이벤트 검출부(114)는 비활성화 이벤트 검출신호를 주 제어부(100)에 출력한다. 이 신호에 응답하여, 주 제어부(100)는 포인터 표시 제어부(108)를 제어하여 OSD 조정메뉴가 소거되도록 하고, 기준점 화소 검출부(104), 포인터 위치 결정부(106), 포인터 표시 제어부(108), 및 선택 이벤트 검출부(110)를 대기모드로 전환시킨다.Referring again to FIG. 9, when a pointer is displayed at a position to be pointed in operation 322, the user selects an icon related to a point where the pointer is located by generating a selection event, that is, The adjustment function corresponding to this icon can be executed. The selection event detection unit 110 of the system control unit 60 outputs a selection event generation signal to the main control unit 100 when a selection event occurs (operation 324). The main control unit 100 allows the operation control unit 112 to control the voice amplifier or the tuner so that the corresponding adjustment function can be executed (operation 326). Accordingly, a function intended by the user can be easily implemented. On the other hand, if the user does not move his / her finger for a predetermined period of time while using the adjustment function or selects the 'OSD adjustment menu end' icon on the screen 328, the deactivation event detection unit 114 outputs a deactivation event detection signal to the main control unit 100 . In response to this signal, the main control unit 100 controls the pointer display control unit 108 so that the OSD adjustment menu is erased, and the reference point pixel detection unit 104, the pointer positioning unit 106, the pointer display control unit 108, And the selection event detection unit 110 to the standby mode.

도 11은 도 8에 도시된 인터넷 브라우징 제어프로세스(제306단계)를 보여준다.Fig. 11 shows the Internet browsing control process shown in Fig. 8 (Step 306).

인터넷TV 모드에서, 주 제어부(100)는 네트웍 인터페이스(80)를 통해 수신되는 인터넷 콘텐츠 데이터를 영상신호 처리부(40)에 제공하며, 이에 따라 인터넷 콘텐츠가 디스플레이(50)에 표시된다(제360단계). 이와 같은 상태에서, 제어기능이 활성화되면, 포인터 위치 결정부(106)는 사용자가 포인팅하고자 의도하는 위치를 추정하여 포인터 위치로 결정하고, 결정된 포인터 위치에 포인터를 표시한다(제362단계). 포인터 위치를 결정하는 과정을 도 10과 관련하여 위에서 설명한 것과 같다. 포인팅하고자 하는 위치에 포인터가 표시되면, 사용자는 선택 이벤트를 발생시킬 수 있다. 시스템 제어부(60)의 선택 이벤트 검출부(110)는 선택 이벤트가 발생하면(제364단계), 선택 이벤트 발생신호를 주 제어부(100)에 출력한다. 주 제어부(100)는 디스플레이(50) 표시면 상에서 현재의 포인팅 위치에 있는 하이퍼링크 내지 메뉴항목을 추출하고, 추출된 하이퍼링크 내지 메뉴항목에 상응하는 콘텐츠를 이와 관련된 서버에 요구한다(제366단계). 제368단계에서 네트웍 인터페이스(80)를 통해 콘텐츠를 수신하면, 주 제어부(100)는 수신된 콘텐츠가 디스플레이(50)에 표시되도록 한다. 한편, 사용자가 화면상의 'OSD 조정메뉴 끝내기' 아이콘을 선택하면(328), OSD 조정메뉴 또는 인터넷TV 모드 자체가 종료된다(제370단계).In the Internet TV mode, the main control unit 100 provides the Internet content data received via the network interface 80 to the video signal processing unit 40, thereby displaying the Internet content on the display 50 ). In this state, when the control function is activated, the pointer positioning unit 106 estimates a position that the user intends to point to and determines a pointer position, and displays a pointer at the determined pointer position (operation 362). The process of determining the pointer position is the same as described above with reference to FIG. When a pointer is displayed at a point to be pointed, the user can generate a selection event. The selection event detection unit 110 of the system control unit 60 outputs a selection event generation signal to the main control unit 100 when a selection event occurs (operation 364). The main control unit 100 extracts a hyperlink or a menu item at the current pointing position on the display 50 display face and requests the server related to the content corresponding to the extracted hyperlink or menu item ). In step 368, when the content is received via the network interface 80, the main control unit 100 causes the received content to be displayed on the display 50. [ On the other hand, if the user selects the 'exit OSD adjustment menu' icon on the screen (328), the OSD adjustment menu or the Internet TV mode itself is terminated (operation 370).

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.

예컨대, 이상의 설명에서는 디지털텔레비전 수신기를 중심으로 본 발명의 바람직한 실시예를 설명하였지만, 본 발명은 이에 한정되지 않고 여타의 이미지 디스 플레이 장치에도 동일하게 적용할 수 있다. 이와 같은 장치로는 예컨대, 아날로그텔레비전 수신기, 텔레비전 신호 수신 기능이 없이 복합영상신호 또는 비디오 비트스트림을 받아들여 표시하는 모니터, 프리젠테이션용 프로젝터, PC 및 여타의 정보기기 등을 들 수 있는데, 이에 한정되는 것은 아니다. 나아가, 본 발명은 디스플레이 유닛을 구비하고 사용자가 조작명령을 인가할 수 있는 여타의 전자장치에도 유사하게 적용할 수 있다.For example, although the preferred embodiments of the present invention have been described above with reference to a digital television receiver, the present invention is not limited thereto and can be applied to other image display apparatuses as well. Such an apparatus includes, for example, an analog television receiver, a monitor for receiving and displaying a composite video signal or a video bit stream without the function of receiving a television signal, a projector for presentation, a PC, and other information devices. It is not. Further, the present invention is similarly applicable to other electronic apparatuses having a display unit and to which a user can apply operation commands.

한편, 이상의 설명에서는 집게손가락의 끝점(Pf)을 제1 기준점으로 하고, 좌우측 안구 중심의 중점(Peye) 내지 미간 중심점을 제2 기준점으로 하여, 포인터 좌표 (Xpoint,Ypoint,0)를 결정하였지만, 본 발명의 다른 실시예에 있어서는 미간 중심점이 아닌 다른 몸체 부분 예컨대 어느 한쪽 눈의 안구 중심, 어깨 윤곽선 상의 한 점, 머리 상단 끝점 등을 제2 기준점으로 할 수도 있다.In the above description, the coordinates (Xpoint, Ypoint, 0) of the pointer are determined by using the forefinger's end point Pf as the first reference point and the middle point Peye to the right and left eye center as the second reference point. In another embodiment of the present invention, the second reference point may be a body portion other than the center point between the eyes, for example, an eyeball center of one eye, a point on the shoulder contour, or an upper end of the head.

다른 한편으로, 이상의 설명에서는, 도 12a와 같이, 집게손가락의 끝점(Pf)과 미간 중심점(Peye)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 점(Ppoint)을 포인팅 지점으로 결정하게 되면, 포인팅하는 손에 의해 화면 일부가 가리게 되어, 사용자에게 불편함을 야기할 수 있다. 이를 감안하여, 본 발명의 다른 실시예에 있어서는, 도 12b와 같이 제1 기준점(Pf)보다 일정한 옵셋(D1)만큼 위에 보조기준점(Pfup)을 상정하고, 이 보조기준점(Pfup)과 제2 기준점(Peye)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 점(Ppoint2)을 포인팅 지점으로 결정할 수도 있다. 또 다른 실시예에 있어서는, 도 12c와 같이 제2 기준점(Peye)보다 일정한 옵셋(D2)만큼 아래에 보조기준점(Peyedown)을 상정하고, 제1 기준점(Pf)과 보조기준점(Peyedown)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 점(Ppoint2)을 포인팅 지점으로 결정할 수도 있다. 또 다른 실시예에 있어서는, 도 12d와 같이 제1 기준점(Pf)과 제2 기준점(Peye)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 점(Ppoint)을 결정한 후, 이보다 일정한 옵셋(D3)만큼 위에 있는 점(Ppoint3)을 포인팅 지점으로 결정할 수도 있다. 이와 같은 변형된 실시예들에 따르면, 사용자가 포인팅할 때 손에 의해 화면이 가리는 문제가 없게 되며, 손을 높게 들지 않아도 되기 때문에 포인팅이 더욱 손쉬워진다는 장점이 있다.On the other hand, in the above description, as shown in Fig. 12A, a point (Ppoint) at which a virtual straight line connecting the end point Pf of the forefinger and the center of gravity Peye meets the display screen 52 is determined as a pointing point , A part of the screen is covered by the pointing hand, which may cause inconvenience to the user. 12B, the auxiliary reference point Pfup is assumed to be offset by an offset D1 which is more constant than the first reference point Pf, and the auxiliary reference point Pfup and the second reference point Pfup, (Ppoint2) at which a virtual straight line connecting the display surface (Peye) meets the display screen (52) as the pointing point. In another embodiment, the auxiliary reference point Peyedown is assumed to be below the offset D2 which is more constant than the second reference point Peye, and the first reference point Pf and the auxiliary reference point Peyedown are connected to each other The point Ppoint2 at which the virtual straight line meets the display screen 52 may be determined as the pointing point. 12D, after determining a point (Ppoint) at which a virtual straight line connecting the first reference point Pf and the second reference point Peye with the display display surface 52 meets, (Ppoint3) which is higher than the point (D3) as the pointing point. According to such modified embodiments, there is no problem that the screen is covered by the hand when the user is pointing, and there is an advantage that the pointing becomes easier because the user does not need to raise the hand.

이와 같이, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

도 1은 본 발명에 의한 디지털텔레비전 수신기에서 사용자가 화면상의 한 지점을 포인팅하는 예를 개념적으로 보여주는 도면.BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a conceptual illustration of an example in which a user points to a point on a screen in a digital television receiver according to the present invention; Fig.

도 2a 및 도 2b는 일 실시예에 있어서 기준점들의 좌표를 결정하는데 사용되는 좌표계를 예시하는 도면.Figures 2a and 2b illustrate a coordinate system used to determine the coordinates of reference points in one embodiment.

도 3은 본 발명에 의한 디지털텔레비전 수신기의 일 실시예의 블록도.3 is a block diagram of one embodiment of a digital television receiver according to the present invention;

도 4는 도 3에 도시된 시스템 제어부에서 실행되는 프로그램 모듈의 상세 블록도.FIG. 4 is a detailed block diagram of a program module executed in the system control unit shown in FIG. 3;

도 5는 제어부에서 제1 기준점 또는 제2 기준점의 위치를 결정하는 과정을 설명하기 위한 도면.5 illustrates a process of determining a position of a first reference point or a second reference point in a control unit.

도 6은 사용자가 허공에 클릭하는 순간의 손가락 변화를 보여주는 도면.6 is a diagram showing a finger change at the moment the user clicks on the air.

도 7은 선택 이벤트 검출 과정의 일 실시예를 보여주는 흐름도.7 is a flow chart showing an embodiment of a selection event detection process.

도 8은 본 발명에 의한 디지털텔레비전 수신기에서 제어기능의 전체적인 흐름을 보여주는 흐름도.8 is a flow chart showing the overall flow of control functions in a digital television receiver according to the present invention;

도 9는 방송수신 제어프로세스를 보여주는 흐름도.9 is a flowchart showing a broadcast reception control process;

도 10은 도 9의 프로세스에서 포인터 위치 결정 및 표시 단계를 구체적으로 보여주는 흐름도.10 is a flow chart specifically illustrating pointer positioning and display steps in the process of FIG. 9;

도 11은 인터넷 브라우징 제어프로세스를 보여주는 흐름도.11 is a flow chart showing an Internet browsing control process;

도 12a 내지 도 12d는 표시면 상의 포인팅 지점을 결정하는 예들을 설명하기 위한 도면.12A to 12D are diagrams for explaining examples for determining a pointing point on a display surface;

Claims (35)

표시면을 구비하는 디스플레이 유닛;A display unit having a display surface; 소정 포맷의 비디오 신호를 상기 디스플레이 유닛에 제공하여 상기 비디오 신호에 상응한 영상이 상기 표시면에 표시되도록 하는 영상신호 처리부;A video signal processor for providing a video signal of a predetermined format to the display unit so that an image corresponding to the video signal is displayed on the display screen; 상기 표시면 전방을 촬상하는 이미지 캡쳐 유닛; 및An image capturing unit for capturing an image in front of the display surface; And 상기 이미지 캡쳐 유닛이 촬상한 이미지를 사용하여, 상기 표시면 전방에 있는 사용자의 손에 대응되는 제1 기준점 및 상기 사용자의 몸체에 대응되는 제2 기준점 각각의 위치를 결정하고, 상기 제1 및 제2 기준점 각각의 위치와 관련된 보조기준점을 활용하여 상기 사용자에 의한 포인팅 지점을 추정하며, 상기 표시면 상에서 상기 추정된 포인팅 지점에 소정의 포인터가 표시되도록 상기 영상신호 처리부를 제어하는 제어부를 포함하고,A first reference point corresponding to a user's hand on the front of the display surface and a second reference point corresponding to the user's body using the image captured by the image capture unit, A control unit for estimating a pointing point by the user using an auxiliary reference point associated with each of the two reference points and controlling the video signal processing unit to display a predetermined pointer on the estimated pointing point on the display surface, 상기 포인팅 지점은,The pointing point, 상기 제1 기준점으로부터 기 설정된 거리만큼 위에 위치한 제1 보조기준점과 상기 제2 기준점을 연결하는 가상의 직선이 상기 표시면과 만나는 지점 또는 상기 제1 기준점과 상기 제2 기준점으로부터 기 설정된 거리만큼 아래에 위치한 제2 보조기준점을 연결하는 가상의 직선이 상기 표시면과 만나는 지점인 것을 특징으로 하는 이미지 디스플레이 장치.A first auxiliary reference point located at a predetermined distance from the first reference point and a virtual straight line connecting the second reference point meet at a predetermined distance from the first reference point and the second reference point, And wherein a virtual straight line connecting the second auxiliary reference point located at a position where the second auxiliary reference point is located meets the display surface. 청구항 1에 있어서,The method according to claim 1, 방송신호를 수신하고, 상기 수신된 방송신호를 복조하고 복호화하여 비디오 비트스트림을 출력하는 방송신호 수신부;A broadcast signal receiving unit for receiving a broadcast signal, demodulating and decoding the received broadcast signal, and outputting a video bit stream; 를 더 구비하며,Respectively, 상기 영상신호 처리부는 상기 비디오 비트스트림을 상기 포맷으로 변환하고, 포맷변환된 비디오 신호를 상기 디스플레이 유닛에 출력함으로써 상기 포맷변환된 비디오 신호에 상응한 영상이 상기 표시면에 표시되도록 하는 이미지 디스플레이 장치.Wherein the image signal processing unit converts the video bit stream into the format and outputs a format-converted video signal to the display unit so that an image corresponding to the format-converted video signal is displayed on the display surface. 청구항 2에 있어서, 상기 이미지 캡쳐 유닛이The system of claim 2, wherein the image capture unit 상기 이미지 디스플레이 장치의 전면에서 서로 상이한 위치에 배치되는 2개 이상의 이미지 센서들;Two or more image sensors disposed at different positions from each other in front of the image display device; 을 구비하는 이미지 디스플레이 장치.And an image display device. 청구항 3에 있어서, 상기 이미지 캡쳐 유닛이4. The apparatus of claim 3, wherein the image capture unit 수평위치와 수직위치가 서로 상이하게 배치되는 2개의 이미지 센서들;Two image sensors in which the horizontal position and the vertical position are arranged differently from each other; 을 구비하는 이미지 디스플레이 장치.And an image display device. 청구항 2에 있어서,The method of claim 2, 상기 영상신호 처리부가 상기 포맷변환된 비디오 신호와 소정의 온스크린디스플레이(OSD) 조정메뉴 데이터를 합성하며,The video signal processor synthesizes the format-converted video signal with predetermined on-screen display (OSD) adjustment menu data, 상기 디스플레이 유닛에 상기 포맷변환된 비디오 신호에 상응한 영상에 소정의 온스크린디스플레이 조정메뉴가 융합되어, 상기 포인터와 함께 표시되는 이미지 디스플레이 장치.And an image corresponding to the format-converted video signal is fused to a predetermined on-screen display adjustment menu in the display unit, and is displayed together with the pointer. 청구항 5에 있어서,The method of claim 5, 상기 제어부가 상기 영상신호 처리부에 상기 OSD 조정메뉴 데이터를 제공하는 이미지 디스플레이 장치.Wherein the control unit provides the OSD adjustment menu data to the video signal processing unit. 청구항 6에 있어서,The method of claim 6, 상기 제어부가 상기 영상신호 처리부에, 상기 디스플레이 유닛 상에서 상기 포인팅 지점에 상응하는 메뉴항목이 강조되어 표시되도록 하기 위한, 변형된 OSD 조정메뉴 데이터를 제공하는 이미지 디스플레이 장치.Wherein the control unit provides the OSD control menu data to the video signal processing unit so that a menu item corresponding to the pointing point on the display unit is highlighted and displayed. 청구항 5에 있어서,The method of claim 5, 상기 영상신호 처리부가, 상기 디스플레이 유닛 상에서 상기 포인팅 지점에 상응하는 메뉴항목이 강조되어 표시되도록 하기 위한 변형된 OSD 조정메뉴 데이터를 상기 포맷변환된 비디오 신호에 합성하는 이미지 디스플레이 장치.And the image signal processing unit synthesizes modified OSD adjustment menu data to the format-converted video signal so that a menu item corresponding to the pointing point is highlighted and displayed on the display unit. 청구항 1 내지 청구항 8 중 어느 한 항에 있어서, 상기 제1 기준점은 어느 한 손가락의 끝점이고, 상기 제2 기준점은 어느 한쪽 눈(目)의 안구 중심, 미간 중심점, 상기 손가락에 관련된 어깨 윤곽선 상의 한 점, 머리 상단 끝점, 팔꿈치 부위의 한 점으로 구성된 특이점 그룹에서 선택되는 어느 한 점인 이미지 디스플레이 장치.The image processing method according to any one of claims 1 to 8, wherein the first reference point is an end point of one of the fingers, and the second reference point is a center of an eye of one eye An upper end of the head, and a point of the elbow. 삭제delete 삭제delete 삭제delete 삭제delete 청구항 1 내지 청구항 8 중 어느 한 항에 있어서,The method according to any one of claims 1 to 8, 상기 이미지 캡쳐 유닛에 의하여 촬상된 이미지로부터, 소정의 선택 이벤트를 검출하기 위한 선택 이벤트 검출수단;Selection event detection means for detecting a predetermined selection event from an image captured by the image capture unit; 을 더 구비하고, 상기 제어부가 상기 선택 이벤트에 응답하여 상기 포인팅 지점에 상응한 동작이 이루어지도록 상기 이미지 디스플레이 장치를 제어하는 이미지 디스플레이 장치.And the control unit controls the image display apparatus so that an operation corresponding to the pointing point is performed in response to the selection event. 청구항 1 내지 청구항 8 중 어느 한 항에 있어서,The method according to any one of claims 1 to 8, 상기 이미지 캡쳐 유닛에 의하여 촬상된 이미지로부터, 소정의 기능비활성화 이벤트를 검출하기 위한 기능비활성화 이벤트 검출수단;A function deactivation event detection means for detecting a predetermined function deactivation event from an image captured by the image capture unit; 을 더 구비하고, 상기 제어부가 상기 기능비활성화 이벤트에 응답하여 상기 표시면에서 상기 포인터를 소거하는 이미지 디스플레이 장치.And the control unit clears the pointer on the display surface in response to the function deactivation event. 표시면을 구비하는 디스플레이 유닛;A display unit having a display surface; 상기 표시면 전방을 촬상하는 이미지 캡쳐 유닛; 및An image capturing unit for capturing an image in front of the display surface; And 상기 이미지 캡쳐 유닛이 촬상한 이미지를 사용하여, 상기 표시면 전방에 있는 사용자의 손에 대응되는 제1 기준점 및 상기 사용자의 몸체에 대응되는 제2 기준점 각각의 위치를 결정하고, 상기 제1 및 제2 기준점 각각의 위치와 관련된 보조기준점을 활용하여 상기 표시면 상에서 상기 사용자에 의한 포인팅 지점을 추정하며, 상기 표시면 상에서 상기 추정된 포인팅 지점에 소정의 포인터를 표시하는 제어부를 포함하고,A first reference point corresponding to a user's hand on the front of the display surface and a second reference point corresponding to the user's body using the image captured by the image capture unit, A controller for estimating a pointing point by the user on the display surface using an auxiliary reference point associated with each of the two reference points and displaying a predetermined pointer on the estimated pointing point on the display surface, 상기 포인팅 지점은,The pointing point, 상기 제1 기준점으로부터 기 설정된 거리만큼 위에 위치한 제1 보조기준점과 상기 제2 기준점을 연결하는 가상의 직선이 상기 표시면과 만나는 지점 또는 상기 제1 기준점과 상기 제2 기준점으로부터 기 설정된 거리만큼 아래에 위치한 제2 보조기준점을 연결하는 가상의 직선이 상기 표시면과 만나는 지점인 것을 특징으로 하는 전자장치.A first auxiliary reference point located at a predetermined distance from the first reference point and a virtual straight line connecting the second reference point meet at a predetermined distance from the first reference point and the second reference point, And a virtual straight line connecting a second auxiliary reference point located at a point where the first auxiliary reference point intersects with the display surface. 청구항 16에 있어서, 상기 이미지 캡쳐 유닛은,17. The image capture device of claim 16, 상기 전자장치의 전면에서 서로 상이한 위치에 배치되는 2개 이상의 이미지 센서들을 구비하는 것을 특징으로 하는 전자장치.And two or more image sensors disposed at different positions on the front surface of the electronic device. 청구항 17에 있어서, 상기 이미지 캡쳐 유닛은,18. The apparatus of claim 17, 수평위치와 수직위치가 서로 상이하게 배치되는 2개의 이미지 센서들을 구비하는 것을 특징으로 하는 전자장치.And two image sensors arranged such that the horizontal position and the vertical position are different from each other. 삭제delete 삭제delete 삭제delete 삭제delete 청구항 16 내지 청구항 18 중 어느 한 항에 있어서,The method according to any one of claims 16 to 18, 상기 이미지 캡쳐 유닛에 의하여 촬상된 이미지로부터, 소정의 선택 이벤트를 검출하기 위한 선택 이벤트 검출수단;Selection event detection means for detecting a predetermined selection event from an image captured by the image capture unit; 을 더 구비하고, 상기 제어부가 상기 선택 이벤트에 응답하여 상기 포인팅 지점에 상응한 동작이 이루어지도록 상기 전자장치를 제어하는 전자장치.Wherein the control unit controls the electronic device to perform an operation corresponding to the pointing point in response to the selection event. 청구항 16 내지 청구항 18 중 어느 한 항에 있어서,The method according to any one of claims 16 to 18, 상기 이미지 캡쳐 유닛에 의하여 촬상된 이미지로부터, 소정의 기능비활성화 이벤트를 검출하기 위한 기능비활성화 이벤트 검출수단;A function deactivation event detection means for detecting a predetermined function deactivation event from an image captured by the image capture unit; 을 더 구비하고, 상기 제어부가 상기 기능비활성화 이벤트에 응답하여 상기 표시면에서 상기 포인터를 소거하는 전자장치.And the control unit clears the pointer on the display surface in response to the function deactivation event. 디스플레이 표시면과 이미지센서를 구비하는 전자장치에 있어서, 사용자가 상기 전자장치에 접촉하지 않는 상태로 상기 전자장치를 조작할 수 있도록 해주는 동작 제어방법으로서,1. An electronic device comprising a display screen and an image sensor, the electronic device comprising: (a) 상기 이미지센서를 사용하여 상기 표시면 전방을 촬상하는 단계;(a) imaging the front of the display surface using the image sensor; (b) 촬상한 이미지에서 상기 사용자의 손에 대응되는 제1 기준점 및 상기 사용자의 몸체에 대응되는 제2 기준점 각각의 위치를 결정하는 단계;(b) determining a position of each of the first reference point corresponding to the user's hand and the second reference point corresponding to the user's body in the captured image; (c) 상기 제1 및 제2 기준점 각각의 위치와 관련된 보조기준점을 활용하여 상기 표시면 상에서 상기 사용자에 의한 포인팅 지점을 추정하는 단계; 및(c) estimating a pointing point by the user on the display surface using an auxiliary reference point related to the position of each of the first and second reference points; And (d) 상기 추정된 포인팅 지점에 소정의 포인터를 표시하는 단계를 포함하고,(d) displaying a predetermined pointer at the estimated pointing point, 상기 포인팅 지점은,The pointing point, 상기 제1 기준점으로부터 기 설정된 거리만큼 위에 위치한 제1 보조기준점과 상기 제2 기준점을 연결하는 가상의 직선이 상기 표시면과 만나는 지점 또는 상기 제1 기준점과 상기 제2 기준점으로부터 기 설정된 거리만큼 아래에 위치한 제2 보조기준점을 연결하는 가상의 직선이 상기 표시면과 만나는 지점인 것을 특징으로 하는 전자장치 동작 제어방법.A first auxiliary reference point located at a predetermined distance from the first reference point and a virtual straight line connecting the second reference point meet at a predetermined distance from the first reference point and the second reference point, And a virtual straight line connecting a second auxiliary reference point located at a position where the second auxiliary reference point is located and the display plane. 청구항 25에 있어서, 상기 제1 기준점은 어느 한 손가락의 끝점이고, 상기 제2 기준점은 어느 한쪽 눈의 안구 중심, 미간 중심점, 상기 손가락에 관련된 어깨 윤곽선 상의 한 점, 머리 상단 끝점, 팔꿈치 부위의 한 점으로 구성된 특이점 그룹에서 선택되는 어느 한 점인 전자장치 동작 제어방법.[Claim 25] The method of claim 25, wherein the first reference point is an end point of one of the fingers, the second reference point is a center of an eyeball, a center point of the eyeball, a point on a shoulder contour associated with the finger, Wherein the point is selected from a group of singularities constituted by points. 삭제delete 삭제delete 삭제delete 삭제delete 청구항 25 또는 청구항 26에 있어서,26. The method of claim 25 or claim 26, (e) 상기 이미지센서에 의하여 소정의 선택 이벤트를 검출하고, 상기 선택 이벤트에 응답하여 상기 포인팅 지점에 상응한 동작이 이루어지도록 하는 단계;(e) detecting a predetermined selection event by the image sensor, and causing an operation corresponding to the pointing point to be performed in response to the selection event; 를 더 포함하는 전자장치 동작 제어방법.Further comprising the steps of: 청구항 25 또는 청구항 26에 있어서,26. The method of claim 25 or claim 26, 소정의 기능비활성화 이벤트가 발생하는지 모니터링하는 단계; 및Monitoring whether a predetermined function deactivation event occurs; And 상기 기능비활성화 이벤트가 발생하면, 상기 표시면에서 상기 포인터를 소거하는 단계;When the function deactivation event occurs, erasing the pointer on the display surface; 를 더 포함하는 전자장치 동작 제어방법.Further comprising the steps of: 청구항 32에 있어서, 상기 기능비활성화 이벤트가33. The method of claim 32, 상기 포인팅 지점이 상기 표시면 밖에 있는 시간이 일정 시간 이상 지속되는 것인 전자장치 동작 제어방법.Wherein the pointing point is outside the display surface for a predetermined period of time or longer. 표시면을 구비하는 디스플레이 유닛;A display unit having a display surface; 소정 포맷의 비디오 신호를 상기 디스플레이 유닛에 제공하여 상기 비디오 신호에 상응한 영상이 상기 표시면에 표시되도록 하는 영상신호 처리부;A video signal processor for providing a video signal of a predetermined format to the display unit so that an image corresponding to the video signal is displayed on the display screen; 상기 표시면 전방을 촬상하는 이미지 캡쳐 유닛; 및An image capturing unit for capturing an image in front of the display surface; And 상기 이미지 캡쳐 유닛이 촬상한 이미지를 사용하여, 상기 표시면 전방에 있는 사용자의 손에 대응되는 제1 기준점 및 상기 사용자 몸체에 대응되는 제2 기준점 각각의 위치를 결정하고, 상기 제1 기준점의 위치와 상기 제2 기준점의 위치를 연결하는 가상의 직선이 상기 표시면과 만나는 점에서 기 설정된 거리만큼 위에 위치한 점을 상기 사용자에 의한 포인팅 지점으로 추정하며,A first reference point corresponding to a user's hand located in front of the display surface and a second reference point corresponding to the user body are determined using the image captured by the image capture unit, And a point located at a predetermined distance from a point at which a virtual straight line connecting the position of the second reference point with the display surface meets the pointing point by the user, 상기 표시면 상에서 상기 추정된 포인팅 지점에 소정의 포인터가 표시되도록 상기 영상신호 처리부를 제어하는 제어부를 포함하는 것을 특징으로 하는 이미지 디스플레이 장치.And a controller for controlling the video signal processor to display a predetermined pointer on the estimated pointing point on the display surface. 디스플레이 표시면과 이미지센서를 구비한 전자장치에 있어서, 사용자가 상기 전자장치에 접촉하지 않은 상태로 상기 전자장치를 조작할 수 있도록 해주는 동작 제어방법에 있어서,An operation control method for an electronic device having a display display surface and an image sensor, the operation control method allowing a user to operate the electronic device without contacting the electronic device, 상기 이미지센서를 사용하여 상기 표시면 전방을 촬상하는 단계;Imaging the front of the display surface using the image sensor; 촬상한 이미지에서 상기 사용자의 손에 대응되는 제1 기준점 및 상기 사용자의 몸체에 대응되는 제2 기준점 각각의 위치를 결정하는 단계;Determining a first reference point corresponding to the user's hand and a second reference point corresponding to the user's body in the captured image; 상기 제1 기준점의 위치와 상기 제2 기준점의 위치를 연결하는 가상의 직선이 상기 표시면과 만나는 점에서 기 설정된 거리만큼 위에 위치한 지점을 상기 사용자에 의한 포인팅 지점으로 추정하는 단계; 및Estimating, as a pointing point by the user, a point located at a predetermined distance from a point at which a virtual straight line connecting the position of the first reference point and the position of the second reference point meet the display surface; And 상기 추정된 포인팅 지점에 소정의 포인터를 표시하는 단계를 포함하는 것을 특징으로 하는 전자장치의 동작 제어방법.And displaying a predetermined pointer at the estimated pointing point.
KR1020090048289A 2009-06-01 2009-06-01 Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same KR101585466B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090048289A KR101585466B1 (en) 2009-06-01 2009-06-01 Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090048289A KR101585466B1 (en) 2009-06-01 2009-06-01 Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same

Publications (2)

Publication Number Publication Date
KR20100129629A KR20100129629A (en) 2010-12-09
KR101585466B1 true KR101585466B1 (en) 2016-01-15

Family

ID=43506209

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090048289A KR101585466B1 (en) 2009-06-01 2009-06-01 Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same

Country Status (1)

Country Link
KR (1) KR101585466B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018048043A1 (en) * 2016-09-09 2018-03-15 주식회사 토비스 Space touch recognition method and space touch recognition device using same
US20190212814A1 (en) * 2018-01-05 2019-07-11 Lapis Semiconductor Co., Ltd. Operation determination device and operation determination method

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012091185A1 (en) * 2010-12-27 2012-07-05 Lg Electronics Inc. Display device and method of providing feedback for gestures thereof
KR101151962B1 (en) 2011-02-16 2012-06-01 김석중 Virtual touch apparatus and method without pointer on the screen
KR101381928B1 (en) * 2011-02-18 2014-04-07 주식회사 브이터치 virtual touch apparatus and method without pointer on the screen
KR20120126508A (en) * 2011-05-12 2012-11-21 김석중 method for recognizing touch input in virtual touch apparatus without pointer
KR101235432B1 (en) 2011-07-11 2013-02-22 김석중 Remote control apparatus and method using virtual touch of electronic device modeled in three dimension
KR101733115B1 (en) 2011-11-08 2017-05-10 한국전자통신연구원 Method and apparatus for controlling content of the remote screen
US9107003B2 (en) * 2011-12-15 2015-08-11 Apple Inc. Extended duct with damping for improved speaker performance
KR101237472B1 (en) * 2011-12-30 2013-02-28 삼성전자주식회사 Electronic apparatus and method for controlling electronic apparatus thereof
KR101343748B1 (en) * 2012-04-23 2014-01-08 주식회사 브이터치 Transparent display virtual touch apparatus without pointer
KR101533320B1 (en) * 2012-04-23 2015-07-03 주식회사 브이터치 Apparatus for acquiring 3 dimension object information without pointer
KR101272458B1 (en) * 2012-05-11 2013-06-07 김석중 virtual touch apparatus and method without pointer on the screen
KR101334585B1 (en) * 2012-05-29 2013-12-05 주식회사 브이터치 Remote control apparatus and method for virtual touch using displaying information of projector
KR20140085061A (en) * 2012-12-27 2014-07-07 삼성전자주식회사 Display apparatus and Method for controlling display apparatus thereof
KR20140087787A (en) * 2012-12-31 2014-07-09 삼성전자주식회사 display apparatus and method for controlling the display apparatus therof
KR101980546B1 (en) * 2013-01-04 2019-08-28 엘지전자 주식회사 Operating Method for Image Display apparatus
CN105593787B (en) * 2013-06-27 2019-07-05 视力移动科技公司 The system and method for being pointing directly at detection for being interacted with digital device
KR101533319B1 (en) 2014-02-22 2015-07-03 주식회사 브이터치 Remote control apparatus and method using camera centric virtual touch
KR101453815B1 (en) 2014-08-01 2014-10-22 스타십벤딩머신 주식회사 Device and method for providing user interface which recognizes a user's motion considering the user's viewpoint
KR101630153B1 (en) * 2014-12-10 2016-06-24 현대자동차주식회사 Gesture recognition apparatus, vehicle having of the same and method for controlling of vehicle
KR102310870B1 (en) * 2015-01-12 2021-10-12 삼성전자주식회사 Display apparatus and the controlling method thereof
KR101937823B1 (en) 2016-10-24 2019-01-14 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for assisting object control
KR102343963B1 (en) 2017-05-30 2021-12-24 주식회사 케이티 CNN For Recognizing Hand Gesture, and Device control system by hand Gesture
US10299032B2 (en) 2017-09-11 2019-05-21 Apple Inc. Front port resonator for a speaker assembly
KR102459487B1 (en) 2017-11-03 2022-10-26 주식회사 케이티 Apparatus and Method for classifing Gesture based on CNN
KR20190061956A (en) 2017-11-28 2019-06-05 주식회사 케이티 Apparatus and Method to Improve The Accuracy of Virtual Cursor
US11451902B1 (en) 2021-05-07 2022-09-20 Apple Inc. Speaker with vented resonator
US11490190B1 (en) 2021-05-07 2022-11-01 Apple Inc. Speaker with multiple resonators
KR20230102557A (en) * 2021-12-30 2023-07-07 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting user input

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316510A (en) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> Display device for displaying point instructed on display screen and display program
JP2006277666A (en) * 2005-03-30 2006-10-12 Nhk Engineering Services Inc Display screen position analysis device and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990008158A (en) * 1995-04-28 1999-01-25 모리시타요우이치 Interface device
KR100526536B1 (en) * 2002-06-03 2005-11-08 삼성전자주식회사 Method for allocating a uati in a mobile communication system for high rate packet data transmission

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316510A (en) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> Display device for displaying point instructed on display screen and display program
JP2006277666A (en) * 2005-03-30 2006-10-12 Nhk Engineering Services Inc Display screen position analysis device and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018048043A1 (en) * 2016-09-09 2018-03-15 주식회사 토비스 Space touch recognition method and space touch recognition device using same
US20190212814A1 (en) * 2018-01-05 2019-07-11 Lapis Semiconductor Co., Ltd. Operation determination device and operation determination method
US11079840B2 (en) * 2018-01-05 2021-08-03 Lapis Semiconductor Co., Ltd. Operation determination device and operation determination method

Also Published As

Publication number Publication date
KR20100129629A (en) 2010-12-09

Similar Documents

Publication Publication Date Title
KR101585466B1 (en) Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same
US9400560B2 (en) Image display device and display control method thereof
US8693732B2 (en) Computer vision gesture based control of a device
US20170102776A1 (en) Information processing apparatus, method and program
CN107943551B (en) Screen display method and mobile terminal
US8659549B2 (en) Operation control device and operation control method
US20120229509A1 (en) System and method for user interaction
JP4697279B2 (en) Image display device and detection method
US20140053115A1 (en) Computer vision gesture based control of a device
KR20130081580A (en) Display apparatus and controlling method thereof
CN110944139B (en) Display control method and electronic equipment
CN109104566B (en) Image display method and terminal equipment
CN108536366A (en) A kind of application window method of adjustment and terminal
CN111488057A (en) Page content processing method and electronic equipment
KR102208893B1 (en) Display apparatus and channel map manage method thereof
WO2022100262A1 (en) Display device, human body posture detection method, and application
KR101134245B1 (en) Electronic device including 3-dimension virtualized remote controller and driving methed thereof
KR20220127568A (en) Method for providing home tranninig service and a display apparatus performing the same
CN112733673A (en) Content display method and device, electronic equipment and readable storage medium
CN111479068A (en) Photographing method, electronic device, and computer-readable storage medium
CN115002443B (en) Image acquisition processing method and device, electronic equipment and storage medium
CN110719531A (en) Video playing progress adjusting method and electronic equipment
CN109788124B (en) Method and device for determining starting position of function bar and mobile terminal
US9582120B2 (en) Display device, mobile terminal and method of controlling the same
JP2016035625A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant