KR101585466B1 - Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same - Google Patents
Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same Download PDFInfo
- Publication number
- KR101585466B1 KR101585466B1 KR1020090048289A KR20090048289A KR101585466B1 KR 101585466 B1 KR101585466 B1 KR 101585466B1 KR 1020090048289 A KR1020090048289 A KR 1020090048289A KR 20090048289 A KR20090048289 A KR 20090048289A KR 101585466 B1 KR101585466 B1 KR 101585466B1
- Authority
- KR
- South Korea
- Prior art keywords
- point
- reference point
- image
- user
- display
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
- H04N21/41265—The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/24—Systems for the transmission of television signals using pulse code modulation
- H04N2007/243—Bitstream control arrangements
Abstract
사용자의 동작을 추적하면서 신속하고 정확하며 안정되게 사용자가 포인팅하고자 의도하는 화면상의 지점을 추정할 수 있고, 이를 통해 사용자가 효과적으로 그리고 편리하게 전자장치의 기능을 조정할 수 있게 해주는 전자장치 동작 제어방법과, 이를 채용하여 사용자가 효과적으로 그리고 편리하게 기능을 조정할 수 있는 전자장치. 본 발명의 동작 제어방법은 디스플레이 표시면과 이미지센서를 구비하는 전자장치에서 구현되며, 사용자가 상기 전자장치에 접촉하지 않는 상태로 전자장치를 조작할 수 있도록 해준다. 바람직한 실시예에 따르면, 먼저 이미지센서를 사용하여 디스플레이 표시면 전방을 촬상한다. 촬상한 이미지에서 사용자의 집게손가락 끝점과, 미간 중심점의 위치를 결정한다. 이어서, 상기 미간 중심점과 집게손가락 끝점을 연결하는 가상의 직선이 표시면과 만나는 점을 사용자가 포인팅하고자 하는 지점으로 추정하고, 추정된 포인팅 지점에 포인터를 표시하게 된다. 전자장치 사용자가 전자장치를 직접 접촉하거나 리모콘을 사용하지 않고서도 마치 터치패널을 사용하는 것과 같이 정확하고 안정되게 화면상의 메뉴를 포인팅할 수 있게 되고, 전자장치의 편의성이 크게 높아지는 효과가 있다.An electronic device operation control method that enables a user to estimate a point on a screen intended to be pointed by a user quickly, accurately, and stably while tracing a user's operation, thereby enabling a user to effectively and conveniently adjust functions of the electronic device; , Which employs it to enable a user to adjust functions effectively and conveniently. The operation control method of the present invention is implemented in an electronic device having a display screen and an image sensor, and allows a user to operate the electronic device without touching the electronic device. According to a preferred embodiment, first, an image is captured in front of the display screen using an image sensor. And determines the position of the user's forefinger end point and the near center point in the captured image. Then, a point at which a virtual straight line connecting the center point of the forehead and the forefinger end meets the display surface is estimated as a point at which the user wants to point, and a pointer is displayed at the estimated pointing point. The user of the electronic device can accurately and stably point the menu on the screen just like using the touch panel without touching the electronic device directly or using the remote controller, and the convenience of the electronic device is greatly increased.
텔레비전, 유저 인터페이스, UI, 터치스크린, 포인팅, 카메라, 이미지센서 Television, user interface, UI, touch screen, pointing, camera, image sensor
Description
본 발명은 전자장치 및 그 동작제어 방법에 관한 것으로서, 특히, 사용자의 형상이나 움직임을 검출하고 이로부터 사용자가 의도하는 조작명령을 추정하여 동작하는 전자장치와, 이와 같은 전자장치의 동작제어 방법에 관한 것이다.More particularly, the present invention relates to an electronic device that detects a shape or motion of a user and estimates an operation command intended by a user from the detected electronic device, and a method of controlling an operation of such an electronic device .
통신기술과 부품기술의 발전에 힘입어, 텔레비전은 화면의 풀칼라화, 디지털 전송방식의 채택, 전송채널의 다양화, 화면의 대형화 등 여러 측면에서 큰 발전을 거듭해왔다. 그렇지만, 방송신호 전송과 화상 재생 등 본질적 기능에 있어서의 비약적 발전에도 불구하고, 사용자인터페이스 그중에서도 조작 방식에 있어서는 발전이 매우 더딘 것이 현실이다. 즉, 텔레비전 사용자는 20~30년전과 마찬가지로 수신기 외면에 마련된 버튼을 누르거나 또는 리모콘을 조작하여야만 텔레비전 기능을 조정할 수 있다. 이에 따라, 리모콘을 찾을 수 없거나 리모콘의 건전지가 방전된 경우에는, 텔레비전 본체로 이동하여 버튼조작을 하여야만 하게 되는데, 텔레비전 설치장소가 넓은 경우에는 이 작업이 여간 번거로운 것이 아니다.Thanks to the development of communication technology and component technology, television has made great progress in various aspects such as full color screen, adoption of digital transmission method, diversification of transmission channel, and enlargement of screen. However, in spite of the breakthrough in essential functions such as broadcast signal transmission and image reproduction, it is a reality that the operation method of the user interface is very slow to develop. That is, a television user can adjust the television function only by pressing a button provided on the outside of the receiver or by operating the remote control, as in the case of 20 to 30 years ago. Accordingly, when the remote controller can not be found or the battery of the remote controller is discharged, the user must move to the television main body and perform button operation. However, if the television installation place is wide, this operation is not troublesome.
이러한 문제점을 해소하기 위한 시도를 살펴보면, 공개특허 1997-57020호(발명의 명칭: 음성인식에 의한 텔레비전 제어장치)는 사용자의 음성을 인식하여 선택메뉴용 OSD정보를 화면 표시함과 아울러, 음성에 의해 지정된 선택사항에 상응하는 텔레비젼의 동작이 행해지도록 함으로써, 리모콘을 쉽게 찾을 수 없을 경우에도 사용상의 편리함을 도모할 수 있게 해주는 텔레비전을 제시하고 있다. 그렇지만, 이와 같이 음성인식을 토대로 동작하는 텔레비전은 음성에 의한 지시명령이 어색할 수 있을 뿐만 아니라, 사용자의 통상적인 대화가 텔레비전 동작제어 명령과 혼동될 수 있기 때문에, 사용자로 하여금 조심스러움을 야기하여 불편할 수 있다.In order to solve such a problem, Japanese Laid-Open Patent Publication No. 1997-57020 (name of the invention: television control apparatus based on speech recognition) recognizes the user's voice and displays the OSD information for the selection menu on the screen, So that the convenience of use can be achieved even when the remote controller can not be easily found. However, the television operating on the basis of speech recognition as described above can not only be awkward in instruction commands by voice, but also can cause the user to be careful because the normal conversation of the user can be confused with the television operation control command. .
음성 대신에 사용자의 형상이나 움직임을 검출하고 이로부터 조작명령을 인식하여 동작하게 하려는 시도도 다양하게 이루어진 바 있다.Various attempts have been made to detect the shape or motion of the user instead of the voice, and to recognize and operate the operation command therefrom.
예컨대, 공개특허공보 2003-21988호(발명의 명칭: 영상처리를 이용한 원격 손가락 조종기)에는 텔레비젼 수신기에 부착된 카메라로 사용자의 손을 촬영하여 사용자의 손가락의 패턴을 인식한 후 그 패턴이 시스템 내에 저장되어 있는 특정 기능 수행을 위한 패턴과 일치하는 경우 해당 기능을 수행하는 방식이 기재되어 있다. 또한, 공개특허 2007-103895호(발명의 명칭: 손 제스쳐 인식 시스템 및 방법)는 카메라에 의하여 촬영한 영상 내에서 사용자의 손 제스쳐를 인식하여 손의 방향을 검출함으로써 전자기기의 동작을 조정할 수 있게 해주는 시스템이 기재되어 있다. 그러나, 이와 같은 방식에 따른 텔레비전은 사전에 정의되어있는 몇가지 제스쳐만을 인식할 수 있기 때문에, 사용자가 원하는 특정 기능을 수행하기 위해서는 해당 기능 수행을 위해 미리 지정된 제스쳐 패턴을 미리 학습하여 숙지하여야 하는 번거로움이 있고, 화면상의 특정 지점을 포인팅하는 것은 아예 불가능하다.For example, in Japanese Laid-Open Patent Publication No. 2003-21988 (titled remote finger manipulator using image processing), a user's hand is photographed with a camera attached to a television receiver to recognize a pattern of a user's finger, And a method for performing the corresponding function when the stored pattern matches the pattern for performing the specific function. In addition, Japanese Laid-Open Patent Application No. 2007-103895 (entitled " hand gesture recognition system and method ") discloses a hand gesture recognition system and method that can recognize the hand gesture of a user in an image captured by a camera, System is described. However, since the television according to the above-described method can recognize only some gestures defined in advance, in order to perform a specific function desired by the user, it is troublesome to learn and learn the predetermined gesture pattern in advance in order to perform the function And it is impossible to point to a specific point on the screen.
공개특허공보 2003-37692호(발명의 명칭: 손 지시 인식을 이용한 원격제어 시스템)에는 다수의 카메라에 의하여 사람의 형상을 영상 데이터로 취득하고, 취득된 사람의 형상으로부터 손 형상과, 손의 위치 및 손이 가리키는 방향을 인식하여, 전자기기를 제어하는 시스템이 기재되어 있다. 그렇지만, 이 시스템을 구현하기 위해서는 다수의 카메라를 실내에 설치해야 할 뿐만 아니라, 사용자의 손이 가리키는 방향이 불안정한 경우 손에 의한 포인팅이 실질적으로 어렵다는 문제점이 여전히 있다.Open No. 2003-37692 (a remote control system using hand direction recognition), a person's shape is acquired as image data by a plurality of cameras, and the shape of the hand from the shape of the person obtained and the position of the hand And a direction in which the hand points are indicated, thereby controlling the electronic apparatus. However, in order to implement this system, not only a plurality of cameras need to be installed indoors, but there is still a problem that pointing by hands is substantially difficult when the direction pointed by the user's hand is unstable.
한편, 눈의 위치나 시선을 검출하여 기기를 동작시키는 아이디어들도 제시된 바 있다.On the other hand, ideas for operating the device by detecting the position and the eyes of the eyes are also presented.
예컨대, 공개특허공보 2000-56563호(발명의 명칭: 응시위치 추적시스템)에는 카메라를 통하여 사용자의 얼굴영상을 취득하고, 취득된 디지털 영상신호로부터 사용자의 응시위치를 산출함으로써, 응시위치 정보로 기기를 제어할 수 있도록 하는 시스템이 기재되어 있다. 그렇지만, 이 시스템은 얼굴형상 취득과 응시위치 산출에 컴퓨팅파워 부담이 클 뿐만 아니라, 응시위치 파악이 부정확한 경우 정교한 포인팅이 어려워진다는 문제점이 있을 수 있다.For example, Japanese Unexamined Patent Publication (Kokai) No. 2000-56563 (entitled position registration system) acquires a face image of a user through a camera and calculates a user's gazing position from the obtained digital video signal, And a control unit for controlling the control unit. However, this system has a problem that the computational power burden is great in obtaining the face shape and calculating the gazing position, and it is difficult to precisely point the gaze when the gaze position is incorrect.
공개특허공보 2005-120132호(발명의 명칭: 영상 처리를 이용한 사용자 모션에 의한 원격제어 텔레비젼 및 그 제어 방법)에는 카메라에 의하여 사용자 모션을 검출하고, 사용자 인체의 특정 부위가 미리 지정된 시간 범위 내에 임의의 위치에 미리 지정된 횟수 이상 존재하는 경우 가상 메뉴를 활성화시키되, 사용자의 눈의 위치를 인식하여 사용자 시선이 향하는 곳에 가상 메뉴를 표시하며, 사용자의 손이 일정시간 머무는 메뉴에 대하여 사용자가 선택한 것으로 보고 기능을 실행하는 시스템이 기재되어 있다. 그렇지만, 이 시스템의 경우 촬상된 이미지 내에서 사용자 손의 위치로 사용자가 선택하고자 하는 메뉴를 인식하기 때문에, 텔레비전의 화면이 크고 화면과 사용자의 거리가 가까운 경우 사용자가 손을 움직여야 하는 범위가 과다하고, 더욱이 메뉴 선택을 위하여 일정 시간동안 손을 고정상태로 유지해야 하기 때문에, 팔이 아프고 메뉴 선택 및 기능 실행에 많은 시간이 소요될 수 있다.Open Publication No. 2005-120132 (titled "remote control television by user motion using image processing and control method thereof") detects a user motion by a camera, and when a specific part of the user's body is within a predetermined time range The virtual menu is activated when a predetermined number of times exist at the position of the user's eyes, the virtual menu is displayed at a position facing the user's eyes by recognizing the position of the user's eyes, A system for executing functions is described. However, in this system, since the user recognizes the menu to be selected by the position of the user's hand in the captured image, when the screen of the television is large and the distance between the screen and the user is close to each other, Furthermore, since the user must keep his / her hands fixed for a certain period of time in order to select a menu, his / her arm is sick and menu selection and function execution may take a long time.
이와 같이, 리모콘 조작의 불편함을 해소할 수 있도록 사용자의 형상이나 움직임, 시선 등을 검출하여 텔리비전을 조작할 수 있게 해주는 방법이 다양하게 제시된 바 있지만, 종래의 방법들은 포인팅이 부정확 또는 불안정하거나 아예 불가능할 수 있고, 메뉴 선택에 많은 시간이 소요되어 실시간 처리가 어렵다는 문제점이 있다. 이러한 문제점으로 말미암아, 본 출원이 행해지는 시점에 있어서 위와 같이 사용자의 형상이나 움직임, 시선 등을 검출하여 텔리비전 동작을 제어하는 방법들이 채택된 텔레비전이 상업적으로 실시되고 있는 예는 아직 없다.As described above, various methods for detecting the shape, movement, gaze, etc. of the user so as to solve the inconvenience of remote control operation have been proposed in various ways. However, the conventional methods are not suitable for pointing inaccurate or unstable And it takes a long time to select a menu, which makes it difficult to perform real-time processing. Due to such a problem, there is not yet an example in which a television adopting methods of detecting the shape, movement, sight line, etc. of the user and controlling the television operation is commercially performed at the time of the present application.
텔레비전에서의 포인팅은 특히 인터넷TV에서 심각한 문제라고 할 수 있다. 인터넷TV란 텔레비전 방송신호 수신과 아울러 인터넷접속 기능을 구비하는 TV를 말하는데, 이러한 인터넷TV에서는 화면에 표시된 웹문서 상의 많은 하이퍼텍스트 내지 메뉴항목 중 어느 하나를 선택하는 것이 매우 어렵다. 웹 서핑을 용이해게 해준다는 목적하에 다양한 형태의 리모콘이 제시된 바 있지만, 이러한 리모콘은 웹 서핑의 불편함은 크게 개선하지 못하면서 텔레비전 방송 시청시의 불편함만 가중시 키는 경우가 대부분이다. 즉, 텔레비전 방송 시청시에 사용자가 텔레비전을 조작하기 위해 본체 외주면 또는 리모콘의 키패드에서 주로 사용하는 키는 '채널업(+)', '채널다운(-)', '볼륨업(+)', '볼륨다운(-)', '전원 온/오프' 등 너댓 개에 불과한데, 조작키 숫자가 증가된 웹 서핑용 리모콘들은 제품 코스트를 상승시키는 것은 차치하고 방송시청시의 사용자의 불편함을 크게 가중시킨다.Pointing on television is a serious problem especially on Internet TV. The Internet TV is a TV having a function of receiving a television broadcasting signal and having an internet connection function. In such an Internet TV, it is very difficult to select one of a number of hypertext and menu items on a web document displayed on the screen. Although various types of remote controllers have been proposed for the purpose of facilitating web surfing, most of the remote controllers are only inconvenienced when viewing television broadcasts, while the inconvenience of web surfing is not improved greatly. That is, the keys mainly used in the outer surface of the main body or on the keypad of the remote controller for the user to operate the television at the time of watching television broadcast are 'channel up (+)', 'channel down (-)' , 'Volume down (-)', and 'power on / off'. However, the remote controllers for web surfing, which have increased the number of operation keys, do not increase the product cost, Weight.
따라서, 텔레비전 사용자가, TV시청 중에 또는 인터넷 서핑 중에, 텔레비전에 직접 접촉하지 않는 상태에서 화면상의 특정 지점을 신속하고 정확하며 안정되게 포인팅할 수 있게 해주는 방안이 절실하게 요구된다.Accordingly, there is a desperate need for a television user to be able to quickly, accurately, and stably point to a specific point on the screen while not directly touching the television while watching TV or surfing the Internet.
[문헌 1] 공개특허공보 2003-21988호 2003. 3. 15.[Patent Document 1] Published Japanese Patent Application No. 2003-21988 2003. 3. 15.
[문헌 2] 공개특허공보 2007-103895호 2007. 10. 25.[Patent Document 2] Published Japanese Patent Application No. 2007-103895 Published Oct. 25, 2007
[문헌 3] 공개특허공보 2003-37692호 2003. 5. 16.[Patent Document 3] Published Unexamined Patent Application No. 2003-37692 Published on May 16, 2003
[문헌 4] 공개특허공보 2000-56563호 2000. 9. 15.[Patent Document 4] Published Unexamined Patent Application No. 2000-56563 September 15, 2000 [
[문헌 5] 공개특허공보 2005-120132호 2005. 12. 22.[Patent Document 5] Published Japanese Patent Application No. 2005-120132 2005. 12. 22.
본 발명은 이와 같은 문제점을 해결하기 위한 것으로서, 사용자의 동작을 추적하고, 추적된 동작으로부터 사용자가 포인팅하고자 의도하는 화면상의 지점을 정확하고 안정되게 그리고 실시간으로 추정하고, 사용자가 실행하고자 조정기능을 추정하여 실행함으로써, 사용자가 효과적으로 그리고 편리하게 기능을 조정할 수 있게 해주는 이미지 디스플레이 장치를 제공하는 것을 그 기술적 과제로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a method and apparatus for tracking an operation of a user, accurately and stably estimating a point on a screen on which a user intends to point, The present invention also provides an image display device that enables a user to effectively and conveniently adjust a function.
또한, 본 발명은 사용자의 동작을 추적하면서 신속하고 정확하며 안정되게 사용자가 포인팅하고자 의도하는 화면상의 지점을 추정할 수 있고, 이를 통해 사용자가 효과적으로 그리고 편리하게 전자장치의 기능을 조정할 수 있게 해주는 전자장치 동작 제어방법을 제공하는 것을 다른 기술적 과제로 한다.In addition, the present invention can estimate a point on the screen that the user intends to point to quickly, accurately, and stably while tracing the user's operation, thereby allowing the user to adjust the functions of the electronic device effectively and conveniently And to provide a method of controlling a device operation.
상기 기술적 과제를 해결하기 위한 본 발명의 이미지 디스플레이 장치는 표시면을 구비하는 디스플레이 유닛과, 영상신호 처리부와, 이미지 캡쳐 유닛과, 제어부를 구비한다. 영상신호 처리부는 소정 포맷의 비디오 신호를 디스플레이 유닛에 제공하여 상기 비디오 신호에 상응한 영상이 표시면에 표시되도록 한다. 이미지 캡쳐 유닛은 상기 표시면 전방을 촬상한다. 제어부는 이미지 캡쳐 유닛이 촬상한 이미지를 사용하여 표시면 전방에 있는 사용자의 손에서의 제1 기준점과 사용자의 몸체에서의 제2 기준점의 위치를 결정하며, 상기 제1 및 제2 기준점의 위치정보를 사용하여 사용자가 상기 표시면 상에서 포인팅하고자 하는 지점을 추정한다. 그리고, 제어부는 디스플레이 유닛의 표시면 상에서 상기 추정된 포인팅 지점에 소정의 포인터가 표시되도록 영상신호 처리부를 제어한다.According to an aspect of the present invention, there is provided an image display apparatus including a display unit having a display surface, a video signal processing unit, an image capture unit, and a control unit. The video signal processing unit provides a video signal of a predetermined format to the display unit so that an image corresponding to the video signal is displayed on the display surface. The image capturing unit captures an image in front of the display surface. The control unit determines the position of the first reference point in the user's hand and the second reference point in the user's body in front of the display surface using the image captured by the image capture unit, To estimate a point the user wants to point to on the display surface. The control unit controls the video signal processor to display a predetermined pointer on the estimated pointing point on the display surface of the display unit.
특허청구범위를 포함한 본 명세서에 있어서, "몸체"란 사용자의 신체 중 상체에서 팔꿈치 아래의 하박과 손을 제외한 부분을 지칭하는 의미로 사용한다.In the present specification including the claims, the term "body" is used to refer to a portion of the user's body excluding an upper and lower hands under the elbow and a hand.
바람직한 실시예에 있어서, 상기 이미지 디스플레이 장치는 디지털텔레비전 형태로 구현된다. 이와 같은 실시예에 있어서, 이미지 디스플레이 장치는 방송신호를 수신하고 수신된 방송신호를 복조하고 복호화하여 비디오 비트스트림을 출력하는 방송신호 수신부를 더 구비한다. 이때, 영상신호 처리부는 비디오 비트스트림을 상기 포맷으로 변환하고, 포맷변환된 비디오 신호를 디스플레이 유닛에 출력함으로써 포맷변환된 비디오 신호에 상응한 영상이 표시면에 표시되도록 한다.In a preferred embodiment, the image display device is implemented in the form of a digital television. In this embodiment, the image display apparatus further includes a broadcast signal receiving unit for receiving a broadcast signal, demodulating and decoding the received broadcast signal, and outputting a video bit stream. At this time, the video signal processor converts the video bitstream into the format, and outputs the format-converted video signal to the display unit so that an image corresponding to the format-converted video signal is displayed on the display screen.
이미지 캡쳐 유닛은 상기 이미지 디스플레이 장치의 전면에서 서로 상이한 위치에 배치되는 2개 이상의 이미지 센서들을 구비하는 것이 바람직하다. 특히 바람직하기로는, 이미지 캡쳐 유닛이 수평위치와 수직위치가 서로 상이하게 배치되는 2개의 이미지 센서들로 구성된다.Preferably, the image capture unit has two or more image sensors disposed at different positions from each other in front of the image display device. Particularly preferably, the image capture unit is composed of two image sensors arranged such that the horizontal position and the vertical position are different from each other.
바람직한 실시예에 있어서, 상기 영상신호 처리부는 상기 포맷변환된 비디오 신호와 소정의 온스크린디스플레이(OSD) 조정메뉴 데이터를 합성함으로써, 상기 포맷변환된 비디오 신호에 상응한 영상에 소정의 온스크린디스플레이 조정메뉴가 융합되어, 상기 포인터와 함께 디스플레이에 표시되도록 한다.In a preferred embodiment, the video signal processor is configured to combine the format-converted video signal with predetermined on-screen display (OSD) adjustment menu data to provide a predetermined on-screen display adjustment to an image corresponding to the format- Menus are merged and displayed on the display together with the pointer.
바람직한 실시예에 있어서, 상기 OSD 조정메뉴 데이터는 상기 제어부가 상기 영상신호 처리부에 제공한다.In a preferred embodiment, the OSD adjustment menu data is provided to the video signal processor by the controller.
상기 제1 기준점은 손가락 끝점인 것이 바람직하다. 상기 제2 기준점으로는 어느 한쪽 눈(目)의 안구 중심, 미간 중심점 즉 양쪽 눈 안구 중심의 중점, 상기 손가락에 관련된 어깨 윤곽선 상의 한 점, 머리 상단 끝점, 팔꿈치 부위의 한 점 중 한 지점을 사용하는 것이 바람직하다.The first reference point may be a finger end point. As the second reference point, an eyeball center point of the one eye (eye), a midpoint between the eyeball centers, that is, one point on the shoulder contour line, the upper end point of the head, and the elbow point .
바람직한 실시예에 있어서, 이미지 디스플레이 장치는 이미지 캡쳐 유닛에 의하여 촬상된 이미지로부터 소정의 선택 이벤트를 검출하기 위한 선택 이벤트 검출수단을 더 구비한다. 제어부는 상기 선택 이벤트에 응답하여 상기 포인팅 지점에 상응한 동작이 이루어지도록 이미지 디스플레이 장치를 제어할 수 있다.In a preferred embodiment, the image display apparatus further comprises selection event detection means for detecting a predetermined selection event from the image captured by the image capture unit. The control unit may control the image display device to perform an operation corresponding to the pointing point in response to the selection event.
보다 일반적인 관점에서 상기 기술적 과제를 해결하기 위하여, 본 발명은 표시면을 구비하는 디스플레이 유닛과, 이미지 캡쳐 유닛과, 제어부를 구비하는 전자장치를 제공한다. 이미지 캡쳐 유닛은 전자장치의 전면에 설치되어, 표시면 전방을 촬상한다. 제어부는 이미지 캡쳐 유닛이 촬상한 이미지를 사용하여, 사용자의 손에서의 제1 기준점과, 몸체에서의 제2 기준점의 위치를 결정하며, 상기 제1 및 제2 기준점의 위치정보를 사용하여 사용자가 표시면상에서 포인팅하고자 하는 지점을 추정하고, 디스플레이 유닛의 표시면 상에서 상기 추정된 포인팅 지점에 소정의 포인터가 표시되도록 한다.In order to solve the above technical problems in a more general aspect, the present invention provides an electronic apparatus having a display unit having a display surface, an image capture unit, and a control unit. The image capture unit is installed on the front surface of the electronic device, and captures an image on the front of the display surface. The control unit determines the position of the first reference point in the user's hand and the second reference point in the body using the image captured by the image capture unit and uses the position information of the first and second reference points, Estimates a point to be pointed on the display surface, and displays a predetermined pointer on the estimated pointing point on the display surface of the display unit.
이미지 캡쳐 유닛은 상기 전자장치의 전면에서 서로 상이한 위치에 배치되는 2개 이상의 이미지 센서들을 구비하는 것이 바람직하다. 보다 바람직하기로는, 이미지 캡쳐 유닛이 수평위치와 수직위치가 서로 상이하게 배치되는 2개의 이미지 센서들로 구성된다.Preferably, the image capture unit comprises two or more image sensors disposed at different positions on the front surface of the electronic device. More preferably, the image capture unit is composed of two image sensors arranged such that the horizontal position and the vertical position are different from each other.
한편, 상기 다른 기술적 과제를 해결하기 위한 본 발명의 전자장치 동작 제어방법은 디스플레이 표시면과 이미지센서를 구비하는 전자장치에서 구현되며, 사용자가 상기 전자장치에 접촉하지 않는 상태로 상기 전자장치를 조작할 수 있도록 해준다. 먼저, 상기 이미지센서를 사용하여 상기 표시면 전방을 촬상한다. 촬상한 이미지에서 사용자의 손에서의 제1 기준점의 위치를 결정하고, 사용자의 몸체에서의 제2 기준점의 위치를 결정한다. 이어서, 상기 제1 및 제2 기준점의 위치정보를 사용하여 사용자가 표시면상에서 포인팅하고자 하는 지점을 추정한다. 마지막으로, 추정된 포인팅 지점에 포인터를 표시하게 된다.According to another aspect of the present invention, there is provided an electronic device operation control method of an electronic device including a display screen and an image sensor, wherein the electronic device is operated in a state in which the user does not touch the electronic device I can do it. First, the front of the display surface is imaged using the image sensor. Determines the position of the first reference point in the user's hand in the captured image, and determines the position of the second reference point in the user's body. Then, using the position information of the first and second reference points, the user estimates a point to be pointed on the display surface. Finally, a pointer is displayed at the estimated pointing point.
상기 제1 기준점은 손가락 끝점인 것이 바람직하다. 상기 제2 기준점으로는 어느 한쪽 눈(目)의 안구 중심, 미간 중심점 즉 양쪽 눈 안구 중심의 중점, 상기 손가락에 관련된 어깨 윤곽선 상의 한 점, 머리 상단 끝점, 팔꿈치 부위의 한 점 중 한 지점을 사용하는 것이 바람직하다.The first reference point may be a finger end point. As the second reference point, an eyeball center point of the one eye (eye), a midpoint between the eyeball centers, that is, one point on the shoulder contour line, the upper end point of the head, and the elbow point .
포인팅 지점을 추정함에 있어서는, 상기 제1 기준점과 상기 제2 기준점을 연결하는 가상의 직선이 상기 표시면과 만나는 점을 상기 포인팅 지점으로 추정할 수 있다. 그렇지만, 사용자의 손이 표시면 일부를 가리게 되는 현상을 감소시키고, 사용자가 팔을 높이 들지 않아도 되도록 추정 방식이 변형될 수도 있다. 일 예로서, 상기 제1 기준점보다 소정 거리만큼 위에 있는 보조기준점을 결정하고, 상기 보조기준점과 상기 제2 기준점을 연결하는 가상의 직선이 표시면과 만나는 점을 포인팅 지점으로 추정할 수 있다. 다른 예로서, 상기 제2 기준점보다 소정 거리만큼 아래에 있는 보조기준점을 결정하고, 상기 제1 기준점과 상기 보조기준점을 연결하 는 가상의 직선이 표시면과 만나는 점을 포인팅 지점으로 추정할 수 있다. 또 다른 예로서, 상기 제1 기준점과 상기 제2 기준점을 연결하는 가상의 직선이 표시면과 만나는 점을 결정하고, 결정된 점보다 소정 거리만큼 위에 있는 점을 포인팅 지점으로 추정할 수도 있다.In estimating the pointing point, a point at which a virtual straight line connecting the first reference point and the second reference point meet the display surface can be estimated as the pointing point. However, the phenomenon that the user's hand hides part of the display surface is reduced, and the estimation method may be modified such that the user does not need to raise the arm. As an example, it is possible to determine an auxiliary reference point that is a predetermined distance from the first reference point, and to estimate a point where a virtual straight line connecting the auxiliary reference point and the second reference point meets the display surface. As another example, it is possible to determine an auxiliary reference point that is a predetermined distance below the second reference point, and to estimate a point where a virtual straight line connecting the first reference point and the auxiliary reference point meets the display surface as a pointing point . As another example, it is possible to determine a point at which a virtual straight line connecting the first reference point and the second reference point meet with the display surface, and to estimate a point that is a predetermined distance from the determined point as a pointing point.
디스플레이 표시면 상에 포인터가 표시된 상태에서 상기 이미지센서에 의하여 소정의 선택 이벤트가 발생하는지를 모니터링하고, 상기 선택 이벤트가 발생하는 경우 이에 응답하여 포인팅 지점에 상응한 동작이 이루어지도록 하는 것이 바람직하다.It is preferable to monitor whether a predetermined selection event is generated by the image sensor in a state where a pointer is displayed on a display display surface and to perform an operation corresponding to a pointing point in response to the selection event.
또한, 소정의 기능비활성화 이벤트가 발생하는지를 모니터링하고, 상기 기능비활성화 이벤트가 발생하면 표시면에서 포인터를 소거함으로써, 포인터가 필요할 때에만 선택적으로 표시되도록 하는 것이 바람직하다. 상기 기능비활성화 이벤트는 예컨대 포인팅 지점이 표시면 밖에 있는 시간이 일정 시간이상 지속되는 것, 또는 포인터 내지 제1 기준점이 일정 시간이상 정지해있는 것이 될 수 있다.In addition, it is preferable to monitor whether a predetermined function inactivation event occurs, and to erase the pointer on the display surface when the function inactivation event occurs, so that the pointer is selectively displayed only when necessary. The function deactivation event may be, for example, that the time when the pointing point is outside the display surface continues for a predetermined time or that the pointer or the first reference point is stopped for a predetermined time or more.
본 발명에 따르면, 전자장치 사용자가 전자장치를 직접 접촉하거나 리모콘을 사용하지 않고서도 마치 터치패널을 사용하는 것과 같이 정확하고 안정되게 화면상의 메뉴를 포인팅할 수 있게 해주고, 포인팅, 메뉴/항목 선택, 기능조정 등 사용자가 의도하는 기능을 실시간 처리할 수 있다. 이에 따라, 전자장치에 대한 직감적인 유저 인터페이스가 가능해지는데, 특히 이러한 유저 인터페이스를 구현함에 있어 사용자의 사전학습이 요구되는 바는 거의 없다. 그러므로, 전자장치의 편의성 이 크게 높아지는 효과가 있다.According to the present invention, an electronic device user can precisely and stably point the on-screen menu, such as using a touch panel without touching the electronic device directly or using a remote control, and can perform pointing, menu / It is possible to process the function of user's intention in real time such as function adjustment. Accordingly, an intuitive user interface for an electronic device becomes possible, and in particular, the user's prior learning is hardly required in realizing such a user interface. Therefore, there is an effect that the convenience of the electronic device is greatly increased.
도 1은 본 발명에 의한 디지털텔레비전 수신기에서 사용자가 화면상의 한 지점을 포인팅하는 예를 개념적으로 보여준다.FIG. 1 conceptually shows an example in which a user points at a point on a screen in a digital television receiver according to the present invention.
도시된 디지털텔레비전 수신기의 전면에는 액정패널 디스플레이(50)가 마련되어 있고, 디스플레이(50)의 표시면(52)은 전방을 향하도록 상하방향으로 연이어져 배치되어 있다. 한편, 액정패널 디스플레이(50)의 네 모서리를 수납하면서 보호하는 하우징의 전면에서, 대각선 방향으로 위치하는 두 구석지점 부근에는 이미지센서(54a, 54b)가 각각 마련되어 있다.A liquid
이와 같은 디지털텔레비전 수신기를 통해 방송을 시청하는 중에 볼륨이나 채널 또는 여타의 기능을 조정하고 싶은 경우, 사용자는 사전에 정해진 특정 제스쳐를 취함으로써 하프톤(Half tone) 또는 완전한 톤(Full tone)의 OSD(On-screen Display) 조정메뉴가 방송영상에 중첩되어 표시되게 할 수 있다. 일 실시예에 있어서, OSD 조정메뉴는 '채널업(+)' 아이콘(56a), '채널다운(-)' 아이콘(56b), '볼륨업(+)' 아이콘(56c), '볼륨다운(-)' 아이콘(56d), 볼륨 레벨 인디케이터(56e), '전원 온/오프' 아이콘(56f)을 포함한다.When a user wishes to adjust a volume, channel, or other function while viewing a broadcast through such a digital television receiver, the user may select a specific gesture predetermined, and thus, a halftone or full tone OSD (On-screen Display) adjustment menu to be superimposed on the broadcast image. In one embodiment, the OSD adjustment menu includes a 'channel up (+)'
OSD 조정메뉴가 표시된 상태에서, 사용자는 별도의 리모콘이나 포인팅 디바이스를 사용하지 않고서 자신의 손으로 자신이 포인팅하고자 하는 위치를 손으로 가리킴으로써, 이 위치를 포인팅할 수 있다. 일 실시예에 있어서, 텔레비전 수신기는 이미지센서(54a, 54b)에 의하여 지속적으로 전방을 촬상하면서, 사용자의 미 간 중심점 Peye(Xeye,Yeye,Zeye)와 화면에 가까운 손의 손가락 끝점 Pf(Xf,Yf,Zf)의 공간좌표를 결정한다. 여기서, 상기 손가락은 사용자가 뻗고 있는 손가락 또는 집게손가락이 될 수 있다. 이어서, 수신기는 두 기준점 (Xeye,Yeye,Zeye), (Xf,Yf,Zf)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 점 Ppoint(Xpoint,Ypoint,Zpoint)을 결정하고, 이 점을 사용자가 포인팅하고자 의도하는 점이라고 추정한다. 이어서, 디지털텔레비전 수신기는 추정된 포인팅 지점에 포인터를 표시하고, 포인터 지점에 위치하는 아이콘을 두드러지게 하여 강조하여 표시한다.With the OSD control menu displayed, the user can point to this position by pointing his or her hand at the position he or she wishes to point, without using a separate remote control or pointing device. In one embodiment, the television receiver captures the frontward center point Peye (Xeye, Yeye, Zeye) of the user and the finger end point Pf (Xf, Yf, Zf). Here, the finger may be a finger or a forefinger extending from the user. The receiver then determines a point Ppoint (Xpoint, Ypoint, Zpoint) at which a virtual straight line connecting the two reference points (Xeye, Yeye, Zeye), (Xf, Yf, Zf) meets the
두 기준점 Peye(Xeye,Yeye,Zeye), Pf(Xf,Yf,Zf)의 좌표가, 비록 사용자의 자세 등에 따른 정확도 변동은 있을지라도, 쉽게 결정될 수 있기 때문에 포인팅 지점의 결정이 신속하게 이루어질 수 있다. 또한, 위 두 점이 20~30 센티미터(cm) 이상 이격되어 있기 때문에 포인팅의 안정성이 매우 높게 된다. 사용자가 손을 움직이는 경우, 표시면 상의 포인터는 신속하게 손의 움직임을 추종한다. 직감적이고 감각적인 방식으로 이루어지는 이와 같은 포인팅은 쉬울 뿐만 아니라, 별도의 기기 조작을 요하지 않기 때문에 간단하다. 이와 같이, 사용자는 수신기 방향으로 손가락을 가리킴으로써 오히려 터치패널을 사용하는 것보다도 디스플레이(50) 표시면 위의 한 점을 쉽고 간단하게 포인팅할 수 있다.The pointing point can be determined quickly because the coordinates of the two reference points Peye (Xeye, Yeye, Zeye) and Pf (Xf, Yf, Zf) can be easily determined even if there is accuracy variation according to the user's attitude or the like . Also, since the two points are spaced by 20 to 30 centimeters (cm), the stability of the pointing is very high. When the user moves the hand, the pointer on the display surface quickly follows the movement of the hand. This pointing, which is intuitive and sensible, is not only easy, but also simple because it does not require any device manipulation. Thus, by pointing the finger in the direction of the receiver, the user can easily and easily point a point on the
한편, 포인팅을 의도했던 지점에 포인터가 표시되어 있는 상태에서, 사용자는 사전에 정해진 선택 이벤트를 연출함으로써, 예컨대 전방의 가상 버튼을 누르듯이 집게손가락 끝을 앞으로 구부림으로써, 포인터 주변에 있는 메뉴 항목이 선택, 실행되도록 할 수 있다. 예컨대, 사용자가 '채널업(+)' 아이콘 위에 포인터를 가져다 둔 상태에서 선택 이벤트를 연출하면, 수신기는 방송신호 수신 채널번호를 증가시킨다. 연속적으로 선택 이벤트가 발생하는 경우, 그에 상응하여 채널번호가 연속적으로 증가될 수 있다. 음량의 경우에도 이와 동일한 방식으로 변경될 수 있다. 한편, '볼륨업(+)'이나 '볼륨다운(-)' 아이콘을 연속적으로 선택하는 대신에 레벨 인디케이터(56e) 상의 특정 세그먼트를 선택함으로써 볼륨 레벨을 한번에 여러 단계 변화시킬 수도 있다.On the other hand, in a state in which the pointer is displayed at a point where the pointing was intended, the user directs the predetermined selection event, for example, by bending the forefinger forward in the same manner as pressing the forward virtual button, Selected, and executed. For example, if a user brings a selection event while holding a pointer on a 'channel up (+)' icon, the receiver increases the broadcast signal receiving channel number. When the selection event occurs continuously, the channel number can be continuously increased correspondingly. The volume can also be changed in the same way. On the other hand, instead of sequentially selecting the 'volume up (+)' or 'volume down (-)' icon, the volume level can be changed in several steps at a time by selecting a specific segment on the
도 2a 및 도 2b는 일 실시예에 있어서 두 기준점 Peye(Xeye,Yeye,Zeye), Pf(Xf,Yf,Zf)의 좌표를 결정하는데 사용되는 좌표계를 보여준다. 본 실시예에 있어서, 수신기의 전방 공간에 있는 각 점 Po(Xo,Yo,Zo)의 위치를 결정하기 위한 원점으로는 디스플레이 표시면(52)의 중앙점이 사용된다. 그리고, 이 원점을 기준으로 직교좌표계의 각 좌표축이 적절하게 배치된다.Figures 2a and 2b show a coordinate system used to determine the coordinates of two reference points Peye (Xeye, Yeye, Zeye), Pf (Xf, Yf, Zf) in one embodiment. In the present embodiment, the center point of the
도 3은 본 발명에 의한 디지털텔레비전 수신기의 일 실시예를 보여준다. 도시된 디지털텔레비전 수신기는 방송신호 수신부(10), 영상신호 처리부(40), 디스플레이(50) 및 시스템 제어부(60)를 포함한다.3 shows an embodiment of a digital television receiver according to the present invention. The digital television receiver includes a broadcast
방송신호 수신부(10)에 있어서, 튜너(12)는 안테나 또는 케이블을 통해 입력되는 다수의 방송신호들 중에서 사용자가 선국한 어느 한 채널의 방송신호를 선택하여 출력한다. 복조부(14)는, 해당 수신기에 채택된 변조방식 예컨대 8-VSB 변조방식에 상응하는 복조기법에 의하여, 튜너(12)로부터의 방송신호를 복조하여, 복조된 트랜스포트 스트림을 출력한다. 역다중화부(16)는 복조된 트랜스포트 스트림을 역다중화하여, 부호화된 비디오 비트스트림과 부호화된 오디오 비트스트림을 분리해낸다. 영상복호화부(18)는 부호화된 비디오 비트스트림을 복호화하여 비디오 비트스트림을 출력한다.In the broadcast
영상신호 처리부(40)는 영상복호화부(18)로부터의 비디오 비트스트림을 디스플레이 가능한 영상 출력포맷으로 변환 처리하며, 디스플레이(50)는 포맷변환된 비디오 신호에 상응한 영상을 그 표시면(52)에 디스플레이한다. 한편, 디스플레이(50) 표시면(52)에는 방송 영상 이외에도 기능조정을 위한 OSD 조정메뉴가 하프톤(Half tone) 또는 온전한 톤(Full tone)으로 표시될 수 있다. 다른 한편으로, 방송 영상 및 OSD 조정메뉴 이외에, 인터넷 콘텐츠가 디스플레이(50) 표시면(52)에 표시될 수도 있다. 이를 위하여, 영상신호 처리부(40)는 시스템 제어부(60)로부터 선택제어신호와, OSD 표시 데이터 또는 인터넷 콘텐츠 데이터를 받아들여, 선택제어신호에 따라, 포맷변환된 비디오 신호에 OSD 조정메뉴가 중첩된 영상 또는 인터넷 콘텐츠 영상신호를 디스플레이(50)에 제공한다. 디스플레이(50)는 영상신호 처리부(40)로부터의 영상신호에 상응한 영상을 디스플레이하게 된다.The video signal processing unit 40 converts the video bit stream from the
음성복호화부(20)는 부호화된 오디오 비트스트림을 복호화하여 오디오 비트스트림을 출력한다. 디지털-아날로그 변환기(DAC, 미도시됨)는 오디오 비트스트림을 아날로그 음성신호로 변환하고, 증폭기(미도시됨)는 아날로그 음성신호를 증폭하여 스피커(30)를 통해 출력한다.The
시스템 제어부(60)는 수신기의 각 부분을 전반적으로 제어하고, 사용자의 조작 명령에 응답하여 수신기의 각 부분의 기능을 조정한다. 시스템 제어부(60)는 마이크로프로세서 또는 마이크로컨트롤러에 의하여 구현되는데, 특히, 역할이 분담되는 두 개 이상의 마이크로프로세서 또는 마이크로컨트롤러에 의하여 구현될 수도 있다. 시스템 제어부(60)는 사용자의 조작 명령을 수신기 본체 외면에 마련된 버튼들(미도시됨) 또는 리모콘으로부터 받아들일 수 있다.The
나아가, 본 발명에 따르면, 시스템 제어부(60)는 사용자의 조작 명령을, 이미지센서(54a, 54b)가 촬상한 사용자 화상으로부터 사용자가 포인팅하고자 의도하는 표시면 위의 지점을 추정하여, 인식할 수도 있다. 포인팅 지점을 추정하면, 시스템 제어부(60)는 영상신호 처리부(40)에 포인터에 관한 영상신호를 제공하여, 디스플레이(50) 표시면의 포인팅 지점에 포인터가 표시되도록 한다. 이와 같은 상태에서, 사용자가 특정 기능 또는 메뉴를 선택하면, 시스템 제어부(60)는 이 선택에 응답하여 그에 상응한 기능조정이 이루어지도록 수신기의 해당 부분을 제어한다.Further, according to the present invention, the
메모리(70)에서, ROM(72)은 시스템 제어부(60)의 동작을 위한 운영체제 내지 펌웨어와, 그리고 본 발명을 구현하는데 필요한 응용프로그램을 저장한다. 특히, ROM(72)에는 본 발명에 의한 제어 기능 활성화의 판단에 필요한 사용자 제스처 패턴 데이터와, 손가락 끝점 추출에 필요한 윤곽선 패턴 데이터를 저장하는 것이 바람직하다. RAM(74)은 시스템 동작 과정에서 발생하는 임시데이터를 저장한다. 메모리(70) 중 전부 또는 일부는 시스템 제어부(60)를 구성하는 마이크로컨트롤러의 내장 메모리에 의하여 대체될 수도 있다.In the
네트웍인터페이스(80)는 시스템 제어부(60)가 인터넷에 접근할 수 있게 해준다. 이 네트웍인터페이스(80)는 예컨대, 케이블 모뎀, xDSL 모뎀, 광망종단장 치(ONU: Optical Network Unit) 내지 FTTH(Fiber-to-the-Home) 모뎀이 될 수 있다. 한편, 위와 같이 네트웍인터페이스(80)가 디지털텔레비전 수신기에 내장될 수도 있지만, 변형된 실시예에 있어서는 디지털텔레비전 수신기와는 별도로 제작된 형태의 모뎀이 디지털텔레비전 수신기에 외부적으로 접속될 수도 있다. 시스템 제어부(60)는 사용자 제어 명령에 따라 인터넷을 통해 외부의 웹서버, 메일서버, 또는 FTP서버에 접속하여 콘텐츠를 요구하고, 수신되는 콘텐츠를 영상신호 처리부(40)를 통하여 디스플레이(50)에 표시되게 할 수 있다. 여기서, 인터넷 기능 선택, 인터넷 접속 요청, HTTP요구, 전자메일 수발신 또는 FTP요구 등 인터넷 관련 제어 명령도, 디스플레이(50)에 메뉴 내지 선택항목을 표시한 상태에서, 이미지센서(54a, 54b)로부터의 촬상한 이미지에서 사용자가 의도하는 포인팅 지점을 추정하고 선택 이벤트를 인식하여 받아들일 수 있음은 물론이다.The
도 4는 시스템 제어부(60)에서 실행되는 프로그램 모듈의 구성을 보여준다. 각 프로그램 모듈의 동작을 총체적으로 제어하는 주 제어부(100) 이외에, 기능활성화 이벤트 검출부(102), 기준점 화소 검출부(104), 포인터 위치 결정부(106), 포인터 표시 제어부(108), 선택 이벤트 검출부(110), 동작 제어부(112), 및 기능비활성화 이벤트 검출부(114)가 시스템 제어부(60)에서 실행된다.FIG. 4 shows a configuration of a program module executed by the
한편, 시스템 제어부(60)의 일부를 구성하는 것은 아니지만, 도 4에는 설명의 편의상 제1 내지 제4 프레임 메모리들(122~128)을 함께 도시하였다. 제1 내지 제4 프레임 메모리(122~128) 각각은 이미지센서(54a 또는 54b)가 촬상한 화상 데이터를 1 프레임 단위로 저장한다. 제1 프레임 메모리(122)는 제1 이미지센서(54a) 에 의해 촬상된 현재 프레임의 화상 데이터를 저장한다. 제2 프레임 메모리(124)는 제1 이미지센서(54a)에 의해 촬상된 이전 프레임의 화상 데이터를 저장한다. 여기서, 연산 부담을 줄이기 위하여, 이미지센서들(54a 또는 54b)이 촬상한 영상프레임을 모두 사용하는 대신에, 일부를 스키핑하고, 예컨대 0.1초 또는 0.5초당 한 프레임씩만을 선택하여 사용할 수도 있는데, 이러한 경우 '이전 프레임'이란 0.1초 또는 0.5초 이전의 프레임을 일컫는다. 3 프레임 메모리(126)는 제2 이미지센서(54a)에 의해 촬상된 현재 프레임의 화상 데이터를 저장한다. 제4 프레임 메모리(128)는 제2 이미지센서(54a)에 의해 촬상된 이전 프레임의 화상 데이터를 저장한다. 일 실시예에 있어서, 제1 내지 제4 프레임 메모리들(122~128)은 메모리(70)의 RAM(74)에 의해 구현될 수 있다.4 does not constitute a part of the
시스템 제어부(60)에 있어서, 주 제어부(100)는 기능활성화 이벤트 검출부(102)로 하여금 본 발명에 의한 제어기능을 활성화시키기 위한 이벤트가 발생하는지를 모니터링하도록 한다. 기능활성화 이벤트 검출부(102)로부터 이벤트 발생 보고 내지 제어기능 활성화 요구가 수신되면, 주 제어부(100)는 도 1에 도시된 바와 같이 디스플레이(50) 상에서 OSD 조정메뉴가 방송영상에 중첩되어 표시되도록 포인터 표시 제어부(108)를 통하여 영상신호 처리부(40)를 제어한다. 아울러, 제어기능 활성화 요구에 응답하여, 주 제어부(100)는 기준점 화소 검출부(104), 포인터 위치 결정부(106), 포인터 표시 제어부(108), 및 선택 이벤트 검출부(110)를 활성화시킨다.In the
그리고, 주 제어부(100)는 기준점 화소 검출부(104)로 하여금 이미지센 서(54a,54b)에 의해 획득한 화상 내에서 기준점들의 화소 위치를 검출하도록 하고, 포인터 위치 검출부(106)로 하여금 상기 화소 위치들을 토대로 사용자가 포인팅하고자 하는 지점의 위치를 추정하여 포인터 위치를 결정하도록 한다. 포인터 위치를 수신하면, 주 제어부(100)는 포인터 표시 제어부(108)로 하여금 포인터 위치를 재조정하고 포인터 주변의 아이콘을 강조하여 표시하도록 한다. 선택 이벤트 검출부(110)로부터 선택 이벤트 검출 신호를 수신하면, 주 제어부(100)는 포인터 주변의 아이콘에 해당하는 기능조정이 이루어지도록 동작제어부(112)를 통해서 튜너(12), 음성증폭기(미도시됨) 등 수신기 요소들의 동작을 제어한다. 기능 비활성화 이벤트 검출부(114)로부터 기능 비활성화 이벤트 발생신호를 수신하면, 주 제어부(100)는 디스플레이(50) 상에서 OSD 조정메뉴를 소거하도록 포인터 표시 제어부(108)를 제어하고, 기준점 화소 검출부(104), 포인터 위치 결정부(106), 포인터 표시 제어부(108), 및 선택 이벤트 검출부(110)를 대기모드로 전환한다.The
기능활성화 이벤트 검출부(102)는 본 발명에 의한 제어기능 활성화 조건으로서 사전에 정해진 기능활성화 이벤트가 발생하는지를 모니터링하고, 기능활성화 이벤트가 발생하는 경우 주 제어부(102)로 하여금 제어기능 활성화를 위한 프로세스를 실행해줄 것을 요구하게 된다. 바람직한 실시예에 있어서, 기능활성화 이벤트는 사용자가 사전에 정해진 패턴의 제스쳐를 일정 시간, 예컨대 3초 이상의 시간동안, 취하는 것으로 정해진다. 이와 같은 제스쳐의 예로는 한 눈을 감아 윙크하는 것, 얼굴의 특정 부위에 손바닥 또는 주먹을 가져다대고 있는 것, 손가락 또는 손바닥을 모니터 쪽으로 향하게 가리키고 있는 것 등을 들 수 있다.The function activation
기능활성화 이벤트 검출부(102)는 일정 주기(예컨대 1초)마다 제1 프레임 메모리(122)에 저장된 영상 데이터를 독출하여 ROM(72)에 저장되어 있는 제스쳐 패턴 데이터와 비교함으로써, 사용자가 기능활성화를 위한 제스쳐를 취하고 있는지를 판단한다. 사용자가 상기 제스쳐를 취하고 있고 일정 시간 이상 유지하는 것으로 판단하는 경우, 기능활성화 이벤트 검출부(102)는 사용자가 기능활성화를 요구하는 것으로 판단하고, 주 제어부(100)에 제어기능 활성화를 요구한다.The function activation
기준점 화소 검출부(104)는 제1 이미지센서(54a)에 의해 촬상된 현재 프레임의 화상 데이터를 제1 프레임 메모리(122)로부터 독출하고, 이 화상(도 5의 154a) 내에서 객체인 사용자의 윤곽선을 검출하고, 이 윤곽선을 메모리(70)에 저장된 패턴과 비교함으로써, 화상 내에서 제1 기준점에 해당하는 화소(도 5의 155a)의 위치를 결정한다. 여기서, 제1 기준점이란 사용자의 신체에서 양손 중 화면에 가까운 손의 손가락 끝점, 특히 뻗쳐져 있는 손가락 또는 집게손가락의 끝점을 말한다. 윤곽선 검출이나 패턴 비교는 기존에 다양한 방법이 제시되어 있고 본 발명이 속하는 기술분야에서 당업자가 용이하게 구현할 수 있으므로 이에 대한 상세한 설명은 생략한다.The reference point
마찬가지 방법으로, 기준점 화소 검출부(104)는 제2 이미지센서(54b)에 의해 촬상된 현재 프레임의 화상 데이터를 제3 프레임 메모리(126)로부터 독출하고, 이 화상(도 5의 154b) 내에서 제1 기준점에 해당하는 화소(도 5의 155b)의 위치를 결정한다. 나아가, 기준점 화소 검출부(104)는 제1 및 제2 이미지센서(54a, 54b)에 의해 각각 촬상된 화상(도 5의 154a, 154b) 내에서 사용자의 좌우측 안구 중심에 해당하는 화소들의 위치를 결정한다. 그리고, 각 화상에서 좌우측 안구 중심에 해당하는 화소들의 위치를 평균하여, 제2 기준점 즉 좌우측 안구 중심의 중점 내지 미간 중심점에 해당하는 화소의 위치를 결정한다.Similarly, the reference point
포인터 위치 결정부(106)는 제1 및 제2 이미지센서(54a, 54b)에 의해 각각 촬상된 화상(도 5의 154a, 154b) 내에서 제1 및 제2 기준점에 해당하는 화소(도 5의 155a, 55b)의 위치 데이터를 기준점 화소 검출부(104)로부터 받아들이고, 이 데이터들을 사용하여 제1 기준점 Pf(Xf,Yf,Zf) 및 제2 기준점 Peye(Xeye,Yeye,Zeye)의 공간좌표를 계산한다. 그리고, 포인터 위치 결정부(106)는 제1 기준점 Pf(Xf,Yf,Zf) 및 제2 기준점 Peye(Xeye,Yeye,Zeye)의 공간좌표를 사용하여, 디스플레이 표시면(52)에서의 포인터 위치 Ppoint(Xpoint,Ypoint,0)를 결정한다.The
이를 위하여, 포인터 위치 결정부(106)는 먼저 제1 이미지센서(54a)에 의해 촬상된 화상(154a)에 대하여, 제1 기준점 즉 손가락 끝점에 해당한다고 결정된 화소(155a)의 위치를 토대로, 해당 화소에 상이 맺힐 수 있는 점들의 위치를 기술하는 가상의 직선(156a)의 방정식을 계산한다. 또한, 포인터 위치 결정부(106)는 제2 이미지센서(54b)에 의해 촬상된 화상(154b)에 대하여, 화상 내에서 제1 기준점에 해당한다고 결정된 화소(155b)의 위치를 토대로, 해당 화소에 상이 맺힐 수 있는 점들의 위치를 기술하는 가상의 직선(156b)의 방정식을 계산한다. 그 다음, 포인터 위치 결정부(106)는 두 직선의 교점을 결정한다. 교점 결정은, 두 직선(156a, 156b)의 방정식을 대수적으로 연립하여 풀어서 이루어질 수도 있지만, 계산 오류를 감안하여 수치해석적으로 예컨대 반복법(iteration)에 의하여 각각의 직선에서 상 대 직선과 가장 거리가 가까운 점들을 결정하고 그 중점을 계산하여 결정하는 것이 바람직하다. 이 교점이 제1 기준점 Pf(Xf,Yf,Zf)이 된다. 그리고, 제2 기준점 Peye(Xeye,Yeye,Zeye) 즉, 사용자의 미간 중심점도 이와 유사한 방식으로 결정할 수 있다.For this purpose, the
나아가, 포인터 위치 결정부(106)는 도 1에 도시된 바와 같이 두 기준점 Pf(Xf,Yf,Zf), Peye(Xeye,Yeye,Zeye)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 지점의 좌표(Xpoint,Ypoint,0)를 결정하고, 이 점을 사용자가 포인팅하고자 의도하는 점이라고 추정한다.1, a virtual straight line connecting the two reference points Pf (Xf, Yf, Zf), Peye (Xeye, Yeye, Zeye) is displayed on the
포인터 표시 제어부(108)는, 주 제어부(100)의 메뉴 활성화 지시신호에 응답하여, 선택제어신호를 영상신호 처리부(40)에 출력함과 아울러, 디스플레이(50) 상에서 OSD 조정메뉴가 방송영상에 중첩되어 표시되도록 OSD 조정메뉴 데이터를 영상신호 처리부(40)에 제공한다. 도 1에 도시된 바와 같이, OSD 조정메뉴는 '채널업(+)' 아이콘(56a), '채널다운(-)' 아이콘(56b), '볼륨업(+)' 아이콘(56c), '볼륨다운(-)' 아이콘(56d), 볼륨 레벨 인디케이터(56e), '전원 온/오프' 아이콘(56f)을 포함하며, 그밖에 수신기 기능조정 아이콘이나, 'OSD 조정메뉴 끝내기' 아이콘을 추가로 포함할 수 있다. 포인터가 표시될 때에는, 포인팅 지점에 위치하는 아이콘이 색상이나 명도 또는 채도에 있어 두드러지게 강조되어 표시된다. 그리고, 주 제어부(100)를 통하여 또는 포인터 위치 결정부(106)로부터 직접 포인터 좌표 데이터를 수신하면, 새로운 포인터 좌표에 맞추어 OSD 조정메뉴 데이터를 갱신하여 영상신호 처리부(40)에 제공한다.The pointer
선택 이벤트 검출부(110)는 사용자가 포인터 위치에 상응한 기능조정을 요구하는 선택 이벤트가 발생하는지를 모니터링하고, 선택 이벤트가 발생하는 경우 주 제어부(102)로 하여금 해당 기능조정을 위한 프로세스를 실행해줄 것을 요구하게 된다. 바람직한 실시예에 있어서, 선택 이벤트는 사용자가 전방의 가상 버튼을 누르듯이 집게손가락 끝을 앞으로 구부리는 것, 즉 허공에 대한 클릭을 검출하는 것으로 정해진다. 이와 같이 사용자가 허공에 클릭하는 순간, 도 6에 도시된 바와 같이, 손가락 끝 좌표는 높이가 낮아지거나 화면쪽으로 이동하거나 또는 양자가 모두 발생하게 된다.The selection
도 7은 선택 이벤트 검출 과정의 일 실시예를 보여준다. 본 실시예에 있어서, 선택 이벤트 검출부(110)는 기준점 화소 검출부(104)로부터 프레임 단위로 제1 기준점 즉, 손가락 끝점 데이터를 받아들여 RAM(74)에 저장한다(제200단계). 한편, 선택 이벤트 검출부(110)는 제1 및 제2 프레임 메모리(122, 124)로부터의 화상 데이터를 받아들이고, 손의 윤곽선을 추출한 후 윤곽선 상의 특징점 또는 중심점의 위치를 저장해둔다(제202단계). 선택 이벤트 검출부(110)는 기준점 화소 검출부(104)로부터 받아들인 좌표로부터 전후방향(z축 방향) 및 상하방향(y축 방향)의 프레임간 좌표 변화량을 계산한 후, 일정 시간(예컨대 0.5초) 동안의 누적 좌표변화량을 계산한다(제204단계). 그리고, 선택 이벤트 검출부(110)는 전후방향(z축 방향) 또는 상하방향(y축 방향)의 누적 좌표변화량(ΔZf, ΔYf)이 각각 기준치(TH1, TH2)보다 큰 지를 판단한다(제206단계). 만약 전후방향(z축 방향)과 상하방향(y축 방향)의 누적 좌표변화량(ΔZf, ΔYf)이 모두 각각의 기준치(TH1, TH2)보 다 작다면, 제어명령 비활성화 명령이 인가되지 않는 한 검출 프로세스는 제200단계로 복귀한다(제214단계).FIG. 7 shows an embodiment of a selection event detection process. In this embodiment, the selection
한편, 제206단계에서 전후방향(z축 방향) 또는 상하방향(y축 방향)의 누적 좌표변화량(ΔZf, ΔYf)이 각각 기준치(TH1, TH2)보다 크다고 판단된 경우, 선택 이벤트 검출부(110)는 해당 시간동안의 윤곽선 이동량을 계산하고, 윤곽선 이동량이 일정 기준치(TH3)보다 작은 지를 판단한다(제208단계, 제210단계). 만약 제210단계에서 윤곽선 이동량이 기준치(TH3)보다 작다고 판단되면, 선택 이벤트 검출부(110)는 손이 전체적으로 움직이지 않은 상태에서 손가락만 클릭했다고 간주하고 선택 이벤트 발생신호를 주 제어부(100)로 송신한다(제212단계). 그렇지만, 제210단계에서 윤곽선 이동량이 기준치(TH3)보다 크다고 판단된 경우에는, 선택 이벤트 검출부(110)는 포인팅을 위하여 손이 전체적으로 이동하였다고 보고 선택 이벤트 발생신호를 송신하지 않는다. 주 제어부(100)로부터 제어명령 비활성화 명령이 인가되지 않는 한, 이 프로세스가 반복적으로 수행된다.On the other hand, if it is determined in
선택 이벤트 검출부(110)로부터 선택 이벤트 검출 신호를 수신하면, 주 제어부(100)는 포인터 주변의 아이콘에 해당하는 기능조정이 이루어지도록 동작제어부(112)에게 기능조정을 지시한다. 이에 따라, 동작 제어부(112)는 튜너(12), 음성증폭기(미도시됨) 등 수신기 요소들의 동작을 제어하여 사용자가 의도한 기능조정이 이루어지도록 한다.Upon receiving the selection event detection signal from the selection
기능비활성화 이벤트 검출부(114)는 본 발명에 의한 제어기능을 종료하기 위한 기능비활성화 이벤트가 발생하는지를 모니터링하고, 기능비활성화 이벤트가 발 생하는 경우 주 제어부(102)에 기능비활성화 이벤트 발생신호를 송신한다. 기능비활성화 이벤트의 예로는 예컨대 5초 이상의 시간동안 손가락의 움직임이 없는 것을 들 수 있다.The function
본 발명에 의한 디지털텔레비전 수신기는 다음과 같이 동작한다.The digital television receiver according to the present invention operates as follows.
도 8은 본 발명에 의한 디지털텔레비전 수신기에서 제어기능의 전체적인 흐름을 보여준다.8 shows the overall flow of the control function in the digital television receiver according to the present invention.
방송시청 중에 또는 인터넷 사용 중에 사용자는 기능 활성화를 위한 요건으로 사전에 정해진 이벤트를 발생시킴으로써 본 발명에 의한 제어기능을 활성화시켜 편리하게 수신기의 기능을 조정할 수 있다. 이러한 기능활성화 이벤트는 일정한 패턴의 제스쳐, 예컨대 한 눈을 감아 윙크하는 것, 얼굴의 특정 부위에 손바닥 또는 주먹을 가져다대고 있는 것, 손가락으로 또는 손바닥을 모니터 쪽으로 향하게 가리키고 있는 것 등의 제스쳐를 일정 시간(예컨대 3초 이상의 시간)동안 취하는 것으로 정해질 수 있음은 위에서 설명한 바와 같다.The user can conveniently adjust the function of the receiver by activating the control function according to the present invention by generating a predetermined event as a requirement for activating the function during watching the broadcast or using the Internet. Such a function activation event may be a gesture of a certain pattern, such as winking a single eye, bringing a palm or fist to a specific part of the face, pointing a finger or palm toward the monitor, (E.g., a time of 3 seconds or more).
전원이 켜져 있는 한, 수신기는 이미지센서(54a, 54b)를 통하여 수신기 전방의 화상을 계속 획득하면서, 위와 같은 기능활성화 이벤트가 발생하는지 모니터링한다(제300단계). 기능활성화 이벤트가 발생하면, 시스템 제어부(60)는 수신기가 방송수신 모드를 수행하고 있는지, 인터넷 모드를 수행하고 있는지를 판단한다(제302단계). 만약, 수신기가 방송수신 모드를 수행하고 있는 상태였다면, 시스템 제어부(60)는 방송수신 제어프로세스를 수행한다(제304단계). 이에 반하여, 수신기가 인터넷 모드를 수행하고 있었다면, 시스템 제어부(60)는 인터넷 브라우징 제어 프로세스를 수행한다(제306단계).As long as the power is on, the receiver continues to acquire the image in front of the receiver through the
도 9는 도 8에 도시된 방송수신 제어프로세스(제304단계)를 보여준다.FIG. 9 shows a broadcast reception control process shown in FIG. 8 (Step 304).
포인터 표시 제어부(108)는 OSD 조정메뉴 데이터를 영상신호 처리부(40)에 제공하는 한편 선택제어신호를 출력하여, 영상신호 처리부(40)가 방송영상에 OSD 조정메뉴가 중첩된 영상을 디스플레이(50)를 통해 출력하도록 한다(제320단계). 이와 같은 상태에서, 포인터 위치 결정부(106)는 사용자가 포인팅하고자 의도하는 위치를 추정하여 포인터 위치로 결정하고, 결정된 포인터 위치에 포인터를 표시한다(제322단계).The pointer
포인터 위치 결정 과정을 도 10을 참조하여 보다 구체적으로 설명한다.The pointer positioning process will be described in more detail with reference to FIG.
제1 및 제2 이미지센서(54a, 54b)는 지속적으로 화상이 획득하여 프레임 메모리(122, 126)에 저장한다(제340단계). 기준점 화소 검출부(104)는 제1 및 제2 이미지센서(54a, 54b)에 의해 촬상된 화상 내에서, 제1 기준점 즉, 사용자의 집게손가락 끝점에 해당하는 화소(도 5의 155a, 155b)의 위치를 결정하고, 마찬가지로 제2 기준점 즉, 미간 중심점에 해당하는 해당하는 화소의 위치를 결정한다. 포인터 위치 결정부(106)는 이 화소들의 위치 데이터를 사용하여 제1 기준점 Pf(Xf,Yf,Zf) 및 제2 기준점 Peye(Xeye,Yeye,Zeye)의 공간좌표를 계산한다(제342단계, 제344단계). 그리고, 포인터 위치 결정부(106)는 제1 기준점 Pf(Xf,Yf,Zf) 및 제2 기준점 Peye(Xeye,Yeye,Zeye)의 공간좌표를 사용하여, 디스플레이 표시면(52)에서의 포인터 좌표 Ppoint(Xpoint,Ypoint,0)를 결정한다(제346단계). 포인터 좌표가 결정되면, 포인터 표시 제어부(108)는 새로운 포인터 좌표에 맞게 OSD 조정메 뉴 데이터를 갱신하여 영상신호 처리부(40)에 제공한다. 이에 따라, 화면상에서 갱신된 포인터 좌표에 해당하는 위치에 포인터가 표시되고, 포인터 주위에 있는 메뉴항목 하이이콘이 색상이나 명도 또는 채도에 있어 두드러지게 강조되어 표시된다(제348단계).The first and
다시 도 9를 참조하면, 제322단계에서 포인팅하고자 하는 위치에 포인터가 표시되면, 사용자는 선택 이벤트를 발생시킴으로써 즉, 손가락으로 허공에 클릭을 함으로써, 포인터가 위치하고 있는 지점과 관련된 아이콘을 선택하여, 이 아이콘에 해당하는 조정기능을 실행시킬 수 있다. 시스템 제어부(60)의 선택 이벤트 검출부(110)는 선택 이벤트가 발생하면(제324단계), 선택 이벤트 발생신호를 주 제어부(100)에 출력한다. 주 제어부(100)는 동작 제어부(112)로 하여금 음성증폭기 또는 튜너를 제어하도록 함으로써 해당 조정기능이 실행될 수 있도록 한다(제326단계). 이에 따라 사용자가 의도하는 기능이 손쉽게 구현될 수 있다. 한편, 사용자가 조정기능을 이용하던 중에 일정 시간동안 손가락을 움직이지 않거나 화면상의 'OSD 조정메뉴 끝내기' 아이콘을 선택하면(328), 비활성화 이벤트 검출부(114)는 비활성화 이벤트 검출신호를 주 제어부(100)에 출력한다. 이 신호에 응답하여, 주 제어부(100)는 포인터 표시 제어부(108)를 제어하여 OSD 조정메뉴가 소거되도록 하고, 기준점 화소 검출부(104), 포인터 위치 결정부(106), 포인터 표시 제어부(108), 및 선택 이벤트 검출부(110)를 대기모드로 전환시킨다.Referring again to FIG. 9, when a pointer is displayed at a position to be pointed in
도 11은 도 8에 도시된 인터넷 브라우징 제어프로세스(제306단계)를 보여준다.Fig. 11 shows the Internet browsing control process shown in Fig. 8 (Step 306).
인터넷TV 모드에서, 주 제어부(100)는 네트웍 인터페이스(80)를 통해 수신되는 인터넷 콘텐츠 데이터를 영상신호 처리부(40)에 제공하며, 이에 따라 인터넷 콘텐츠가 디스플레이(50)에 표시된다(제360단계). 이와 같은 상태에서, 제어기능이 활성화되면, 포인터 위치 결정부(106)는 사용자가 포인팅하고자 의도하는 위치를 추정하여 포인터 위치로 결정하고, 결정된 포인터 위치에 포인터를 표시한다(제362단계). 포인터 위치를 결정하는 과정을 도 10과 관련하여 위에서 설명한 것과 같다. 포인팅하고자 하는 위치에 포인터가 표시되면, 사용자는 선택 이벤트를 발생시킬 수 있다. 시스템 제어부(60)의 선택 이벤트 검출부(110)는 선택 이벤트가 발생하면(제364단계), 선택 이벤트 발생신호를 주 제어부(100)에 출력한다. 주 제어부(100)는 디스플레이(50) 표시면 상에서 현재의 포인팅 위치에 있는 하이퍼링크 내지 메뉴항목을 추출하고, 추출된 하이퍼링크 내지 메뉴항목에 상응하는 콘텐츠를 이와 관련된 서버에 요구한다(제366단계). 제368단계에서 네트웍 인터페이스(80)를 통해 콘텐츠를 수신하면, 주 제어부(100)는 수신된 콘텐츠가 디스플레이(50)에 표시되도록 한다. 한편, 사용자가 화면상의 'OSD 조정메뉴 끝내기' 아이콘을 선택하면(328), OSD 조정메뉴 또는 인터넷TV 모드 자체가 종료된다(제370단계).In the Internet TV mode, the
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.
예컨대, 이상의 설명에서는 디지털텔레비전 수신기를 중심으로 본 발명의 바람직한 실시예를 설명하였지만, 본 발명은 이에 한정되지 않고 여타의 이미지 디스 플레이 장치에도 동일하게 적용할 수 있다. 이와 같은 장치로는 예컨대, 아날로그텔레비전 수신기, 텔레비전 신호 수신 기능이 없이 복합영상신호 또는 비디오 비트스트림을 받아들여 표시하는 모니터, 프리젠테이션용 프로젝터, PC 및 여타의 정보기기 등을 들 수 있는데, 이에 한정되는 것은 아니다. 나아가, 본 발명은 디스플레이 유닛을 구비하고 사용자가 조작명령을 인가할 수 있는 여타의 전자장치에도 유사하게 적용할 수 있다.For example, although the preferred embodiments of the present invention have been described above with reference to a digital television receiver, the present invention is not limited thereto and can be applied to other image display apparatuses as well. Such an apparatus includes, for example, an analog television receiver, a monitor for receiving and displaying a composite video signal or a video bit stream without the function of receiving a television signal, a projector for presentation, a PC, and other information devices. It is not. Further, the present invention is similarly applicable to other electronic apparatuses having a display unit and to which a user can apply operation commands.
한편, 이상의 설명에서는 집게손가락의 끝점(Pf)을 제1 기준점으로 하고, 좌우측 안구 중심의 중점(Peye) 내지 미간 중심점을 제2 기준점으로 하여, 포인터 좌표 (Xpoint,Ypoint,0)를 결정하였지만, 본 발명의 다른 실시예에 있어서는 미간 중심점이 아닌 다른 몸체 부분 예컨대 어느 한쪽 눈의 안구 중심, 어깨 윤곽선 상의 한 점, 머리 상단 끝점 등을 제2 기준점으로 할 수도 있다.In the above description, the coordinates (Xpoint, Ypoint, 0) of the pointer are determined by using the forefinger's end point Pf as the first reference point and the middle point Peye to the right and left eye center as the second reference point. In another embodiment of the present invention, the second reference point may be a body portion other than the center point between the eyes, for example, an eyeball center of one eye, a point on the shoulder contour, or an upper end of the head.
다른 한편으로, 이상의 설명에서는, 도 12a와 같이, 집게손가락의 끝점(Pf)과 미간 중심점(Peye)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 점(Ppoint)을 포인팅 지점으로 결정하게 되면, 포인팅하는 손에 의해 화면 일부가 가리게 되어, 사용자에게 불편함을 야기할 수 있다. 이를 감안하여, 본 발명의 다른 실시예에 있어서는, 도 12b와 같이 제1 기준점(Pf)보다 일정한 옵셋(D1)만큼 위에 보조기준점(Pfup)을 상정하고, 이 보조기준점(Pfup)과 제2 기준점(Peye)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 점(Ppoint2)을 포인팅 지점으로 결정할 수도 있다. 또 다른 실시예에 있어서는, 도 12c와 같이 제2 기준점(Peye)보다 일정한 옵셋(D2)만큼 아래에 보조기준점(Peyedown)을 상정하고, 제1 기준점(Pf)과 보조기준점(Peyedown)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 점(Ppoint2)을 포인팅 지점으로 결정할 수도 있다. 또 다른 실시예에 있어서는, 도 12d와 같이 제1 기준점(Pf)과 제2 기준점(Peye)을 연결하는 가상의 직선이 디스플레이 표시면(52)과 만나는 점(Ppoint)을 결정한 후, 이보다 일정한 옵셋(D3)만큼 위에 있는 점(Ppoint3)을 포인팅 지점으로 결정할 수도 있다. 이와 같은 변형된 실시예들에 따르면, 사용자가 포인팅할 때 손에 의해 화면이 가리는 문제가 없게 되며, 손을 높게 들지 않아도 되기 때문에 포인팅이 더욱 손쉬워진다는 장점이 있다.On the other hand, in the above description, as shown in Fig. 12A, a point (Ppoint) at which a virtual straight line connecting the end point Pf of the forefinger and the center of gravity Peye meets the
이와 같이, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
도 1은 본 발명에 의한 디지털텔레비전 수신기에서 사용자가 화면상의 한 지점을 포인팅하는 예를 개념적으로 보여주는 도면.BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a conceptual illustration of an example in which a user points to a point on a screen in a digital television receiver according to the present invention; Fig.
도 2a 및 도 2b는 일 실시예에 있어서 기준점들의 좌표를 결정하는데 사용되는 좌표계를 예시하는 도면.Figures 2a and 2b illustrate a coordinate system used to determine the coordinates of reference points in one embodiment.
도 3은 본 발명에 의한 디지털텔레비전 수신기의 일 실시예의 블록도.3 is a block diagram of one embodiment of a digital television receiver according to the present invention;
도 4는 도 3에 도시된 시스템 제어부에서 실행되는 프로그램 모듈의 상세 블록도.FIG. 4 is a detailed block diagram of a program module executed in the system control unit shown in FIG. 3;
도 5는 제어부에서 제1 기준점 또는 제2 기준점의 위치를 결정하는 과정을 설명하기 위한 도면.5 illustrates a process of determining a position of a first reference point or a second reference point in a control unit.
도 6은 사용자가 허공에 클릭하는 순간의 손가락 변화를 보여주는 도면.6 is a diagram showing a finger change at the moment the user clicks on the air.
도 7은 선택 이벤트 검출 과정의 일 실시예를 보여주는 흐름도.7 is a flow chart showing an embodiment of a selection event detection process.
도 8은 본 발명에 의한 디지털텔레비전 수신기에서 제어기능의 전체적인 흐름을 보여주는 흐름도.8 is a flow chart showing the overall flow of control functions in a digital television receiver according to the present invention;
도 9는 방송수신 제어프로세스를 보여주는 흐름도.9 is a flowchart showing a broadcast reception control process;
도 10은 도 9의 프로세스에서 포인터 위치 결정 및 표시 단계를 구체적으로 보여주는 흐름도.10 is a flow chart specifically illustrating pointer positioning and display steps in the process of FIG. 9;
도 11은 인터넷 브라우징 제어프로세스를 보여주는 흐름도.11 is a flow chart showing an Internet browsing control process;
도 12a 내지 도 12d는 표시면 상의 포인팅 지점을 결정하는 예들을 설명하기 위한 도면.12A to 12D are diagrams for explaining examples for determining a pointing point on a display surface;
Claims (35)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090048289A KR101585466B1 (en) | 2009-06-01 | 2009-06-01 | Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090048289A KR101585466B1 (en) | 2009-06-01 | 2009-06-01 | Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100129629A KR20100129629A (en) | 2010-12-09 |
KR101585466B1 true KR101585466B1 (en) | 2016-01-15 |
Family
ID=43506209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090048289A KR101585466B1 (en) | 2009-06-01 | 2009-06-01 | Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101585466B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018048043A1 (en) * | 2016-09-09 | 2018-03-15 | 주식회사 토비스 | Space touch recognition method and space touch recognition device using same |
US20190212814A1 (en) * | 2018-01-05 | 2019-07-11 | Lapis Semiconductor Co., Ltd. | Operation determination device and operation determination method |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012091185A1 (en) * | 2010-12-27 | 2012-07-05 | Lg Electronics Inc. | Display device and method of providing feedback for gestures thereof |
KR101151962B1 (en) | 2011-02-16 | 2012-06-01 | 김석중 | Virtual touch apparatus and method without pointer on the screen |
KR101381928B1 (en) * | 2011-02-18 | 2014-04-07 | 주식회사 브이터치 | virtual touch apparatus and method without pointer on the screen |
KR20120126508A (en) * | 2011-05-12 | 2012-11-21 | 김석중 | method for recognizing touch input in virtual touch apparatus without pointer |
KR101235432B1 (en) | 2011-07-11 | 2013-02-22 | 김석중 | Remote control apparatus and method using virtual touch of electronic device modeled in three dimension |
KR101733115B1 (en) | 2011-11-08 | 2017-05-10 | 한국전자통신연구원 | Method and apparatus for controlling content of the remote screen |
US9107003B2 (en) * | 2011-12-15 | 2015-08-11 | Apple Inc. | Extended duct with damping for improved speaker performance |
KR101237472B1 (en) * | 2011-12-30 | 2013-02-28 | 삼성전자주식회사 | Electronic apparatus and method for controlling electronic apparatus thereof |
KR101343748B1 (en) * | 2012-04-23 | 2014-01-08 | 주식회사 브이터치 | Transparent display virtual touch apparatus without pointer |
KR101533320B1 (en) * | 2012-04-23 | 2015-07-03 | 주식회사 브이터치 | Apparatus for acquiring 3 dimension object information without pointer |
KR101272458B1 (en) * | 2012-05-11 | 2013-06-07 | 김석중 | virtual touch apparatus and method without pointer on the screen |
KR101334585B1 (en) * | 2012-05-29 | 2013-12-05 | 주식회사 브이터치 | Remote control apparatus and method for virtual touch using displaying information of projector |
KR20140085061A (en) * | 2012-12-27 | 2014-07-07 | 삼성전자주식회사 | Display apparatus and Method for controlling display apparatus thereof |
KR20140087787A (en) * | 2012-12-31 | 2014-07-09 | 삼성전자주식회사 | display apparatus and method for controlling the display apparatus therof |
KR101980546B1 (en) * | 2013-01-04 | 2019-08-28 | 엘지전자 주식회사 | Operating Method for Image Display apparatus |
CN105593787B (en) * | 2013-06-27 | 2019-07-05 | 视力移动科技公司 | The system and method for being pointing directly at detection for being interacted with digital device |
KR101533319B1 (en) | 2014-02-22 | 2015-07-03 | 주식회사 브이터치 | Remote control apparatus and method using camera centric virtual touch |
KR101453815B1 (en) | 2014-08-01 | 2014-10-22 | 스타십벤딩머신 주식회사 | Device and method for providing user interface which recognizes a user's motion considering the user's viewpoint |
KR101630153B1 (en) * | 2014-12-10 | 2016-06-24 | 현대자동차주식회사 | Gesture recognition apparatus, vehicle having of the same and method for controlling of vehicle |
KR102310870B1 (en) * | 2015-01-12 | 2021-10-12 | 삼성전자주식회사 | Display apparatus and the controlling method thereof |
KR101937823B1 (en) | 2016-10-24 | 2019-01-14 | 주식회사 브이터치 | Method, system and non-transitory computer-readable recording medium for assisting object control |
KR102343963B1 (en) | 2017-05-30 | 2021-12-24 | 주식회사 케이티 | CNN For Recognizing Hand Gesture, and Device control system by hand Gesture |
US10299032B2 (en) | 2017-09-11 | 2019-05-21 | Apple Inc. | Front port resonator for a speaker assembly |
KR102459487B1 (en) | 2017-11-03 | 2022-10-26 | 주식회사 케이티 | Apparatus and Method for classifing Gesture based on CNN |
KR20190061956A (en) | 2017-11-28 | 2019-06-05 | 주식회사 케이티 | Apparatus and Method to Improve The Accuracy of Virtual Cursor |
US11451902B1 (en) | 2021-05-07 | 2022-09-20 | Apple Inc. | Speaker with vented resonator |
US11490190B1 (en) | 2021-05-07 | 2022-11-01 | Apple Inc. | Speaker with multiple resonators |
KR20230102557A (en) * | 2021-12-30 | 2023-07-07 | 주식회사 브이터치 | Method, system and non-transitory computer-readable recording medium for supporting user input |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003316510A (en) * | 2002-04-23 | 2003-11-07 | Nippon Hoso Kyokai <Nhk> | Display device for displaying point instructed on display screen and display program |
JP2006277666A (en) * | 2005-03-30 | 2006-10-12 | Nhk Engineering Services Inc | Display screen position analysis device and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19990008158A (en) * | 1995-04-28 | 1999-01-25 | 모리시타요우이치 | Interface device |
KR100526536B1 (en) * | 2002-06-03 | 2005-11-08 | 삼성전자주식회사 | Method for allocating a uati in a mobile communication system for high rate packet data transmission |
-
2009
- 2009-06-01 KR KR1020090048289A patent/KR101585466B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003316510A (en) * | 2002-04-23 | 2003-11-07 | Nippon Hoso Kyokai <Nhk> | Display device for displaying point instructed on display screen and display program |
JP2006277666A (en) * | 2005-03-30 | 2006-10-12 | Nhk Engineering Services Inc | Display screen position analysis device and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018048043A1 (en) * | 2016-09-09 | 2018-03-15 | 주식회사 토비스 | Space touch recognition method and space touch recognition device using same |
US20190212814A1 (en) * | 2018-01-05 | 2019-07-11 | Lapis Semiconductor Co., Ltd. | Operation determination device and operation determination method |
US11079840B2 (en) * | 2018-01-05 | 2021-08-03 | Lapis Semiconductor Co., Ltd. | Operation determination device and operation determination method |
Also Published As
Publication number | Publication date |
---|---|
KR20100129629A (en) | 2010-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101585466B1 (en) | Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same | |
US9400560B2 (en) | Image display device and display control method thereof | |
US8693732B2 (en) | Computer vision gesture based control of a device | |
US20170102776A1 (en) | Information processing apparatus, method and program | |
CN107943551B (en) | Screen display method and mobile terminal | |
US8659549B2 (en) | Operation control device and operation control method | |
US20120229509A1 (en) | System and method for user interaction | |
JP4697279B2 (en) | Image display device and detection method | |
US20140053115A1 (en) | Computer vision gesture based control of a device | |
KR20130081580A (en) | Display apparatus and controlling method thereof | |
CN110944139B (en) | Display control method and electronic equipment | |
CN109104566B (en) | Image display method and terminal equipment | |
CN108536366A (en) | A kind of application window method of adjustment and terminal | |
CN111488057A (en) | Page content processing method and electronic equipment | |
KR102208893B1 (en) | Display apparatus and channel map manage method thereof | |
WO2022100262A1 (en) | Display device, human body posture detection method, and application | |
KR101134245B1 (en) | Electronic device including 3-dimension virtualized remote controller and driving methed thereof | |
KR20220127568A (en) | Method for providing home tranninig service and a display apparatus performing the same | |
CN112733673A (en) | Content display method and device, electronic equipment and readable storage medium | |
CN111479068A (en) | Photographing method, electronic device, and computer-readable storage medium | |
CN115002443B (en) | Image acquisition processing method and device, electronic equipment and storage medium | |
CN110719531A (en) | Video playing progress adjusting method and electronic equipment | |
CN109788124B (en) | Method and device for determining starting position of function bar and mobile terminal | |
US9582120B2 (en) | Display device, mobile terminal and method of controlling the same | |
JP2016035625A (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |