KR101079598B1 - 디스플레이장치 및 그 제어방법 - Google Patents

디스플레이장치 및 그 제어방법 Download PDF

Info

Publication number
KR101079598B1
KR101079598B1 KR1020070133450A KR20070133450A KR101079598B1 KR 101079598 B1 KR101079598 B1 KR 101079598B1 KR 1020070133450 A KR1020070133450 A KR 1020070133450A KR 20070133450 A KR20070133450 A KR 20070133450A KR 101079598 B1 KR101079598 B1 KR 101079598B1
Authority
KR
South Korea
Prior art keywords
user
movement
pointer
image
display
Prior art date
Application number
KR1020070133450A
Other languages
English (en)
Other versions
KR20090065906A (ko
Inventor
강정우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070133450A priority Critical patent/KR101079598B1/ko
Priority to US12/187,165 priority patent/US8237654B2/en
Publication of KR20090065906A publication Critical patent/KR20090065906A/ko
Application granted granted Critical
Publication of KR101079598B1 publication Critical patent/KR101079598B1/ko
Priority to US13/542,212 priority patent/US20120274553A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 디스플레이장치 및 그 제어방법에 관한 것이다. 디스플레이장치의 제어방법은, 사용자를 촬상하여 이미지를 생성하고, 상기 생성된 이미지에 기초하여 상기 사용자의 움직임을 분석하여, 상기 분석된 사용자의 움직임에 대응하는 포인터를 표시하는 단계와; 상기 사용자의 신체의 일부의 움직임을 분석하여, 상기 분석된 사용자의 움직임에 대응하는 미리 정해진 입력신호를 발생하는 단계를 포함하는 것을 특징으로 한다. 이에 의하여, 사용자는 물리적인 입력장치 및 공간적인 제약 없이 명령을 전달할 수 있다.

Description

디스플레이장치 및 그 제어방법{DISPLAY APPARATUS AND CONTROL METHOD THEREOF}
본 발명은 디스플레이장치 및 그 제어방법에 관한 것이다. 더욱 상세하게는, 본 발명은 사용자의 움직임을 감지할 수 있는 디스플레이장치 및 그 제어방법에 관한 것이다.
양방향 디지털TV 등의 디스플레이장치는 다양한 서비스를 제공할 수 있다. 특히, 디지털 데이터를 이용한 양방향 서비스(Interactive Service)로 인해, 사용자들은 기존 TV 방송 프로그램의 시청뿐만 아니라 VOD(Video On Demand), 노래방, 쇼핑몰, 뱅킹, 양방향 교육 등의 다양한 콘텐츠를 이용할 수 있게 되었다.
디스플레이장치는 영상 및 제공하는 서비스에 관한 메뉴를 표시한다. 디스플레이장치는 사용자로부터 메뉴의 이동, 선택 및 문자 등을 입력받을 수 있는데, 복잡하고 다양한 입력을 위한 입력장치로 리모콘 뿐만 아니라 무선 키보드나 무선 마우스가 이용될 수 있다.
또한 디스플레이장치는 기본적인 입력장치 외에 사용자의 동작을 인식하여 명령을 입력받을 수도 있다. 이때, 디스플레이장치는 사용자를 주시하는 카메라 또 는 센서를 내장하여 사용자의 움직임을 감지하는 장치가 필요하다.
그런데, 종래의 디스플레이장치는 사용자의 동작을 전달하기 위한 부가장치의 사용 및 관리가 불편한 문제점이 있다. 사용자의 동작을 인식하는 종래의 디스플레이장치는 사용자의 동작을 전달하기 위해 센서가 장착된 장갑, 손가락에 끼우는 장치, 손에 쥐는 장치 등을 이용해야 한다. 이러한 장치를 이용하는데 사용자는 불편함을 느낄 수 있다.
본 발명은 상기 문제점을 해결하기 위한 것으로서, 사용자는 물리적인 입력장치 및 공간적인 제약 없이 명령을 전달할 수 있는 디스플레이장치 및 그 제어방법을 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위하여, 본 발명은, 디스플레이장치의 제어 방법에 있어서, 사용자를 촬상하여 이미지를 생성하고, 생성된 이미지에 기초하여 사용자의 움직임을 분석하여, 분석된 사용자의 움직임에 대응하는 포인터를 표시하는 단계와; 사용자의 신체의 일부의 움직임을 분석하여, 분석된 사용자의 움직임에 대응하는 미리 정해진 입력신호를 발생하는 단계를 포함하는 것을 특징으로 하는 디스플레이장치의 제어 방법을 제공한다.
포인터를 표시하는 단계는, 입력장치 및 입력장치 위에 놓인 가상의 손을 표시할 수 있으며, 사용자의 움직임을 분석하여 사용자의 손등 및 손바닥이 교대로 보이는 것으로 판단되는 경우, 최초 포인터를 표시할 수 있다.
또한 포인터를 표시하는 단계는, 사용자의 움직임을 분석하여 사용자의 손의 움직임에 따라 표시된 가상의 손을 움직이도록 표시할 수 있고, 사용자를 촬상하여 복수의 이미지를 생성할 수 있다.
디스플레이장치의 제어 방법은, 생성된 이미지에 기초하여 상기 사용자가 누구인지를 인식하고, 사용자의 움직임에 대한 정보를 데이터베이스로 저장해 두는 단계를 더 포함할 수 있다.
포인터를 표시하는 단계 및 입력신호를 발생하는 단계는, 데이터베이스에 기초하여 사용자의 신체의 일부의 움직임을 분석할 수 있다. 또한 입력신호를 발생하는 단계는, 미리 정해진 동작 민감도에 따라 사용자의 신체의 일부의 움직임을 분석할 수 있다.
한편, 본 발명은, 디스플레이장치에 있어서, 사용자를 촬상하여 이미지를 생성하는 촬상부와; 포인터를 표시하도록 영상을 처리하는 영상처리부와; 처리된 영상을 디스플레이하는 디스플레이부와; 생성된 이미지에 기초하여 사용자의 움직임을 분석하여, 분석된 사용자의 움직임에 대응하는 포인터를 표시하도록 영상처리부를 제어하고, 사용자의 신체의 일부의 움직임을 분석하여 분석된 사용자의 움직임에 대응하는 미리 정해진 입력신호를 발생하는 제어부를 포함하는 것을 특징으로 하는 디스플레이장치에 의해서도 상기 목적을 달성할 수 있다.
제어부는, 입력장치 및 입력장치 위에 놓인 가상의 손을 표시하도록 영상처리부를 제어할 수 있고, 사용자의 움직임을 분석하여 사용자의 손등 및 손바닥이 교대로 보이는 것으로 판단되는 경우, 최초 포인터를 표시하도록 영상처리부를 제어할 수도 있다.
또한 제어부는, 사용자의 움직임을 분석하여 사용자의 손의 움직임에 따라 표시된 가상의 손을 움직이도록 영상처리부를 제어하는 것이 바람직하다.
촬상부는, 사용자의 신체의 일부의 움직임을 촬상하여 복수의 이미지를 생성할 수 있다.
디스플레이장치는 사용자의 신체의 일부의 움직임에 대응하는 입력신호가 저장된 저장부를 더 포함할 수 있다.
또한 제어부는, 생성된 이미지에 기초하여 사용자가 누구인지를 인식하고, 사용자의 움직임에 대한 정보를 데이터베이스로 저장해 두고, 데이터베이스에 기초하여 사용자의 신체의 일부의 움직임을 분석할 수 있고, 미리 정해진 동작 민감도에 따라 사용자의 신체의 일부의 움직임을 분석하여 분석된 사용자의 움직임에 대응하는 미리 정해진 입력신호를 발생할 수 있다.
본 발명에 의하면, 디스플레이장치 및 그 제어방법은 사용자로부터 물리적인 입력장치 및 공간적인 제약 없이 명령을 입력받을 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 일실시예에 관하여 상세히 설명한다.
도 1은 본 발명의 일실시예에 따른 디스플레이장치(100)의 구성을 도시한 블 록도이다. 본 발명의 일실시예에 따른 디스플레이장치(100)는 사용자의 움직임을 감지할 수 있다. 예컨대, 디스플레이장치(100)는 복수의 카메라로 사용자를 촬상하여 생성된 이미지에 기초하여 사용자의 움직임을 분석할 수 있다.
도 1에 도시된 바와 같이, 신호처리장치(100)는 촬상부(110), 영상처리부(120), 디스플레이부(130), 저장부(140) 및 제어부(150)를 포함할 수 있다.
촬상부(110)는 사용자(200)를 촬상하여 이미지를 생성한다. 예컨대, 촬상부(110)는 복수의 카메라를 포함할 수 있으며, 사용자(200)의 신체의 일부의 움직임을 촬상하여 복수의 이미지를 생성할 수 있다. 촬상부(110)는 디지털 카메라 및 적외선 센서 등으로 구현될 수 있다.
영상처리부(120)는 포인터를 표시하도록 영상을 처리한다. 포인터는 마우스 포인터 및 키보드 커서 등을 포함할 수 있다. 영상처리부(120)는 입력된 영상신호를 처리할 수 있으며, UI 등을 생성하여 처리된 영상과 함께 표시되도록 할 수 있다.
디스플레이부(130)는 영상처리부(120)에서 처리된 영상을 디스플레이한다. 디스플레이부(130)는 CRT(cathode ray tube), LCD(liquid crystal display), PDP(plasma display panel), DLP(digital light processing), OLED(organic light-emitting diode), SED(surface-conduction electron-emitter display), FED(field emission diplay) 등의 형태로 구현될 수 있다.
저장부(140)는 사용자의 신체의 일부의 움직임에 대응하는 입력신호가 저장된다. 예컨대, 사용자의 손이 이동된 거리 및 위치에 대응하는 포인터의 이동 거리 및 위치가 데이터베이스 형태로 저장된다. 또한 손가락이 소정 범위 이상 움직인 경우에 대응하는 특정한 입력신호가 저장된다. 저장부(140)에 저장된 데이터베이스는 전원이 꺼져도 유지되어야 하므로, 롬(ROM : Random Access Memory)등의 비휘발성 메모리나 하드디스크(HDD : Hard Disk Drive) 등으로 구현될 수 있다.
제어부(150)는 촬상부(110)에 의해 생성된 이미지에 기초하여 사용자(200)의 움직임을 분석하여, 분석된 사용자(200)의 움직임에 대응하는 포인터를 표시하도록 영상처리부(120)를 제어한다. 또한 제어부(150)는 사용자의 신체의 일부의 움직임을 분석하여 분석된 사용자의 움직임에 대응하는 미리 정해진 입력신호를 발생한다.
예컨대, 제어부(150)는 이미지를 분석하여 사용자(200)의 손의 위치 및 손가락의 동작을 파악하고, 손 및 손가락의 위치를 키보드의 특정 위치에 대응시킨다. 그리고 손이 이동한 위치만큼 마우스 또는 키보드의 커서를 이동시킨다. 또한 손가락의 움직임이 입력신호 발생을 위한 동작이라고 판단된 경우 즉, 사용자의 손가락이 지판을 누르는 동작을 취할 경우, 해당 손가락의 위치에 대응하는 키보드의 키 입력신호를 발생한다.
제어부(150)는, 입력장치 및 입력장치 위에 놓인 가상의 손을 표시하도록 영상처리부(120)를 제어할 수 있다. 도 2에 도시된 바와 같이, 디스플레이부(130)에 표시되는 화면(10)에 입력장치인 가상의 키보드(20) 및 가상의 손(30)이 표시되는 것이 바람직하다. 가상의 손(30)은 사용자(200)의 손의 위치에 대응하기 때문에, 사용자(200)가 손을 움직이거나 손가락을 움직이면 가상의 손(30) 역시 같은 동작 을 취하게 된다. 사용자(200)는 가상의 손(30)이 키보드(20) 지판 상의 어느 위치에 있는지 파악할 수 있으므로, 보다 정확한 키의 입력이 가능하다.
또한 제어부(150)는 사용자(200)의 움직임을 분석하여 사용자(200)의 손등 및 손바닥이 교대로 보이는 것으로 판단되는 경우, 최초 포인터를 표시하도록 영상처리부(120)를 제어할 수 있다. 그리고 제어부(150)는, 사용자(200)의 움직임을 분석하여 사용자(200)의 손의 움직임에 따라 표시된 가상의 손(30)을 움직이도록 영상처리부(150)를 제어하는 것이 바람직하다. 최초 포인터는 최초로 디스플레이된 가상의 키보드(20) 및 가상의 손(30)이다.
예컨대, 사용자가 카메라를 향해 손등 및 손바닥을 교대로 보이는 동작을 반복할 경우, 촬상된 이미지는 광량의 증가 및 감소가 두드러지게 된다. 손바닥에는 인종에 상관없이 멜라닌 색소가 매우 적기 때문이다. 제어부(150)는 촬상된 이미지로부터 광량의 증감이 특정치 이상이라고 판단된 경우, 물리적인 입력장치를 통한 입력모드에서 사용자의 움직임에 따라 명령을 입력받는 가상 입력모드로 전환한다. 그리고 가상의 키보드(20) 및 가상의 손(30)을 화면(10)에 표시한다. 가상 입력모드로 전환된 최초의 상태에서 화면(10)에 표시된 가상의 손(30)의 검지 손가락은 키보드(20)의 F, J키 위에 위치하는 것이 바람직하다. 다른 한편, 디스플레이장치(100)는 사용자로부터 리모콘 등을 통한 스타트 키를 입력받을 경우, 가상 입력모드를 시작하고 최초 포인터를 표시할 수 있다.
제어부(150)는, 생성된 이미지에 기초하여 사용자(200)가 누구인지를 인식하고, 사용자(200)의 움직임에 대한 정보를 데이터베이스로 저장해 두고, 데이터베이 스에 기초하여 사용자(200)의 신체의 일부의 움직임을 분석할 수 있다. 예컨대, 제어부(150)는 사용자(200)가 누구인지를 인식하여, 각 사용자(200)의 움직임에 대한 정보를 데이터베이스로 저장해 두고, 움직임을 분석할 때 이용할 수 있다.
제어부(150)는, 미리 정해진 동작 민감도에 따라 사용자(200)의 신체의 일부의 움직임을 분석하여 분석된 사용자(200)의 움직임에 대응하는 미리 정해진 입력신호를 발생할 수 있다. 예컨대, 제어부(150)는 사용자(200)가 설정한 동작 민감도가 1단계인 경우, 사용자(200)가 동작을 크게 취해야 입력으로 받아들이고, 동작 민감도의 단계가 높아질수록, 동작을 작게 취해도 입력으로 받아들이도록 할 수 있다.
이하에서는, 도 3을 참조하여 본 발명의 일실시예에 따른 디스플레이장치(100)의 제어방법을 설명한다.
디스플레이장치(100)는 사용자를 촬상하여 이미지를 생성한다(S11). 예컨대, 촬상부(110)는 복수의 카메라를 포함할 수 있으며, 사용자(200)의 신체의 일부의 움직임을 촬상하여 복수의 이미지를 생성할 수 있다. 또한 촬상부(110)는 소정의 시간단위로 대상을 촬영할 수 있다.
디스플레이장치(100)는 생성된 이미지에 기초하여 사용자의 움직임을 분석한다(S12). 예컨대, 제어부(150)는 이미지를 분석하여 사용자(200)의 손의 위치를 파악하고, 손 및 손가락의 위치가 이동하였는지 또는 특정한 동작을 취하는지 여부를 판단할 수 있다.
디스플레이장치(100)는 분석된 사용자의 움직임에 대응하는 포인터를 표시한 다(S13). 예컨대, 제어부(150)는 사용자의 손이 이동한 위치만큼 마우스 또는 키보드의 커서를 이동시킨다.
디스플레이장치(100)는 분석된 사용자의 움직임에 대응하는 입력신호를 발생한다(S14). 예컨대, 제어부(150)는 사용자의 손가락의 움직임이 입력신호 발생을 위한 동작이라고 판단된 경우 즉, 사용자의 손가락이 지판을 누르는 동작을 취할 경우, 해당 손가락의 위치에 대응하는 키보드의 키 입력신호를 발생한다.
한편, 디스플레이장치(100)는 사용자(200)의 움직임을 분석하여 사용자(200)의 손등 및 손바닥이 교대로 보이는 것으로 판단되는 경우, 최초 포인터를 표시할 수 있다.
도 4에 도시된 바와 같이, 먼저 디스플레이장치(100)는 사용자의 움직임을 감지한다(S21). 다음으로, 디스플레이장치(100)는 사용자의 움직임을 구체적으로 파악하기 위해 지속적으로 사용자를 촬상한다(S22). 다음으로, 디스플레이장치(100)는 촬상된 이미지에 기초하여 밝기 분석한다(S23). 다음으로, 디스플레이장치(100)는 시작 신호를 생성한다(S24).
예컨대, 사용자가 카메라를 향해 손등 및 손바닥을 교대로 보이는 동작을 반복할 경우, 촬상된 이미지는 광량의 증가 및 감소가 두드러지게 된다. 손바닥에는 인종에 상관없이 멜라닌 색소가 매우 적기 때문이다. 제어부(150)는 촬상된 이미지로부터 광량의 증감이 특정치 이상이라고 판단된 경우, 물리적인 입력장치를 통한 입력모드에서 사용자의 움직임에 따라 명령을 입력받는 가상 입력모드로 전환한다.
디스플레이장치(100)는 입력장치 및 입력장치 위에 놓인 가상의 손을 표시하 고, 사용자의 움직임을 분석하여 사용자의 손의 움직임에 따라 표시된 가상의 손을 움직이도록 표시할 수 있다.
도 5에 도시된 바와 같이, 디스플레이장치(100)는 가상 입력모드를 시작한다(S31). 그리고 디스플레이부(130)에 가상 키보드 및 가상 손을 표시한다(S32). 도 2에 도시된 바와 같이, 디스플레이부(130)에 표시되는 화면(10)에 입력장치인 가상의 키보드(20) 및 가상의 손(30)이 표시되는 것이 바람직하다. 가상의 손(30)은 사용자(200)의 손의 위치에 대응하기 때문에, 사용자(200)가 손을 움직이거나 손가락을 움직이면 가상의 손(30) 역시 같은 동작을 취하게 된다. 사용자(200)는 가상의 손(30)이 키보드(20) 지판 상의 어느 위치에 있는지 파악할 수 있으므로, 보다 정확한 키의 입력이 가능하다.
디스플레이장치(100)는 사용자의 손에 대하여 카메라를 줌인한다(S33). 일단 사용자의 입력이 시작되면, 사용자의 손에 집중하여 이미지를 분석하는 것이 손의 움직임을 파악하는데 유리하기 때문이다.
디스플레이장치(100)는 사용자의 손가락의 위치를 분석한다(S34). 그리고 손가락의 위치와 키보드의 위치를 매핑시킨다(S35). 예컨대, 가상 입력모드로 전환된 최초의 상태에서 화면(10)에 표시된 가상의 손(30)의 검지 손가락은 키보드(20)의 F, J키 위에 위치하는 것이 바람직하다.
디스플레이장치(100)는 디스플레이부(130)에 사용자의 입력시작을 표시한다(S36). 디스플레이장치(100)는 사용자로부터 입력을 받기 위한 모든 준비가 완료됐으므로 디스플레이부(130)를 통해 사용자에게 입력을 시작하라는 메시지를 표시 한다.
디스플레이장치(100)는 손가락의 움직임에 따라 가상 손을 움직이도록 표시한다(S37). 가상의 손(30)은 사용자(200)의 손의 위치에 대응하기 때문에, 사용자(200)가 손을 움직이거나 손가락을 움직이면 가상의 손(30) 역시 같은 동작을 취하게 된다.
디스플레이장치(100)는 손가락의 움직임에 따라 대응하는 키보드의 키 입력신호를 발생한다(S38). 예컨대, 사용자가 화면에 표시된 가상의 손가락이 가상의 키보드의 A키 위에 위치하도록 자신의 손가락을 움직인 후, 손가락으로 키를 누르는 동작을 취하면, 디스플레이장치(100)는 이 동작이 키 입력에 해당하는 동작임을 판단하고, A키 입력신호를 발생한다.
이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.
도 1은 본 발명의 일실시예에 따른 디스플레이장치의 구성을 도시한 도면이고,
도 2는 본 발명의 일실시예에 따른 디스플레이장치의 화면을 도시한 도면이고,
도 3은 본 발명의 일실시예에 따른 디스플레이장치의 동작 과정을 도시한 흐름도이며,
도 4는 본 발명의 일실시예에 따른 디스플레이장치의 시작 단계를 도시한 흐름도이고,
도 5는 본 발명의 일실시예에 따른 디스플레이장치의 포인터 표시 및 입력신호 발생 단계를 도시한 흐름도이다.
*도면의 주요 부분에 대한 부호의 설명
100 : 디스플레이장치 110 : 촬상부
120 : 영상처리부 130 : 디스플레이부
140 : 저장부 150 : 제어부

Claims (16)

  1. 디스플레이장치의 제어 방법에 있어서,
    사용자를 촬상하여 이미지를 생성하고, 상기 생성된 이미지에 기초하여 상기 사용자의 움직임을 분석하여, 상기 분석된 사용자의 움직임에 대응하는 포인터를 표시하는 단계와;
    상기 사용자의 신체의 일부의 움직임을 분석하여, 상기 분석된 사용자의 움직임에 대응하는 미리 정해진 입력신호를 발생하는 단계를 포함하는 것을 특징으로 하는 디스플레이장치의 제어 방법.
  2. 제1항에 있어서,
    상기 포인터를 표시하는 단계는, 입력장치 및 상기 입력장치 위에 놓인 가상의 손을 표시하는 것을 특징으로 하는 디스플레이장치의 제어 방법.
  3. 제2항에 있어서,
    상기 포인터를 표시하는 단계는, 상기 사용자의 움직임을 분석하여 상기 사용자의 손등 및 손바닥이 교대로 보이는 것으로 판단되는 경우, 최초 포인터를 표시하는 것을 특징으로 하는 디스플레이장치의 제어 방법.
  4. 제3항에 있어서,
    상기 포인터를 표시하는 단계는, 상기 사용자의 움직임을 분석하여 상기 사용자의 손의 움직임에 따라 상기 표시된 가상의 손을 움직이도록 표시하는 것을 특징으로 하는 디스플레이장치의 제어 방법.
  5. 제1항에 있어서,
    상기 포인터를 표시하는 단계는, 상기 사용자를 촬상하여 복수의 이미지를 생성하는 것을 특징으로 하는 디스플레이장치의 제어 방법.
  6. 제1항에 있어서,
    상기 생성된 이미지에 기초하여 상기 사용자가 누구인지를 인식하고, 상기 사용자의 움직임에 대한 정보를 데이터베이스로 저장해 두는 단계를 더 포함하는 것을 특징으로 하는 디스플레이장치의 제어 방법.
  7. 제6항에 있어서,
    상기 포인터를 표시하는 단계 및 상기 입력신호를 발생하는 단계는, 상기 데이터베이스에 기초하여 상기 사용자의 신체의 일부의 움직임을 분석하는 것을 특징으로 하는 디스플레이장치의 제어 방법.
  8. 제1항에 있어서,
    상기 입력신호를 발생하는 단계는, 미리 정해진 동작 민감도에 따라 상기 사 용자의 신체의 일부의 움직임을 분석하는 것을 특징으로 하는 디스플레이장치의 제어 방법.
  9. 디스플레이장치에 있어서,
    사용자를 촬상하여 이미지를 생성하는 촬상부와;
    포인터를 표시하도록 영상을 처리하는 영상처리부와;
    상기 처리된 영상을 디스플레이하는 디스플레이부와;
    상기 생성된 이미지에 기초하여 상기 사용자의 움직임을 분석하여, 분석된 사용자의 움직임에 대응하는 포인터를 표시하도록 상기 영상처리부를 제어하고, 상기 사용자의 신체의 일부의 움직임을 분석하여 상기 분석된 사용자의 움직임에 대응하는 미리 정해진 입력신호를 발생하는 제어부를 포함하는 것을 특징으로 하는 디스플레이장치.
  10. 제9항에 있어서,
    상기 제어부는, 입력장치 및 상기 입력장치 위에 놓인 가상의 손을 표시하도록 상기 영상처리부를 제어하는 것을 특징으로 하는 디스플레이장치.
  11. 제10항에 있어서,
    상기 제어부는, 상기 사용자의 움직임을 분석하여 상기 사용자의 손등 및 손바닥이 교대로 보이는 것으로 판단되는 경우, 최초 포인터를 표시하도록 상기 영상 처리부를 제어하는 것을 특징으로 하는 디스플레이장치.
  12. 제11항에 있어서,
    상기 제어부는, 상기 사용자의 움직임을 분석하여 상기 사용자의 손의 움직임에 따라 상기 표시된 가상의 손을 움직이도록 상기 영상처리부를 제어하는 것을 특징으로 하는 디스플레이장치.
  13. 제9항에 있어서,
    상기 촬상부는, 상기 사용자의 신체의 일부의 움직임을 촬상하여 복수의 이미지를 생성하는 것을 특징으로 하는 디스플레이장치.
  14. 제9항에 있어서,
    상기 사용자의 신체의 일부의 움직임에 대응하는 입력신호가 저장된 저장부를 더 포함하는 것을 특징으로 하는 디스플레이장치.
  15. 제9항에 있어서,
    상기 제어부는, 상기 생성된 이미지에 기초하여 상기 사용자가 누구인지를 인식하고, 상기 사용자의 움직임에 대한 정보를 데이터베이스로 저장해 두고, 상기 데이터베이스에 기초하여 상기 사용자의 신체의 일부의 움직임을 분석하는 것을 특징으로 하는 디스플레이장치.
  16. 제9항에 있어서,
    상기 제어부는, 미리 정해진 동작 민감도에 따라 상기 사용자의 신체의 일부의 움직임을 분석하여 상기 분석된 사용자의 움직임에 대응하는 미리 정해진 입력신호를 발생하는 것을 특징으로 하는 디스플레이장치.
KR1020070133450A 2007-12-18 2007-12-18 디스플레이장치 및 그 제어방법 KR101079598B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020070133450A KR101079598B1 (ko) 2007-12-18 2007-12-18 디스플레이장치 및 그 제어방법
US12/187,165 US8237654B2 (en) 2007-12-18 2008-08-06 Display apparatus and control method thereof
US13/542,212 US20120274553A1 (en) 2007-12-18 2012-07-05 Display apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070133450A KR101079598B1 (ko) 2007-12-18 2007-12-18 디스플레이장치 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20090065906A KR20090065906A (ko) 2009-06-23
KR101079598B1 true KR101079598B1 (ko) 2011-11-03

Family

ID=40752537

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070133450A KR101079598B1 (ko) 2007-12-18 2007-12-18 디스플레이장치 및 그 제어방법

Country Status (2)

Country Link
US (2) US8237654B2 (ko)
KR (1) KR101079598B1 (ko)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101449232B (zh) * 2006-03-30 2013-06-05 雷泽美国有限公司 模块化计算机鼠标器
WO2008066521A1 (en) * 2006-11-29 2008-06-05 Razer (Asia-Pacific) Pte Ltd Customizable computer input device
US8959013B2 (en) * 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
KR101896947B1 (ko) * 2011-02-23 2018-10-31 엘지이노텍 주식회사 제스쳐를 이용한 입력 장치 및 방법
CN102693042A (zh) * 2011-03-22 2012-09-26 中兴通讯股份有限公司 一种影像键盘生成方法和装置
US9176608B1 (en) 2011-06-27 2015-11-03 Amazon Technologies, Inc. Camera based sensor for motion detection
US9207852B1 (en) * 2011-12-20 2015-12-08 Amazon Technologies, Inc. Input mechanisms for electronic devices
KR20130081580A (ko) * 2012-01-09 2013-07-17 삼성전자주식회사 표시 장치 및 그 제어 방법
KR20130115750A (ko) * 2012-04-13 2013-10-22 포항공과대학교 산학협력단 가상 키보드 상의 키 입력을 인식하는 방법 및 그 장치
US9025111B2 (en) 2012-04-20 2015-05-05 Google Inc. Seamless display panel using fiber optic carpet
US8509986B1 (en) * 2012-04-27 2013-08-13 Innova Electronics, Inc. Automotive diagnostic tool with projection display and virtual input
US9195320B1 (en) 2012-10-22 2015-11-24 Google Inc. Method and apparatus for dynamic signage using a painted surface display system
US9014417B1 (en) 2012-10-22 2015-04-21 Google Inc. Method and apparatus for themes using photo-active surface paint
US9164596B1 (en) 2012-10-22 2015-10-20 Google Inc. Method and apparatus for gesture interaction with a photo-active painted surface
KR102166330B1 (ko) 2013-08-23 2020-10-15 삼성메디슨 주식회사 의료 진단 장치의 사용자 인터페이스 제공 방법 및 장치
KR20150110032A (ko) * 2014-03-24 2015-10-02 삼성전자주식회사 영상데이터 처리 전자장치 및 방법
DE102014107211A1 (de) * 2014-05-22 2015-11-26 Atlas Elektronik Gmbh Vorrichtung zum Anzeigen einer virtuellen Realität sowie Messgerät
KR101703645B1 (ko) * 2014-09-23 2017-02-07 에스케이텔레콤 주식회사 민감도 조정이 가능한 동작 인식 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5767842A (en) 1992-02-07 1998-06-16 International Business Machines Corporation Method and device for optical input of commands or data
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
DE69634913T2 (de) * 1995-04-28 2006-01-05 Matsushita Electric Industrial Co., Ltd., Kadoma Schnittstellenvorrichtung
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US6963937B1 (en) * 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6512838B1 (en) * 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US7042442B1 (en) * 2000-06-27 2006-05-09 International Business Machines Corporation Virtual invisible keyboard
US6611253B1 (en) * 2000-09-19 2003-08-26 Harel Cohen Virtual input environment
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
KR20030021987A (ko) 2001-09-07 2003-03-15 이민호 영상처리를 이용한 무선 Finger Mouse 시스템
US6982375B2 (en) * 2003-06-06 2006-01-03 Mcgregor Rob Musical teaching device and method
JP4311190B2 (ja) * 2003-12-17 2009-08-12 株式会社デンソー 車載機器用インターフェース
JP4005061B2 (ja) * 2004-06-30 2007-11-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、プログラム、および、情報処理装置におけるオブジェクト制御方法
KR20060070280A (ko) * 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
KR100687737B1 (ko) 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
KR20070009207A (ko) 2005-07-15 2007-01-18 엘지전자 주식회사 가상 키보드 입력 장치를 갖는 이동통신 단말기 및 이를이용한 입력 방법
JP4635788B2 (ja) * 2005-09-06 2011-02-23 株式会社日立製作所 弾力性素材を用いた入力装置
KR20070030398A (ko) 2005-09-13 2007-03-16 주식회사 팬택 사용자의 손 동작에 따라서 마우스 포인터를 제어하는 이동통신 단말기 및 그 구현 방법
KR101286412B1 (ko) 2005-12-29 2013-07-18 삼성전자주식회사 다중기능 가상 사용자 입력 장치 및 방법
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5767842A (en) 1992-02-07 1998-06-16 International Business Machines Corporation Method and device for optical input of commands or data
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置

Also Published As

Publication number Publication date
US20090153476A1 (en) 2009-06-18
US8237654B2 (en) 2012-08-07
US20120274553A1 (en) 2012-11-01
KR20090065906A (ko) 2009-06-23

Similar Documents

Publication Publication Date Title
KR101079598B1 (ko) 디스플레이장치 및 그 제어방법
US10120454B2 (en) Gesture recognition control device
US20170102776A1 (en) Information processing apparatus, method and program
KR101541561B1 (ko) 유저 인터페이스 장치, 유저 인터페이스 방법, 및 기록 매체
EP2711807B1 (en) Image display apparatus and method for operating the same
WO2012111272A1 (ja) 表示制御装置および表示制御方法
CN112073767B (zh) 一种显示设备
JP2001125738A (ja) プレゼンテーション制御システム及びその制御方法
US20120019460A1 (en) Input method and input apparatus
US20110013072A1 (en) Method and apparatus for manual focusing in portable terminal
US20110221918A1 (en) Information Processing Apparatus, Information Processing Method, and Program
US20200142495A1 (en) Gesture recognition control device
JP2010079332A (ja) 遠隔操作装置及び遠隔操作方法
KR20130088493A (ko) Ui 제공 방법 및 이를 적용한 영상 수신 장치
US8184211B2 (en) Quasi analog knob control method and appartus using the same
CN116114250A (zh) 显示设备、人体姿态检测方法及应用
US6542087B2 (en) System and method for extracting a point of interest of an object in front of a computer controllable display captured by an imaging device
US20170139482A1 (en) Image display apparatus and operation method thereof
JP2016095557A (ja) 表示制御装置、及び、表示制御方法
CN102779014B (zh) 交互式投影系统以及投影仪调整控制方法
US20140160018A1 (en) Projector system
KR20110004203A (ko) 원격 제어 장치 및 원격 제어 장치에 대한 사용자 인터페이스 제공 방법
JP2011100396A (ja) 映像表示装置
KR101491648B1 (ko) 촬영부를 이용한 원격 제어 시스템 및 방법
WO2001020441A1 (en) Remote control method and apparatus for remote control mouse

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140929

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150925

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160929

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170927

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180921

Year of fee payment: 8