KR102480568B1 - A device and method for displaying a user interface(ui) of virtual input device based on motion rocognition - Google Patents

A device and method for displaying a user interface(ui) of virtual input device based on motion rocognition Download PDF

Info

Publication number
KR102480568B1
KR102480568B1 KR1020210008763A KR20210008763A KR102480568B1 KR 102480568 B1 KR102480568 B1 KR 102480568B1 KR 1020210008763 A KR1020210008763 A KR 1020210008763A KR 20210008763 A KR20210008763 A KR 20210008763A KR 102480568 B1 KR102480568 B1 KR 102480568B1
Authority
KR
South Korea
Prior art keywords
gesture
input device
user
virtual input
hand
Prior art date
Application number
KR1020210008763A
Other languages
Korean (ko)
Other versions
KR20210011046A (en
Inventor
권오윤
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130160998A external-priority patent/KR20150073378A/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210008763A priority Critical patent/KR102480568B1/en
Publication of KR20210011046A publication Critical patent/KR20210011046A/en
Application granted granted Critical
Publication of KR102480568B1 publication Critical patent/KR102480568B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 사용자의 제스처에 대한 동작인식을 통해 사용자가 원하는 가상입력장치의 UI를 표시할 수 있는 장치에 관한 것이다. 본 발명의 디스플레이장치는, 영상을 표시하는 디스플레이부, 사용자의 제스처 별로 다른 가상입력장치를 연계시킨 템플릿을 저장하는 저장부, 상기 가상입력장치의 사용자 인터페이스(UI)를 생성하는 사용자 인터페이스(UI)부, 사용자의 제스처를 촬영하는 카메라 및 상기 촬영한 사용자의 제스처를 상기 저장부의 템플릿에 저장된 사용자 제스처와 비교하고, 매칭되는 사용자 제스처에 해당하는 가상입력장치의 사용자 인터페이스(UI)를 상기 디스플레이부에 표시하도록 사용자 인터페이스(UI)부를 제어하는 제어부를 포함하여 구성할 수 있다.The present invention relates to a device capable of displaying a UI of a virtual input device desired by a user through motion recognition for a user's gesture. The display device of the present invention includes a display unit for displaying an image, a storage unit for storing a template linking different virtual input devices for each user's gesture, and a user interface (UI) for generating a user interface (UI) of the virtual input device. unit, a camera that captures the user's gesture and the captured user's gesture is compared with the user's gesture stored in the template of the storage unit, and the user interface (UI) of the virtual input device corresponding to the matched user gesture is displayed on the display unit It may be configured to include a control unit for controlling a user interface (UI) unit to display.

Description

동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(UI)를 표시하는 장치 및 방법{A DEVICE AND METHOD FOR DISPLAYING A USER INTERFACE(UI) OF VIRTUAL INPUT DEVICE BASED ON MOTION ROCOGNITION}Apparatus and method for displaying a user interface (UI) of a virtual input device based on motion recognition

본 발명은 디스플레이장치 및 동작인식을 기반으로 하는 가상 입력장치를 표시하는 방법, 더욱 상세하게는 사용자의 제스처에 따른 가상 입력장치를 템플릿화함으로써 사용자의 제스처를 인식하여 특정 가상 입력장치를 표시하고 조작하는 디스플레이장치에 관한 것이다.The present invention relates to a display device and a method for displaying a virtual input device based on motion recognition, and more particularly, a virtual input device according to a user's gesture is templated to recognize a user's gesture to display and manipulate a specific virtual input device. It relates to a display device that does.

최근 사용자의 동작을 인식하고, 인식된 동작에 특정 명령을 연동하여 실행할 수 있도록 한 제스처 인식을 이용한 명령입력장치가 개발되고 있다.Recently, a command input device using gesture recognition capable of recognizing a user's motion and executing a specific command in conjunction with the recognized motion has been developed.

종래의 제스처 인식을 이용한 명령입력방법으로는 사용자가 음성입력 또는 리모컨을 통하여 가상입력장치를 표시한 후에, 사용자 제스처를 인식하여 명령을 입력하는 방법이 한국공개특허 10-2012-0096849호에 개시되어 있다.As a conventional command input method using gesture recognition, a method in which a user inputs a command by recognizing a user gesture after displaying a virtual input device through voice input or a remote control is disclosed in Korean Patent Publication No. 10-2012-0096849. there is.

이와 같은 종래의 제스처를 이용한 명령입력방법은 기본적으로 가상입력장치를 표시하기 위해서 음성음식기술을 이용하거나, 실제 리모컨과 같은 입력장치를 이용하여 가상입력모드로 전환한 후에, 카메라를 통한 제스처 인식으로 사용자 명령을 입력할 수 있다.Such a conventional command input method using gestures basically uses voice food technology to display a virtual input device or uses an input device such as a real remote control to switch to a virtual input mode, and then recognizes the gesture through a camera. User commands can be entered.

일반적으로 사용자는 간편한 입력을 통한 명령 입력을 선호한다. 이에 반해, 종래의 제스처를 이용한 명령입력방법은 제스처 인식기술 적용을 위해 음성인식기술을 추가 적용하는 것은 복잡한 기술적 솔루션을 필요로 하며, 실물 입력장치, 예를 들면 리모컨을 찾지 못한 환경에서 음성인식기술이 적용되지 않는 경우 매우 곤란한 상황을 초래할 수 있다.In general, users prefer command input through simple input. In contrast, the conventional command input method using gestures requires a complex technical solution to additionally apply voice recognition technology to apply gesture recognition technology, and voice recognition technology in an environment where a real input device, for example, a remote control, is not found. If this is not applied, it can lead to very difficult situations.

본 발명의 목적은 상술한 종래의 문제를 해결하기 위한 것으로, 제스처 인식만으로 다양한 가상입력장치의 사용자 인터페이스(UI)를 표시할 수 있을 뿐만 아니라 손가락 움직임을 인식하여 표시된 가상입력장치의 사용자 인터페이스(UI)를 통해 사용자 명령을 입력할 수 있는, 동작인식을 기반으로 하는 가상 입력장치 UI를 표시하는 방법 및 장치를 제공함에 있다. An object of the present invention is to solve the above-mentioned conventional problems, and not only can display user interfaces (UI) of various virtual input devices only by recognizing gestures, but also user interfaces (UI) of virtual input devices displayed by recognizing finger movements. ) to provide a method and apparatus for displaying a virtual input device UI based on motion recognition, through which a user command can be input.

본 발명의 다른 목적은 일시적으로 사용자의 시선이 화면을 벗어난 후에 다시 시선이 원위치로 돌아왔을 때 사용자의 손가락 위치가 변했더라도 표시된 가상입력장치에 대한 손가락 위치를 리셋하여 사용자 명령 입력을 일관성 있게 제공할 수 있는 동작인식을 기반으로 하는 가상 입력장치 UI를 표시하는 방법 및 장치를 제공함에 있다. Another object of the present invention is to provide consistent user command input by resetting the position of a finger on a displayed virtual input device even if the position of a user's finger changes when the user's gaze returns to the original position after temporarily leaving the screen. An object of the present invention is to provide a method and apparatus for displaying a virtual input device UI based on motion recognition.

본 발명의 또 다른 목적은 시각장애자나 사용자의 시선이 벗어난 경우에도 사용자의 명령 입력 편의성을 위해 음성안내를 지원할 수 있는 동작인식을 기반으로 하는 가상 입력장치 UI를 표시하는 방법 및 장치를 제공함에 있다.Another object of the present invention is to provide a method and apparatus for displaying a virtual input device UI based on motion recognition capable of supporting voice guidance for the user's command input convenience even when the visually impaired or the user's eyes are out of sight. .

본 발명의 또 다른 목적은 사용자가 표시된 가상입력장치의 사용자 인터페이스(UI)를 통해 입력할 때 실물 입력장치의 조작 시 발생하는 조작음과 유사한 효과음을 발생할 수 있는, 동작인식을 기반으로 하는 가상 입력장치 UI를 표시하는 방법 및 장치를 제공함에 있다.Another object of the present invention is a virtual input based on motion recognition that can generate a sound effect similar to a manipulation sound generated when a physical input device is operated when a user inputs through a user interface (UI) of a displayed virtual input device. It is to provide a method and device for displaying a device UI.

상술한 본 발명의 과제를 해결하기 위한 일 실시예에 따른 동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(UI)를 표시하는 장치는, 영상을 표시하는 디스플레이부, 사용자의 제스처 별로 다른 가상입력장치를 연계시킨 템플릿을 저장하는 저장부, 상기 가상입력장치의 사용자 인터페이스(UI)를 생성하는 사용자 인터페이스(UI)부, 사용자의 제스처를 촬영하는 카메라 및 상기 촬영한 사용자의 제스처를 상기 저장부의 템플릿에 등록된 사용자 제스처와 비교하고, 매칭되는 사용자 제스처에 해당하는 가상입력장치의 사용자 인터페이스(UI)를 상기 디스플레이부에 표시하도록 사용자 인터페이스(UI)부를 제어하는 제어부를 포함하여 구성할 수 있다.An apparatus for displaying a user interface (UI) of a virtual input device based on motion recognition according to an embodiment for solving the above-described problems of the present invention is a display unit displaying an image and a virtual input different for each user's gesture. A storage unit for storing a template associated with a device, a user interface (UI) unit for generating a user interface (UI) of the virtual input device, a camera for capturing a user's gesture, and a template for the captured user's gesture It can be configured to include a control unit that controls the user interface (UI) unit so that the user interface (UI) of the virtual input device corresponding to the user gesture registered in and displayed on the display unit is compared with the user gesture that is matched.

상기 가상입력장치는 리모컨, 터치리모컨, 키보드, 마우스를 포함할 수 있다.The virtual input device may include a remote control, a touch remote control, a keyboard, and a mouse.

상기 사용자 제스처는 실물 입력장치의 그립(grip) 제스처를 포함할 수 있다.The user gesture may include a grip gesture of a physical input device.

상기 장치는 상기 표시된 가상입력장치 UI를 동작하기 위해 사용자의 손가락 움직임 및 사용자의 얼굴방향이나 시선을 인식하는 움직임 산출부를 더 포함할 수 있다.The device may further include a motion calculation unit recognizing a user's finger movement and a user's face direction or gaze in order to operate the displayed virtual input device UI.

상기 제어부는 상기 움직임 산출부에서 산출한 사용자의 손가락 움직임을 기초로 포인터를 상기 가상입력장치의 UI상에 표시할 수 있다.The controller may display a pointer on the UI of the virtual input device based on the motion of the user's finger calculated by the motion calculator.

상기 움직임 산출부는 상기 사용자 손가락의 이동방향 파악, 이동량 파악, 위치 파악, 및 실제 손가락에 대한 가상입력장치 UI의 포인터의 크기 환산을 수행할 수 있다.The motion calculation unit may determine the movement direction of the user's finger, the amount of movement, the location, and convert the size of the pointer of the virtual input device UI to the actual finger.

상기 저장부는 상기 사용자의 손가락 움직임에 따른 가상입력장치의 조작음, 기능실행내용을 설명하는 음성, 상기 사용자의 손가락이 위치하는 가상입력장치의 기능버튼의 명칭을 설명하는 음성 중 적어도 하나를 저장할 수 있다.The storage unit may store at least one of a manipulation sound of the virtual input device according to the movement of the user's finger, a voice explaining function execution details, and a voice explaining the name of a function button of the virtual input device where the user's finger is located. there is.

상기 움직임 산출부는 소정 시간 내 시선인식 데이터의 산포 및 집중도의 사전 정의된 임계(threshold)값과의 비교를 기초로 사용자의 주시 여부를 판단할 수 있다.The motion calculation unit may determine whether the user gazes or not based on a comparison between the distribution and concentration of the gaze recognition data within a predetermined time with a predefined threshold value.

상기 제어부는 사용자의 시선이 '비주시'상태로 판단되면 사용자의 이전 손가락 위치를 리셋할 수 있다.The control unit may reset the user's previous finger position when it is determined that the user's gaze is in a 'not looking' state.

상기 제어부는 사용자의 시선이 '비주시'상태로 판단되면 음성 안내모드로 전환할 수 있다.The control unit may switch to a voice guidance mode when it is determined that the user's eyes are in a 'non-looking' state.

상기 제어부는 사용자 명령에 따라 상기 가상입력장치의 UI 상의 기능 버튼을 삭제, 추가, 변경할 수 있다.The control unit can delete, add, or change function buttons on the UI of the virtual input device according to a user command.

본 발명의 일 실시예에 따른 동작인식을 기초로 가상입력장치의 UI를 표시하는 방법은, 사용자의 제스처 별로 다른 가상입력장치를 연계시킨 템플릿을 저장하는 단계, 사용자의 제스처를 촬영하는 단계, 상기 촬영한 사용자의 제스처를 상기 저장부의 템플릿에 등록된 사용자 제스처와 비교하는 단계, 상기 비교 결과, 매칭되는 사용자 제스처에 해당하는 가상입력장치의 UI를 표시하는 단계를 포함하여 구성할 수 있다.A method of displaying a UI of a virtual input device based on motion recognition according to an embodiment of the present invention includes the steps of storing a template in which different virtual input devices are linked for each user's gesture, photographing the user's gesture, and Comparing the captured user's gesture with the user's gesture registered in the template of the storage unit, and displaying the UI of the virtual input device corresponding to the matched user's gesture as a result of the comparison.

본 발명에 의하면, 사용자는 제스처만으로 간단히 다양한 가상입력장치의 사용자 인터페이스(UI)를 표시할 수 있다.According to the present invention, a user can simply display user interfaces (UIs) of various virtual input devices using only gestures.

또한 사용자는 자신만의 가상입력장치의 사용자 인터페이스를 등록하여 사용할 수 있어 사용이 편리하다.In addition, the user can register and use the user interface of his or her own virtual input device, so it is convenient to use.

또한, 시각장애자나 사용자의 시선이 정면을 벗어난 경우에도 음성 안내를 함께 수행함으로써 사용자는 보다 편리하게 가상입력장치의 사용자 인터페이스를 이용할 수 있다.In addition, even when a visually impaired person or a user's gaze is out of the front, the user can use the user interface of the virtual input device more conveniently by performing voice guidance together.

또한 사용자가 표시된 가상입력장치의 사용자 인터페이스를 이용하다가 환경 변화가 발생하더라도 가상입력장치의 사용자 인터페이스의 명령입력의 일관성을 유지시켜 줄 수 있다.In addition, even if an environment changes while the user is using the displayed user interface of the virtual input device, the consistency of the command input of the user interface of the virtual input device can be maintained.

또한, 사용자는 디스플레이부에 표시된 가상입력장치의 사용자 인터페이스를 제스처를 통해 이용하더라도 실물 입력장치를 이용하는 것과 같은 효과음을 제공할 수 있다.In addition, even when the user uses the user interface of the virtual input device displayed on the display unit through a gesture, sound effects similar to those of using a physical input device can be provided.

또한, 소프트웨어 기반 가상입력장치의 사용자 인터페이스를 적용할 수 있어 신기능 추가에 대한 업데이트를 편리하게 수행할 수 있다.In addition, since the user interface of the software-based virtual input device can be applied, it is possible to conveniently perform updates for the addition of new functions.

도 1은 본 발명의 일 실시예에 따른 동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(UI)를 표시하는 장치를 나타내는 블록도,
도 2는 사용자 제스처와 가상입력장치를 연계시킨 템플릿을 나타내는 도,
도 3은 본 발명에 따른 동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(UI)를 표시하는 장치의 사용 상태를 나타내는 도,
도 4는 본 발명에 따라 표시된 가상 입력장치의 사용자 인터페이스(UI)의 편집을 설명하기 위한 도, 및
도 5는 본 발명의 실시예에 따른 동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(UI)를 표시하는 방법을 나타내는 흐름도이다.
1 is a block diagram showing a device for displaying a user interface (UI) of a virtual input device based on motion recognition according to an embodiment of the present invention;
2 is a diagram showing a template linking a user gesture and a virtual input device;
3 is a diagram showing a use state of a device displaying a user interface (UI) of a virtual input device based on motion recognition according to the present invention;
4 is a diagram for explaining editing of a user interface (UI) of a virtual input device displayed according to the present invention; and
5 is a flowchart illustrating a method of displaying a user interface (UI) of a virtual input device based on motion recognition according to an embodiment of the present invention.

이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다. 이하 실시예에서는 본 발명의 사상과 직접적인 관련이 있는 구성들에 관해서만 설명하며, 그 외의 구성에 관해서는 설명을 생략한다. 그러나, 본 발명의 사상이 적용된 장치 또는 시스템을 구현함에 있어서, 이와 같이 설명이 생략된 구성이 불필요함을 의미하는 것이 아님을 밝힌다. 도면에 표현된 동일한 참조 번호는 동일한 구성 요소를 나타낸다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, only configurations directly related to the spirit of the present invention will be described, and descriptions of other configurations will be omitted. However, in implementing a device or system to which the spirit of the present invention is applied, it is revealed that the omitted configuration does not mean that the description is unnecessary. Like reference numbers expressed in the drawings indicate like elements.

본 발명에 따른 동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(UI)를 표시하는 장치(100)는 카메라가 장착된 텔레비전(TV), 퍼스널 컴퓨터(PC), 스마트폰, 노트북, PDA, 게임기 등으로 구현될 수 있으며, 이하 간략히 '디스플레이장치'라 칭한다.Apparatus 100 for displaying a user interface (UI) of a virtual input device based on motion recognition according to the present invention is a television (TV) equipped with a camera, a personal computer (PC), a smartphone, a laptop computer, a PDA, a game machine etc., and will be briefly referred to as a 'display device' hereinafter.

도 1에 나타낸 바와 같이, 본 발명에 따른 디스플레이장치(100)는 저장부(110), 사용자 인터페이스(UI)부(120), 카메라(130), 제어부(140), 디스플레이부(160) 및 음성출력부(170)를 포함할 수 있다. 디스플레이장치(100)는 상술한 구성요소들 이외에도 튜너를 포함하는 영상수신부(미도시), 유무선 통신부(미도시), 타이밍제어부(미도시), 영상처리부(미도시), 음성처리부(미도시) 등 더 많은 구성요소들을 포함할 수 있으며, 간략한 설명을 위해 생략한다.As shown in FIG. 1, the display apparatus 100 according to the present invention includes a storage unit 110, a user interface (UI) unit 120, a camera 130, a control unit 140, a display unit 160, and a voice An output unit 170 may be included. In addition to the components described above, the display device 100 includes an image receiving unit (not shown) including a tuner, a wired/wireless communication unit (not shown), a timing control unit (not shown), an image processing unit (not shown), and an audio processing unit (not shown). It may include more components such as, etc., and are omitted for brief description.

저장부(110)는 예를 들면 사용자 제스처와 연계시킨 가상입력장치의 템플릿(template) DB, 사용자 개인정보 DB, 손가락 움직임에 따른 음향효과 DB, 가상 입력장치 UI 상의 버튼 명칭 설명 음성DB, 손가락 움직임에 따라 입력된 명령 실행 내용 설명 음성DB 등이 사전 저장될 수 있다. 물론, 저장부(110)는 상기 열거한 데이터 이외에 영상데이터, 그래픽데이터, OS(운영체제) 등의 다양한 정보를 포함할 수 있다.The storage unit 110 includes, for example, a template DB of a virtual input device associated with a user gesture, a user personal information DB, a sound effect DB according to finger movements, a voice DB for explaining button names on the virtual input device UI, and a finger movement According to the input command execution content explanation voice DB, etc. may be pre-stored. Of course, the storage unit 110 may include various information such as image data, graphic data, and OS (operating system) other than the data listed above.

도 2는 사용자 제스처와 연계시킨 가상입력장치의 템플릿(template)을 나타낸 도로서, 사용자의 제스처가 양손으로 키보드 타이핑 제스처이면, 가상키보드를, 한 손으로 마우스를 쥐는(grip) 제스처이면 가상 마우스를, 한 손으로 리모컨을 쥐는(grip) 제스처이면 리모컨을 연계시켜 템플릿으로 구성한 예를 나타낸다.2 is a diagram showing a template of a virtual input device associated with a user gesture. If the user's gesture is a keyboard typing gesture with both hands, a virtual keyboard is used, and if the user's gesture is a gesture of gripping a mouse with one hand, a virtual mouse is displayed. , A gesture of gripping the remote control with one hand represents an example of configuring a template by linking the remote control.

사용자 개인정보 DB는 사용자 별로 자주 사용하는 버튼의 구성으로 된 가상입력장치를 등록하여 저장한 것이다. 사용자는 최초에 기본으로 구성된 가상입력 장치의 사용자 인터페이스(UI)를 편집하여 불필요한 버튼은 드래그 앤 드롭으로 삭제하거나, 필요한 버튼은 추가하여 저장할 수 있다.The user personal information DB registers and stores virtual input devices composed of frequently used buttons for each user. The user may initially edit the user interface (UI) of the virtual input device configured as a basis, delete unnecessary buttons by dragging and dropping, or add and store necessary buttons.

손가락 움직임에 따른 음향효과 DB는 손가락의 움직임을 인식하여 가상키보드의 경우 타이핑음, 가상마우스의 경우 클릭음, 가상리모컨의 버튼 터치음을 사용자 설정 또는 기본으로 저장할 수 있다.The sound effect DB according to the movement of the finger recognizes the movement of the finger and stores a typing sound in the case of a virtual keyboard, a click sound in the case of a virtual mouse, and a button touch sound of a virtual remote control as a user setting or default.

가상 입력장치 UI 상의 버튼 명칭 설명 음성DB은 각 가상입력장치 UI의 버튼에 사용자의 손가락이 위치하였을 때 위치된 버튼의 명칭을 설명하는 음성을 저장할 수 있다. 예를 들면 사용자의 손가락 위치가 '녹화'버튼에 놓인 경우, '녹화버튼에 위치되었습니다'라는 메시지를 저장할 수 있다.Button name description on the virtual input device UI The voice DB may store voices explaining the names of the buttons located when the user's finger is positioned on the button of each virtual input device UI. For example, when the user's finger position is placed on the 'record' button, a message 'located on the record button' may be stored.

손가락 움직임에 따라 입력된 명령 실행 내용 설명 음성DB는 손가락 움직임에 따른 사용자 명령을 설명하는 음성을 저장할 수 있다. 예를 들면, 사용자만의 가상입력장치를 만들기 위해 ‘녹화’버튼을 해당 버튼을 드래그 앤 드롭하여 휴지통에 넣는 경우 ‘녹화 버튼을 삭제하기 위해 휴지통에 넣었습니다’라는 메시지를 사전에 정의하여 저장할 수 있다.The voice DB for explaining the execution contents of commands entered according to finger movements can store voices that explain user commands according to finger movements. For example, if you drag and drop the 'record' button to the trash to create your own virtual input device, you can define and save the message 'You put the record button in the trash to delete' in advance. there is.

저장부(110)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The storage unit 110 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (ROM, Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) magnetic memory, magnetic disk , an optical disk, and at least one type of storage medium.

사용자 인터페이스(UI)부(120)는 인식한 사용자 제스처에 해당하는 가상입력장치 사용자 인터페이스를 생성하여 표시할 수 있다. 가상입력장치 사용자 인터페이스(UI)는 가상 키보드, 가상리모컨, 터치리모컨, 사상 마우스 등 다양한 버튼을 가진 사용자 입력이 가능한 이미지를 말한다. 사용자는 상기 버튼을 클릭, 더블클릭 또는 터치를 통해 해당 버튼이 가진 정해진 명령을 입력할 수 있다.The user interface (UI) unit 120 may generate and display a virtual input device user interface corresponding to the recognized user gesture. A virtual input device user interface (UI) refers to an image capable of user input having various buttons such as a virtual keyboard, a virtual remote control, a touch remote control, and a virtual mouse. A user may input a predetermined command of a corresponding button by clicking, double-clicking, or touching the button.

카메라(130)는 사용자의 손 동작(제스처), 얼굴, 눈을 촬영하여 영상을 생성할 수 있다. 카메라(130)는 웹캠(webcam), 팬 틸트(pan tilt) 카메라, 디지털카메라, 아날로그 카메라, 캠코더 등을 포함할 수 있다. 카메라(130)는 별도로 분리하여 설치될 수도 있고, 디스플레이장치(100)에 내장될 수도 있다. 카메라(130)는 정면에만 설치하거나, 여러 개를 사용하여 2D 또는 3D영상을 촬영할 수 있다.The camera 130 may generate an image by photographing a user's hand motion (gesture), face, and eyes. The camera 130 may include a webcam, a pan tilt camera, a digital camera, an analog camera, a camcorder, and the like. The camera 130 may be separately installed or may be built into the display device 100 . The camera 130 may be installed only on the front side, or a 2D or 3D image may be captured using several cameras.

제어부(140)는 디스플레이장치(100)의 각 구성요소, 예를 들면 저장부(110), 사용자 인터페이스(UI)부(120), 카메라(130), 디스플레이부(160) 및 음성출력부(170)를 제어할 수 있다.The control unit 140 includes each component of the display device 100, for example, the storage unit 110, the user interface (UI) unit 120, the camera 130, the display unit 160, and the audio output unit 170. ) can be controlled.

제어부(110)는 카메라(130)에서 촬영한 사용자의 제스처 영상과 저장부(110)에 저장된 제스처를 비교하고, 매칭되는 제스처에 해당하는 가상입력장치 사용자 인터페이스(UI)를 생성하여 표시하도록 사용자 인터페이스(UI)부(120)를 제어할 수 있다. The control unit 110 compares the user's gesture image captured by the camera 130 with the gesture stored in the storage unit 110, and generates a virtual input device user interface (UI) corresponding to the matched gesture to display the user interface. The (UI) unit 120 may be controlled.

제어부(140)는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors)를 포함할 수 있다.The controller 140 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and micro-controllers. , may include microprocessors.

움직임 산출부(150)는 카메라에서 촬영한 사용자의 영상을 기초로 사용자의 얼굴방향, 시선방향, 손가락의 움직임을 산출할 수 있다. 움직임 산출부(150)는 소정 시간 내 시선인식 데이터의 산포 및 집중도의 사전 정의된 임계(threshold)값과의 비교를 기초로 사용자의 주시 여부를 판단할 수 있다. 움직임 산출부(150)는 카메라(130)에서 촬영한 사용자 움직임(손가락 움직임)을 수신하여 해당 손가락의 위치, 손가락 이동량, 손가락 이동방향, 실제 손가락에 대한 가상입력장치 UI의 크기 환산을 수행할 수 있다. 제어부(140)는 상기 움직임 산출부(150)에서 산출한 손가락의 위치, 손가락 이동량, 손가락 이동방향, 실제 손가락에 대한 가상입력장치 UI의 크기 환산 값을 이용하여 다양한 명령을 실행할 수 있다. 움직임 산출부(150)는 소프트웨어, 프로그램 또는 소프트웨어를 포함하는 하드웨어로 구현될 수 있다.The motion calculation unit 150 may calculate the user's face direction, gaze direction, and finger movement based on the user's image captured by the camera. The motion calculation unit 150 may determine whether the user gazes or not based on a comparison between the distribution and concentration of the gaze recognition data within a predetermined time with a predefined threshold value. The motion calculation unit 150 may receive user motion (finger motion) captured by the camera 130 and calculate the position of the corresponding finger, the amount of movement of the finger, the direction of movement of the finger, and the size of the virtual input device UI for the actual finger. there is. The controller 140 may execute various commands using the finger position, finger movement amount, finger movement direction, and size conversion value of the virtual input device UI for the actual finger calculated by the motion calculator 150 . The motion calculator 150 may be implemented as software, a program, or hardware including software.

디스플레이부(160)는 영상처리부(미도시)에서 처리한 영상이나 UI부(120)에서 생성한 가상입력장치 UI를 시청자가 볼 수 있도록 표시할 수 있다. 디스플레이부(160)는 주사된 복수의 수평 주사 라인이 수직으로 배열됨으로써 하나의 정지영상 프레임을 표시할 수 있다. 디스플레이부(160)는 상기 영상을 표시하는 디스플레이패널(미도시)을 포함하며, 상기 디스플레이패널(미도시)은, 액정층을 포함하는 액정패널 또는 유기물로 구성된 발광층을 포함하는 유기발광패널, 플라즈마 표시패널 등을 포함할 수 있다. 디스플레이부(160)는 플렉시블 패널을 포함할 수 있다.The display unit 160 may display an image processed by an image processing unit (not shown) or a virtual input device UI generated by the UI unit 120 so that viewers can see it. The display unit 160 may display one still image frame by vertically arranging a plurality of scanned horizontal scan lines. The display unit 160 includes a display panel (not shown) for displaying the image, and the display panel (not shown) includes a liquid crystal panel including a liquid crystal layer, an organic light emitting panel including a light emitting layer made of organic materials, or plasma. A display panel and the like may be included. The display unit 160 may include a flexible panel.

음성출력부(170)는 스피커로 구현될 수 있으며, 음성처리부(미도시)에서 처리된 음성신호를 소리로 출력할 수 있다. 음성처리부는 상기 움직임 산출부(150)에서 산출한 손가락 움직임에 대응하는 음성신호를 상기 저장부(110)에서 수신하여 음성출력부(170)에서 출력 가능한 신호로 처리할 수 있다. 음성출력부(170)는 상기 움직임 산출부(150)에서 산출한 손가락 움직임을 기초로 하여, 상기 사용자의 손가락 움직임에 따른 가상입력장치의 조작음, 기능실행내용을 설명하는 음성, 상기 사용자의 손가락이 위치하는 가상입력장치의 기능버튼의 명칭을 설명하는 음성을 출력할 수 있다.The audio output unit 170 may be implemented as a speaker and may output the audio signal processed by the audio processing unit (not shown) as sound. The voice processing unit may receive the voice signal corresponding to the finger movement calculated by the motion calculation unit 150 from the storage unit 110 and process it into a signal outputtable by the audio output unit 170 . Based on the finger movements calculated by the motion calculation unit 150, the voice output unit 170 outputs operation sounds of the virtual input device according to the user's finger movements, voices explaining function execution details, and the user's fingers. A voice explaining the name of the function button of the virtual input device located there may be output.

본 발명에 따른 동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(UI)를 표시하는 방법을 디스플레이장치(TV)를 예로 들어 설명하면 다음과 같다.A method of displaying a user interface (UI) of a virtual input device based on motion recognition according to the present invention will be described using a display device (TV) as an example.

도 3에 나타낸 바와 같이, TV사용자가 TV 시청 중 리모컨을 쥐는(Grip) 제스처를 취하면, 카메라에서 TV사용자의 제스처를 촬영하여 인식한다. 이때, 인식된 사용자의 리모컨을 쥐는 제스처를 저장부(110)의 제스처 별 템플릿(Template)에 미리 정의된 제스처와 비교하고, 일치하는 제스처에 대한 입력장치로서 가상 리모컨 UI(164)를 디스플레이부(160)에 표시한다. 제스처 별 입력장치에 대한 가상 UI의 맵핑은 리모컨, 키보드, 마우스 사용시 사용자 제스처의 일반적인 특징에 기반한다. 예를 들어, 도 2에 나타낸 바와 같이, 키보드 타이핑할 때와 같이 양손을 펼친 제스처는 키보드, 마우스를 감싸고 검지를 구부린 제스처는 마우스, 리모컨을 받쳐 들고 엄지 손가락을 살짝 든 제스처는 리모컨 표시로 맵핑한다.As shown in FIG. 3, when a TV user makes a gesture of gripping a remote control while watching TV, the camera captures and recognizes the gesture of the TV user. At this time, the recognized user's gesture of holding the remote control is compared with a gesture predefined in the template for each gesture of the storage unit 110, and the virtual remote control UI 164 is used as an input device for the matching gesture on the display unit ( 160). The mapping of the virtual UI to the input device for each gesture is based on the general characteristics of the user's gesture when using a remote control, keyboard, and mouse. For example, as shown in FIG. 2, a gesture of spreading both hands, such as when typing on a keyboard, is mapped to a keyboard, a gesture of wrapping a mouse and bending an index finger, a gesture of supporting a mouse and a remote control, and slightly raising a thumb is mapped to a display of a remote control. .

또한, 사용자가 리모컨을 쥐는 제스처를 취하면, 사용자의 편의를 위해 일반식 및 터치식 가상 리모컨 중 사용자의 선호도에 따라 선택할 수 있도록 두 가지 방식의 가상리모컨을 표시할 수 있다. 이후 사용자가 엄지손가락을 움직이는 제스처를 취하면 일반식 리모컨을, 터치방식을 이용할 때 주로 사용하는 검지손가락 제스처를 취하면 터치식 리모컨을 최종적으로 표시할 수 있다. 물론 이때 그립 제스처 단계 없이 바로 손가락 제스처 인식을 통해 가상 리모컨 UI 표시 단계를 축소하는 것도 가능하다.In addition, when the user makes a gesture of holding the remote controller, two types of virtual remote controllers may be displayed for the user's convenience so that the user can select a general type virtual remote control and a touch type virtual remote control according to the user's preference. Then, when the user makes a gesture of moving his or her thumb, the general remote control is finally displayed, and when the user takes a gesture of the index finger, which is mainly used when using the touch method, the touch type remote control can be finally displayed. Of course, at this time, it is also possible to reduce the virtual remote control UI display step through finger gesture recognition without the grip gesture step.

또한 사용자가 자신이 실물 리모컨을 쥘 때의 손 모양을 저장부(110)에 추가적으로 등록하여 사용자의 그립 제스처 인식률을 높일 수 있다. 특히, 가상리모컨은 하프톤(Half tone)으로 표시될 수 있으며, 그립 및 손가락 제스처가 인식되어 표시된 후 시간이 지날수록 사용자의 제스처 또는 손가락의 움직임에 새로운 정보가 추가적으로 획득되는 것이 없을 때에는 투명도가 점점 엷어져 일정시간 이후에는 화면에서 사라지도록 설계할 수 있다.In addition, the user's grip gesture recognition rate may be increased by additionally registering a hand shape when the user holds the physical remote controller in the storage unit 110 . In particular, the virtual remote control can be displayed in a half tone, and as time passes after the grip and finger gestures are recognized and displayed, when no new information is additionally obtained from the user's gesture or finger movement, the transparency gradually increases. It can be designed to fade and disappear from the screen after a certain period of time.

도 4에 나타낸 바와 같이, 가상 리모컨이 화면에 표시된 후에는 사용자의 손가락 움직임을 감지하여 가상 리모컨 UI 상에 감지된 손가락의 위치를 표시할 수 있다. 이와 같이, 감지된 손가락의 위치를 표시하면, 사용자가 TV화면의 가상 리모컨을 보면서 리모컨의 버튼을 누르기 위한 손가락 움직임 량을 조절할 수 있도록 도와 줄 수 있다. As shown in FIG. 4 , after the virtual remote control is displayed on the screen, the motion of the user's finger may be detected and the position of the detected finger may be displayed on the virtual remote control UI. In this way, if the position of the detected finger is displayed, it is possible to help the user adjust the amount of movement of the finger to press the button of the remote control while viewing the virtual remote control on the TV screen.

또한, 가상리모컨을 TV화면 표시한 후, 사용자가 가상리모컨의 버튼을 터치 또는 누르는 제스처를 취하면 이에 따른 효과음을 발생하도록 하여 사용자가 실제 자신의 제스처가 가상리모컨의 버튼을 조작하는 느낌이 들도록 할 수 있다. 물론, 필요에 따라 사용자는 자신이 원하는 효과음을 편집할 수도 있고, 기본적으로 설정될 수도 있다.In addition, after displaying the virtual remote control on the TV screen, when the user makes a gesture of touching or pressing a button of the virtual remote control, a corresponding sound effect is generated so that the user feels that the user actually operates the button of the virtual remote control. can Of course, the user may edit the desired sound effect as needed, or it may be set by default.

만약 사용자의 얼굴방향이나 시선을 인식한 결과, 가상 리모컨 이용자가 카메라에 의해 TV 화면을 직접적으로 보지 않는 상태로 인식된 상황이라면, 사용자가 가상리모컨을 이용하고자 화면상에 표시한 후 가상 리모컨을 조작하는 손가락 움직임을 취할 경우 손가락이 위치한 버튼의 이름을 음성으로 자동 안내하는 기능이 자동 활성화되도록 하여 직접 가상 리모컨을 보지 않고도 리모컨을 편리하게 사용할 수 있도록 할 수 있다. 즉, 손가락움직임과 얼굴방향 및 시선의 TV 주시 여부는 동시 검출/분석할 수 있다.If, as a result of recognizing the direction of the user's face or gaze, if the virtual remote control user is recognized as not directly looking at the TV screen by the camera, the user displays the virtual remote control on the screen to use the virtual remote control and operates the virtual remote control. When a finger movement is taken, the function of automatically guiding the name of the button where the finger is located by voice is automatically activated, so that the remote control can be conveniently used without directly looking at the virtual remote control. That is, finger movement, face direction, and whether or not gaze is watching TV can be simultaneously detected/analyzed.

단, 손가락 움직임은 연속 프레임의 데이터를 이용하고, 얼굴방향 및 시선의 TV 화면 주시 여부는 옵션에 따라 연속 또는 비연속 프레임의 데이터를 기반으로 판단할 수 있다. 이는 시각 장애인의 경우 얼굴방향은 TV를 향하더라도 시선의 TV 화면 주시와 일치하지 않을 수 있기 때문이다. TV 화면의 주시 여부는 적외선 카메라를 이용 획득된 데이터를 기반으로 판단한다.However, the finger movement uses continuous frame data, and the direction of the face and whether to gaze at the TV screen can be determined based on continuous or non-continuous frame data according to options. This is because, in the case of a visually impaired person, even if the direction of the face is toward the TV, it may not coincide with the gaze of the TV screen. Whether or not to gaze at the TV screen is determined based on data acquired using an infrared camera.

또한, 사용자가 일시적으로 움직이면 TV화면에 표시된 가상 리모컨상의 손가락 위치 및 제스처가 변화할 수 있다. 이때, 사용자가 가상 리모컨을 표시한 상태에서 다시 리모컨을 조작하는 제스처를 취하더라도, 초기 표시된 손가락의 위치와 다른 손가락 위치로 인식되어 오동작을 일으킬 수 있다. 따라서, 만약 사용자의 얼굴방향이나 시선을 인식한 결과, 가상 리모컨 이용자가 카메라에 의해 TV 화면을 직접적으로 보지 않는 상태로 인식되면, 초기 표시된 손가락의 위치를 리셋하고, 다시 시선이 정면으로 돌아온 후의 손가락 위치로 설정할 수 있다. Also, if the user temporarily moves, the position and gesture of a finger on the virtual remote control displayed on the TV screen may change. In this case, even if the user makes a gesture for manipulating the remote control again in a state where the virtual remote controller is displayed, the finger position may be recognized as a different finger position from the initially displayed finger position, causing an erroneous operation. Therefore, as a result of recognizing the user's face direction or gaze, if the virtual remote control user is recognized as not directly looking at the TV screen by the camera, the initially displayed finger position is reset, and the finger after the gaze returns to the front position can be set.

도 4는 초기 가상리모컨(162)을 이용하여 사용자가 선호하는 가상리모컨(164)으로 편집하는 예를 도시한 것이다. 사용자는 리모컨의 특정 기능을 수행하는 버튼, 예를 들면 음성대화형 마이크 버튼을 사용자만의 간편 제스처로 등록하고자 할 때에는 화면상에 표시된 가상 리모컨 내 해당 버튼 위에서 더블 클릭을 하면 그 버튼을 대신해 사용할 제스처 등록화면으로 이동되어, 사용자 별 자신이 선호하는 자신만의 간편 제스처를 등록/삭제하여 이용할 수 있다. 또한 사용자 별로 등록되어 있는 간편 제스처는 즐겨찾기 제스처 기능을 통해 등록된 목록을 확인 후 가상 리모컨을 통해 선택 후 사용할 수도 있다. 또한 사용자 별로 자신이 자주 사용하는 리모컨 버튼만 남기고 나머지 버튼들은 가상리모컨내의 휴지통 기능을 이용하여 드래그 앤 드롭(Drag & Drop)으로 숨기거나 필요 시 다시 꺼내어 표시할 수 있다. 결과적으로 사용자가 필요로 하는 버튼만을 가진 사용자 등록 가상리모컨은 직관성이 좋아 사용상 편리하다. 특히 사용자는 가상리모컨 버튼의 수, 위치, 버튼의 크기도 사용자 취향 및 시력에 따라 확대/축소 조정하여 설정할 수 있다. FIG. 4 shows an example of editing with a user's preferred virtual remote controller 164 using the initial virtual remote controller 162 . When a user wants to register a button that performs a specific function on the remote control, for example, a microphone button for voice conversation, as a user's simple gesture, double-click on the corresponding button on the virtual remote control displayed on the screen to use the gesture instead of that button. It is moved to the registration screen, and each user can register/delete and use his or her own preferred simple gesture. In addition, simple gestures registered for each user can be selected and used through the virtual remote control after checking the registered list through the favorite gesture function. In addition, each user can hide only the remote control buttons that he or she frequently uses, and the rest of the buttons can be hidden by drag and drop using the trash bin function in the virtual remote control, or can be brought out and displayed again if necessary. As a result, the user-registered virtual remote control having only the buttons required by the user is convenient to use because of its good intuition. In particular, the user can set the number, position, and size of virtual remote control buttons by scaling them up or down according to the user's preference and eyesight.

또한 '초기설정(Home)'버튼을 두어 TV 출시 때의 리모컨의 초기 모습대로 표시하는 것도 가능하다. 또한 TV OSD메뉴의 세부 기능을 가상 리모컨의 임의 버튼에 단축키 형태로 지정하여, 더블 클릭 제스처를 통해 TV OSD 메뉴의 세부 기능을 실행할 수도 있다.In addition, it is possible to display the initial appearance of the remote control at the time of TV launch by putting a 'Home' button. In addition, detailed functions of the TV OSD menu can be assigned to any button of the virtual remote control in the form of a shortcut key, and detailed functions of the TV OSD menu can be executed through a double-click gesture.

이하 도 5를 참조하여 본 발명에 따른 동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(UI)를 표시하는 방법을 상세히 설명하면 다음과 같다.Hereinafter, a method of displaying a user interface (UI) of a virtual input device based on motion recognition according to the present invention will be described in detail with reference to FIG. 5 .

단계 S210, 사전에 사용자의 제스처 별로 다른 가상입력장치를 연계(매핑)시킨 템플릿을 저장부에 저장한다. 물론, 저장부(110)에는 사용자의 제스처 별로 가상입력장치의 템플릿 이외에도, 가상입력장치 UI의 버튼 명칭이나 버튼 기능을 설명하는 음성데이터, 제스처에 의해 실행되는 실행내용을 설명하는 음성데이터, 가상입력장치 UI의 버튼 조작음 등을 사전에 저장될 수 있다.Step S210, a template in which different virtual input devices are linked (mapped) for each user's gesture in advance is stored in a storage unit. Of course, in the storage unit 110, in addition to the virtual input device template for each user's gesture, voice data describing the button name or button function of the virtual input device UI, voice data describing the action executed by the gesture, and virtual input A button operation sound of the device UI may be stored in advance.

단계 S220에서, 카메라(130)를 이용하여 사용자의 제스처, 얼굴방향, 시선을 촬영한다.In step S220, the user's gesture, face direction, and gaze are photographed using the camera 130.

단계 S230에서, 카메라(130)에 의해 촬영된 사용자 제스처를 저장부(110)의 템플릿에 등록된 사용자 제스처들과 비교한다.In step S230 , the user gesture captured by the camera 130 is compared with user gestures registered in the template of the storage unit 110 .

단계 S240에서, 상기 비교결과 매칭되는 사용자 제스처에 해당하는 가상입력장치의 UI를 표시한다. In step S240, the UI of the virtual input device corresponding to the user gesture matched as a result of the comparison is displayed.

단계 S250에서, 사용자의 손가락 움직임 및 시선을 인식한다.In step S250, the user's finger movement and gaze are recognized.

단계 S260에서, 사용자의 손가락 위치를 표시된 가상입력장치의 UI 상에 예를 들면 손가락 모양의 포인터로 나타낸다. 이후 사용자는 손가락을 움직여 가상리모컨의 UI를 이용하여 원하는 버튼을 제스처에 의해 클릭 또는 터치하여 명령을 입력할 수 있다.In step S260, the location of the user's finger is displayed as, for example, a finger-shaped pointer on the displayed UI of the virtual input device. Then, the user may input a command by moving a finger and clicking or touching a desired button by a gesture using the UI of the virtual remote controller.

단계 S270에서, 사용자의 시선이 TV화면을 벗어나면 포인터에 위치한 소정의 버튼 기능이나 명칭을 설명하는 음성모드로 자동 변화되어 사전에 정해진 음성출력을 한다. 물론, 시선과 상관없이 사전에 항상 음성 설명을 수행하도록 설정할 수도 있다.In step S270, when the user's gaze leaves the TV screen, it is automatically changed to a voice mode that explains the function or name of a predetermined button located on the pointer, and a predetermined voice is output. Of course, it can also be set to always perform voice explanation in advance regardless of gaze.

상기한 실시예는 예시적인 것에 불과한 것으로, 당해 기술 분야의 통상의 지식을 가진 자라면 다양한 변형 및 균등한 타 실시예가 가능하다. 따라서, 본 발명의 진정한 기술적 보호범위는 하기의 특허청구범위에 기재된 발명의 기술적 사상에 의해 정해져야 할 것이다.The above embodiments are merely illustrative, and various modifications and equivalent other embodiments are possible to those skilled in the art. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the invention described in the claims below.

100: 디스플레이장치
110: 저장부
120: UI부
130: 카메라
140: 제어부
150: 움직임 산출부
160: 디스플레이부
170: 음성출력부
100: display device
110: storage unit
120: UI unit
130: camera
140: control unit
150: motion calculation unit
160: display unit
170: audio output unit

Claims (16)

디스플레이장치에 있어서,
영상을 표시하는 디스플레이부와;
카메라와;
상기 카메라를 통해 획득된 이미지에 기초하여 사용자의 손에 대응하는 제스처를 식별하고,
상기 식별된 제스처가 기 정의된 복수의 제스처 중 양손에 대응한 제스처인 지 또는 한 손에 대응한 제스처인 지를 식별하고,
상기 식별된 제스처가 상기 양손에 대응한 제스처인 경우, 양손으로 입력 가능한 제1가상입력장치에 대응하는 제1 사용자 인터페이스(UI)를 표시하도록 상기 디스플레이부를 제어하고,
상기 식별된 제스처가 상기 한 손에 대응한 제스처인 경우, 한 손으로 입력 가능한 제2가상입력장치에 대응하는 제2 UI를 표시하도록 상기 디스플레이부를 제어하고,
상기 제1 UI와 상기 제2 UI가 없는 화면이 상기 디스플레이부에 표시되는 중에 상기 양손에 대응한 제스처에 따른 상기 제1 UI와 상기 한 손에 대응한 제스처에 따른 상기 제2 UI를 각각 표시하도록 상기 디스플레이부를 제어하는 제어부
를 포함하는 디스플레이장치.
In the display device,
a display unit displaying an image;
with a camera;
Identifying a gesture corresponding to a user's hand based on an image obtained through the camera;
Identifying whether the identified gesture is a gesture corresponding to both hands or a gesture corresponding to one hand among a plurality of predefined gestures;
If the identified gesture is a gesture corresponding to both hands, controlling the display unit to display a first user interface (UI) corresponding to a first virtual input device that can be input with both hands;
If the identified gesture is a gesture corresponding to the one hand, controlling the display unit to display a second UI corresponding to a second virtual input device that can be input with one hand;
While a screen without the first UI and the second UI is displayed on the display unit, the first UI according to a gesture corresponding to both hands and the second UI according to a gesture corresponding to one hand are displayed, respectively. A controller for controlling the display unit
A display device comprising a.
제 1항에 있어서,
상기 제1가상입력장치는 키보드를 포함하고,
상기 제2가상입력장치는 리모컨, 터치리모컨 또는 마우스 중 적어도 하나를 포함하는 것을 특징으로 하는 디스플레이장치.
According to claim 1,
The first virtual input device includes a keyboard,
The display device, characterized in that the second virtual input device includes at least one of a remote control, a touch remote control, or a mouse.
제 1항에 있어서,
상기 한 손에 대응한 제스처는 실물 입력장치의 그립(grip) 제스처를 포함하는 것을 특징으로 하는 디스플레이장치.
According to claim 1,
The display device, characterized in that the gesture corresponding to the one hand includes a grip gesture of a physical input device.
제 1항에 있어서,
상기 제어부는, 상기 제1가상입력장치에 대응하는 제1 UI를 동작하기 위한 사용자의 손가락 움직임을 인식하는 것을 특징으로 하는 디스플레이장치.
According to claim 1,
The control unit recognizes a user's finger movement for operating a first UI corresponding to the first virtual input device.
제 1항에 있어서,
상기 제어부는, 상기 사용자의 손가락 움직임에 따라 상기 제2가상입력장치에 대응하는 제2 UI 상에서 포인터가 움직이도록 표시하는 것을 특징으로 하는 디스플레이장치.
According to claim 1,
The display device, characterized in that the control unit displays a pointer to move on the second UI corresponding to the second virtual input device according to the user's finger movement.
제 5항에 있어서,
상기 제어부는, 상기 손가락 움직임에 따른 손가락의 이동방향, 이동량 또는 위치 중 적어도 하나를 식별하는 것을 특징으로 하는 디스플레이장치.
According to claim 5,
The display apparatus according to claim 1 , wherein the control unit identifies at least one of a movement direction, a movement amount, or a location of the finger according to the finger movement.
제 4항에 있어서,
상기 기 정의된 복수의 제스처를 저장하는 저장부를 더 포함하고,
상기 제어부는, 상기 손가락 움직임에 따른 상기 제1가상입력장치의 조작음, 기능실행내용을 설명하는 음성 또는 상기 제1가상입력장치의 기능버튼의 명칭을 설명하는 음성 중 적어도 하나를 상기 저장부에 저장하는 것을 특징으로 하는 디스플레이장치.
According to claim 4,
Further comprising a storage unit for storing the plurality of predefined gestures,
The control unit transmits at least one of a manipulation sound of the first virtual input device according to the finger movement, a voice explaining function execution details, and a voice explaining the name of a function button of the first virtual input device to the storage unit. A display device characterized in that for storing.
제 1항에 있어서,
상기 제어부는, 상기 양손에 대응한 제스처 또는 한 손에 대응한 제스처에 대응하는 사용자 명령에 따라 상기 제1 또는 제2 가상입력장치에 대응하는 제1 또는 제2 UI 상의 기능 버튼을 삭제, 추가 또는 변경하는 것을 특징으로 하는 디스플레이장치.
According to claim 1,
The controller may delete, add, or delete a function button on the first or second UI corresponding to the first or second virtual input device according to a user command corresponding to a gesture corresponding to both hands or a gesture corresponding to one hand. A display device characterized in that for changing.
디스플레이장치의 제어방법에 있어서,
획득된 이미지에 기초하여 사용자의 손에 대응하는 제스처를 식별하는 단계와;
상기 식별된 제스처가 기 정의된 복수의 제스처 중 양손에 대응한 제스처인 지 또는 한 손에 대응한 제스처인 지를 식별하는 단계와;
상기 식별된 제스처가 상기 양손에 대응한 제스처인 경우, 양손으로 입력 가능한 제1가상입력장치에 대응하는 제1 사용자 인터페이스(UI)를 표시하고, 상기 식별된 제스처가 상기 한 손에 대응한 제스처인 경우, 한 손으로 입력 가능한 제2가상입력장치에 대응하는 제2 UI를 표시하는 단계와;
상기 제1 UI와 상기 제2 UI가 없는 화면이 표시되는 중에 상기 양손에 대응한 제스처에 따른 상기 제1 UI와 상기 한 손에 대응한 제스처에 따른 상기 제2 UI를 각각 표시하는 단계
를 포함하는 디스플레이장치의 제어방법.
In the control method of the display device,
identifying a gesture corresponding to the user's hand based on the obtained image;
identifying whether the identified gesture is a gesture corresponding to both hands or one hand among a plurality of predefined gestures;
When the identified gesture is a gesture corresponding to both hands, a first user interface (UI) corresponding to a first virtual input device that can be input with both hands is displayed, and the identified gesture is a gesture corresponding to the one hand. If so, displaying a second UI corresponding to a second virtual input device capable of being input with one hand;
Displaying the first UI according to a gesture corresponding to both hands and the second UI according to a gesture corresponding to one hand while a screen without the first UI and the second UI is displayed, respectively
Control method of a display device comprising a.
제 9항에 있어서,
상기 제1가상입력장치는 키보드를 포함하고,
상기 제2가상입력장치는 리모컨, 터치리모컨 또는 마우스 중 적어도 하나를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
According to claim 9,
The first virtual input device includes a keyboard,
Wherein the second virtual input device includes at least one of a remote control, a touch remote control, and a mouse.
제 9항에 있어서,
상기 한 손에 대응한 제스처는 실물 입력장치의 그립(grip) 제스처를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
According to claim 9,
The control method of a display device, characterized in that the gesture corresponding to the one hand includes a grip gesture of a physical input device.
제 9항에 있어서,
상기 양손에 대응한 제스처인 지 또는 한 손에 대응한 제스처인 지를 식별하는 단계는, 상기 제1가상입력장치에 대응하는 제1 UI를 동작하기 위한 사용자의 손가락 움직임을 인식하는 단계를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
According to claim 9,
The step of identifying whether the gesture corresponds to both hands or one hand includes recognizing a user's finger movement for operating a first UI corresponding to the first virtual input device. Control method of a display device characterized by.
제 9항에 있어서,
상기 제2가상입력장치에 대응하는 제2 UI를 표시하는 단계는, 상기 사용자의 손가락 움직임에 따라 상기 제2가상입력장치에 대응하는 제2 UI 상에서 포인터가 움직이도록 표시하는 단계를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
According to claim 9,
The displaying of the second UI corresponding to the second virtual input device may include displaying a pointer to move on the second UI corresponding to the second virtual input device according to the movement of the user's finger. A control method of a display device to be.
제 13항에 있어서,
상기 포인터가 움직이도록 표시하는 단계는, 상기 손가락 움직임에 따른 손가락의 이동방향, 이동량 또는 위치 중 적어도 하나를 식별하는 단계를 더 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
According to claim 13,
The displaying of the pointer to move further comprises identifying at least one of a moving direction, a moving amount, or a position of the finger according to the finger movement.
제 12항에 있어서,
상기 사용자의 손가락 움직임을 인식하는 단계는, 상기 손가락 움직임에 따른 상기 제1가상입력장치의 조작음, 기능실행내용을 설명하는 음성 또는 상기 제1가상입력장치의 기능버튼의 명칭을 설명하는 음성 중 적어도 하나를 저장하는 단계를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
According to claim 12,
The step of recognizing the user's finger movement may include a manipulation sound of the first virtual input device according to the finger movement, a voice explaining function execution details, or a voice explaining the name of a function button of the first virtual input device. A control method of a display device comprising the step of storing at least one.
제 9항에 있어서,
상기 제1 또는 제2 가상입력장치에 대응하는 제1 또는 제2 UI를 표시하는 단계는, 상기 양손에 대응한 제스처 또는 한 손에 대응한 제스처에 대응하는 사용자 명령에 따라 상기 제1 또는 제2 가상입력장치에 대응하는 제1 또는 제2 UI 상의 기능 버튼을 삭제, 추가 또는 변경하는 단계를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
According to claim 9,
The displaying of the first or second UI corresponding to the first or second virtual input device may include the first or second UI according to a user command corresponding to a gesture corresponding to both hands or a gesture corresponding to one hand. A control method of a display device comprising the step of deleting, adding or changing a function button on a first or second UI corresponding to a virtual input device.
KR1020210008763A 2013-12-23 2021-01-21 A device and method for displaying a user interface(ui) of virtual input device based on motion rocognition KR102480568B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210008763A KR102480568B1 (en) 2013-12-23 2021-01-21 A device and method for displaying a user interface(ui) of virtual input device based on motion rocognition

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130160998A KR20150073378A (en) 2013-12-23 2013-12-23 A device and method for displaying a user interface(ui) of virtual input device based on motion rocognition
KR1020210008763A KR102480568B1 (en) 2013-12-23 2021-01-21 A device and method for displaying a user interface(ui) of virtual input device based on motion rocognition

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020130160998A Division KR20150073378A (en) 2013-12-23 2013-12-23 A device and method for displaying a user interface(ui) of virtual input device based on motion rocognition

Publications (2)

Publication Number Publication Date
KR20210011046A KR20210011046A (en) 2021-01-29
KR102480568B1 true KR102480568B1 (en) 2022-12-23

Family

ID=84536534

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210008763A KR102480568B1 (en) 2013-12-23 2021-01-21 A device and method for displaying a user interface(ui) of virtual input device based on motion rocognition

Country Status (1)

Country Link
KR (1) KR102480568B1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101896947B1 (en) * 2011-02-23 2018-10-31 엘지이노텍 주식회사 An apparatus and method for inputting command using gesture

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
미국공개특허 제2009-0217211호(2009.08.27.) 1부.*
미국공개특허 제2013-0275924호(2013.10.17.) 1부.*
미국공개특허 제2013-0300662호(2013.11.14.) 1부.*
한국공개특허 제10-2012-0096849호(2012.08.31.) 1부.*

Also Published As

Publication number Publication date
KR20210011046A (en) 2021-01-29

Similar Documents

Publication Publication Date Title
US9965039B2 (en) Device and method for displaying user interface of virtual input device based on motion recognition
US11740755B2 (en) Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments
US20230161456A1 (en) Application menu for video system
JP6659644B2 (en) Low latency visual response to input by pre-generation of alternative graphic representations of application elements and input processing of graphic processing unit
TWI545496B (en) Device, method, and graphical user interface for adjusting the appearance of a control
US20220229524A1 (en) Methods for interacting with objects in an environment
US20220335697A1 (en) Systems, Methods, and Graphical User Interfaces for Adding Effects in Augmented Reality Environments
US20140139430A1 (en) Virtual touch method
US10353550B2 (en) Device, method, and graphical user interface for media playback in an accessibility mode
US20160349946A1 (en) User terminal apparatus and control method thereof
US11706476B2 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
WO2016138661A1 (en) Processing method for user interface of terminal, user interface and terminal
JP2023542666A (en) Operation method and device
US20230291955A1 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
JP2023552659A (en) Interface display state adjustment method, apparatus, device, storage medium
JP2016528612A5 (en)
WO2016183912A1 (en) Menu layout arrangement method and apparatus
JP2016528612A (en) Reduced control response latency with defined cross-control behavior
US9958946B2 (en) Switching input rails without a release command in a natural user interface
US20140317549A1 (en) Method for Controlling Touchscreen by Using Virtual Trackball
US10222866B2 (en) Information processing method and electronic device
US10599326B2 (en) Eye motion and touchscreen gestures
US10416849B2 (en) Electronic device and settings menu interface display control method
US20230259265A1 (en) Devices, methods, and graphical user interfaces for navigating and inputting or revising content
WO2014023148A1 (en) Electronic equipment and method and device for controlling electronic device

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application
GRNT Written decision to grant