KR20110032224A - System and method for providing user interface by gesture, gesture signal generator and terminal thereof - Google Patents

System and method for providing user interface by gesture, gesture signal generator and terminal thereof Download PDF

Info

Publication number
KR20110032224A
KR20110032224A KR1020090089614A KR20090089614A KR20110032224A KR 20110032224 A KR20110032224 A KR 20110032224A KR 1020090089614 A KR1020090089614 A KR 1020090089614A KR 20090089614 A KR20090089614 A KR 20090089614A KR 20110032224 A KR20110032224 A KR 20110032224A
Authority
KR
South Korea
Prior art keywords
gesture
terminal
unit
image
gesture signal
Prior art date
Application number
KR1020090089614A
Other languages
Korean (ko)
Inventor
홍상우
박명순
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020090089614A priority Critical patent/KR20110032224A/en
Publication of KR20110032224A publication Critical patent/KR20110032224A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Abstract

PURPOSE: A mobile terminal UI recognizing a gesture, and a device for generating gesture signal are provided to offer a UI(User Interface) through a gesture on a space or a screen. CONSTITUTION: A gesture signal generator(1) installed a mobile terminal detects a user's gesture. The gesture signal generating apparatus generates gesture signal corresponding to the gesture, and outputs the gesture signal through local area wireless communication. If an event is generated, the mobile terminal(2) outputs an image corresponding to the event. If the gesture signal is received, the mobile terminal extracts a command corresponding to the gesture signal, and executes the command.

Description

제스처에 의한 사용자 인터페이스 제공 시스템 및 방법과 이를 위한 제스처신호 발생장치 및 단말기{System and Method for Providing User Interface by Gesture, Gesture Signal Generator and Terminal thereof}System and method for providing a user interface by a gesture and a gesture signal generator and a terminal therefor {System and Method for Providing User Interface by Gesture, Gesture Signal Generator and Terminal}

본 발명은 사용자 인터페이스(User Interface) 기술에 관한 것으로, 더욱 상세하게는 공간 또는 스크린 상에 출력된 영상을 인지하고 사용자가 제스처를 취하면, 사용자에 장착된 제스처신호 발생장치가 제스처신호를 발생시켜 단말기로 전송하고, 이에 단말기가 제스처신호에 대응하는 명령어를 추출하여 실행하면서 그 실행결과에 대응하는 영상을 출력하는 제스처에 의한 사용자 인터페이스 제공 시스템 및 방법과 이를 위한 제스처신호 발생장치 및 단말기에 관한 것이다.The present invention relates to a user interface technology, and more particularly, to recognize an image output on a space or a screen, and when a user makes a gesture, a gesture signal generator mounted on the user generates a gesture signal. The present invention relates to a system and method for providing a user interface by a gesture which transmits to a terminal, and outputs an image corresponding to the execution result while the terminal extracts and executes a command corresponding to the gesture signal. .

기존 단말기는 사용자 조작을 지원하기 위해 키 패드, 터치스크린, 조이스틱, 스크롤 휠 등의 입력 장치를 구성하고 있으며, 사용자는 입력 장치를 이용하여 단말기를 조작하거나 단말기에 필요한 정보를 입력한다.Existing terminals configure input devices such as a keypad, a touch screen, a joystick, and a scroll wheel to support a user's operation, and a user operates a terminal or inputs necessary information into the terminal using the input device.

이와 같이, 사용자는 일괄적으로 정해진 방법에 따라 입력 장치를 조작하여 단말기가 제공하는 기능을 이용한다. 예컨대, 단말기의 전면 또는 측면에 구비된 버튼을 누르거나, 스타일러스 펜 등을 이용하여 입력함으로써 인터페이스를 수행한 다.In this way, the user manipulates the input device according to a batch method and uses a function provided by the terminal. For example, the interface is performed by pressing a button provided on the front or side of the terminal or using a stylus pen.

그러나, 키 패드, 터치스크린, 조이스틱, 스크롤 휠 등은 한정된 영역 내에서 입력을 수행해야 하므로 사용자 인터페이스의 영역이 한정되는 문제점이 있다.However, since a keypad, a touch screen, a joystick, a scroll wheel, and the like must input within a limited area, there is a problem in that an area of a user interface is limited.

이러한 종래의 문제점을 해결하기 위하여, 본 발명은 공간 또는 스크린 상에 영상을 출력시킬 수 있으며, 제스처신호에 매칭된 명령어의 실행결과에 대응하는 영상을 출력할 수 있는 단말기와, 사용자의 제스처에 대응하여 제스처신호를 발생시킬 수 있는 제스처신호 발생장치를 통해 사용자 인터페이스 환경을 공간으로 확장시킬 수 있는 제스처에 의한 사용자 인터페이스 제공 시스템 및 방법과 이를 위한 제스처신호 발생장치 및 단말기를 제공하는 것을 목적으로 한다.In order to solve such a conventional problem, the present invention can output an image on a space or screen, the terminal capable of outputting an image corresponding to the execution result of the command matched to the gesture signal, corresponding to the user's gesture It is an object of the present invention to provide a system and method for providing a user interface by a gesture that can extend a user interface environment to a space through a gesture signal generator capable of generating a gesture signal, and a gesture signal generator and a terminal therefor.

이러한 목적을 달성하기 위하여, 본 발명에 따른 제스처에 의한 사용자 인터페이스 제공 시스템은, 제스처신호 발생장치와 단말기를 포함하는 것을 특징으로 한다. 상기 제스처신호 발생장치는 사용자에 장착되어 상기 사용자의 제스처를 감지하여 상기 제스처에 대응하는 제스처신호를 생성하고, 상기 제스처신호를 근거리무선통신으로 출력한다. 상기 단말기는 이벤트 발생 시 공간 상에 상기 이벤트에 대응하는 영상을 출력하며, 근거리무선통신을 통해 상기 제스처신호 발생장치로부터 상기 제스처신호가 수신되면, 상기 제스처신호에 대응하는 명령어를 추출하여 상기 명령어를 실행하고, 상기 명령어의 실행결과에 대응하는 영상을 상기 공간 상에 출력한다.In order to achieve this object, a system for providing a user interface by a gesture according to the present invention is characterized by including a gesture signal generator and a terminal. The gesture signal generator is mounted on a user to detect a gesture of the user to generate a gesture signal corresponding to the gesture, and output the gesture signal through short-range wireless communication. The terminal outputs an image corresponding to the event in space when an event occurs. When the gesture signal is received from the gesture signal generator through short-range wireless communication, the terminal extracts a command corresponding to the gesture signal and executes the command. The image is output on the space corresponding to the execution result of the command.

또한, 본 발명에 따른 제스처에 의한 사용자 인터페이스 제공 시스템의 제스처신호 발생장치는, 통신부, 센서부, 제어부를 포함하는 것을 특징으로 한다. 상기 통신부는 근거리무선통신을 통해 데이터를 송수신한다. 상기 센서부는 사용자의 제스처를 감지한다. 상기 제어부는 상기 센서부로부터 감지신호가 전달되면, 상기 감지신호로부터 제스처신호를 생성하고, 상기 제스처신호를 상기 통신부를 통해 공간 상에 영상을 출력하는 단말기로 전송한다. 이때, 상기 센서부는 상기 사용자의 움직임 또는 위치를 검출하기 위한 관성 센서 및 상기 단말기와의 거리 관계를 검출 또는 측정하기 위한 거리 센서 중에 적어도 하나를 포함한다. 여기서, 상기 관성 센서는 자이로 센서 또는 가속도 센서일 수 있다. 또한, 상기 통신부를 통해 상기 제스처신호의 실행결과에 대한 응답신호가 수신되면, 상기 제어부의 제어에 의해 진동을 발생시키는 진동부를 더 포함하는 것이 바람직하다. 그리고, 상기 제스처신호 발생장치는 링타입(Ring type)일 수 있다.In addition, the gesture signal generator of the user interface providing system according to the present invention is characterized in that it comprises a communication unit, a sensor unit, a control unit. The communication unit transmits and receives data through short-range wireless communication. The sensor unit detects a user's gesture. When the detection signal is transmitted from the sensor unit, the controller generates a gesture signal from the detection signal, and transmits the gesture signal to a terminal that outputs an image in the space through the communication unit. In this case, the sensor unit includes at least one of an inertial sensor for detecting a movement or position of the user and a distance sensor for detecting or measuring a distance relationship with the terminal. Here, the inertial sensor may be a gyro sensor or an acceleration sensor. In addition, when the response signal for the execution result of the gesture signal is received through the communication unit, it is preferable to further include a vibration unit for generating a vibration under the control of the controller. The gesture signal generator may be a ring type.

또한, 본 발명에 따른 제스처에 의한 사용자 인터페이스 제공 시스템의 단말기는, 통신부, 영상출력부, 저장부 및 단말제어부를 포함하는 것을 특징으로 한다. 상기 통신부는 무선통신을 통해 데이터를 송수신한다. 상기 영상출력부는 공간 상에 영상을 출력한다. 상기 저장부는 제스처신호에 대응하는 명령어를 저장하고 있다. 상기 단말제어부는 상기 통신부를 통해 이벤트가 수신되면 상기 이벤트에 대응하는 상기 이벤트 발생 사실을 상기 영상출력부를 통해 상기 공간 상에 영상으로 출력하며, 상기 통신부를 통해 수신한 제스처신호를 전달받아 상기 제스처신호에 대응하는 명령어를 상기 저장부에서 추출하여 상기 명령어를 실행하고, 상기 명령어의 실행결과를 상기 영상출력부를 통해 상기 공간 상에 영상으로 출력한다. 이때, 상기 통신부는 근거리무선통신 모듈을 포함하며, 상기 단말제어부는 상기 통신 부에 포함된 근거리무선통신 모듈을 이용하여 제스처신호를 수신하면, 상기 제스처신호에 대응하는 영상을 상기 영상출력부를 통해 상기 공간 상에 출력한다. 또한, 상기 통신부는 이동통신 모듈을 포함하며, 상기 단말제어부는 상기 통신부에 포함된 이동통신 모듈을 이용하여 문자메시지 또는 착 신호를 수신하면, 상기 문자메시지 또는 착 신호에 대응하는 이벤트 발생 사실을 상기 영상출력부를 통해 상기 공간 상에 영상으로 출력한다. 또한, 상기 영상출력부는, 적어도 2개 이상의 광원부를 포함하며, 상기 광원부 중에 일부 광원부가 상기 광원부로부터 출력된 난반사된 간섭성 광을 집결시켜 상기 공간 상의 특정 영역에 투사할 수 있도록 위치를 제어하며, 나머지 광원부가 상기 특정 영역으로 참조광을 투사할 수 있도록 위치를 제어하여, 상기 공간 상에 투사할 수 있다.In addition, the terminal of the user interface providing system according to the present invention is characterized in that it comprises a communication unit, an image output unit, a storage unit and a terminal control unit. The communication unit transmits and receives data through wireless communication. The image output unit outputs an image in space. The storage unit stores a command corresponding to the gesture signal. When the event is received through the communication unit, the terminal controller outputs the event occurrence corresponding to the event as an image on the space through the image output unit, and receives the gesture signal received through the communication unit to receive the gesture signal. Extracts a command corresponding to and executes the command, and outputs the execution result of the command as an image on the space through the image output unit. In this case, the communication unit includes a short-range wireless communication module, and when the terminal control unit receives a gesture signal using the short-range wireless communication module included in the communication unit, the image corresponding to the gesture signal through the image output unit Output on space. The communication unit may include a mobile communication module. When the terminal control unit receives a text message or an incoming signal by using the mobile communication module included in the communication unit, the communication unit may be configured to indicate an event occurrence corresponding to the text message or the incoming signal. The image output unit outputs the image on the space. The image output unit may include at least two light source units, and the light source unit may control a position of the light source units such that some light source units collect diffusely reflected coherent light output from the light source unit and project the light onto a specific area of the space. The position of the remaining light source unit may be controlled to project the reference light to the specific area, and may be projected onto the space.

그리고, 본 발명에 따른 제스처에 의한 사용자 인터페이스 제공 방법은, 이벤트 발생 시 단말기가 공간 상에 영상을 출력하는 제1 출력단계, 상기 단말기가 제스처신호 발생장치로부터 전송된 제스처신호를 수신하는 수신단계, 상기 단말기가 수신한 상기 제스처신호에 대응하는 명령어를 추출하는 추출단계, 상기 단말기가 추출한 상기 명령어를 실행하는 실행단계, 상기 단말기가 상기 명령어의 실행결과에 대응하는 영상을 상기 공간 상에출력하는 제2 출력단계를 포함하는 것을 특징으로 한다. 이때, 상기 제1 출력단계는, 상기 단말기가 근거리무선통신 모듈을 통해 상기 제스처신호를 수신하거나, 이동통신 모듈을 통해 문자메시지 또는 착신 호를 수신하면, 상기 단말기가 상기 제스처신호에 대응하는 영상을 상기 공간 상에 출력하거나, 상기 문자메시지 또는 착 신호에 대응하는 이벤트 발생 사실을 상기 공간 상에 영상으로 출력하는 단계를 포함한다. 또한, 상기 제1 출력단계는, 상기 공간 상에 출력된 영상과 동일한 영상을 상기 단말기의 본체에 마련된 표시부를 통해 출력하는 단계를 더 포함할 수 있다. 또한, 상기 공간 상에 영상 출력은, 광원부에서 광을 출력하는 단계, 상기 광원부 중에 일부 광원부에서 출력된 난반사된 간섭성 광을 집결시켜 해당 영상 위치에 투사할 수 있도록 위치를 제어하며, 나머지 광원부에서 상기 해당 영상 위치로 참조광을 투사할 수 있도록 위치를 제어하는 단계, 상기 간섭성 광 및 참조광을 상기 공간 상에 투사하는 단계를 포함한다. 그리고, 상기 제2 출력단계 이후에, 상기 단말기가 상기 명령어의 실행결과에 대한 응답신호를 전송하고, 상기 제스처신호 발생장치가 상기 응답신호를 수신하여 진동을 발생시키는 단계를 더 포함하는 것이 바람직하다.In addition, a method for providing a user interface by a gesture according to the present invention may include: a first output step of outputting an image in a space by a terminal when an event occurs, a reception step of receiving a gesture signal transmitted from a gesture signal generator by the terminal, An extraction step of extracting a command corresponding to the gesture signal received by the terminal, an execution step of executing the command extracted by the terminal, and outputting an image corresponding to an execution result of the command on the space by the terminal; It characterized in that it comprises two output stages. In this case, when the terminal receives the gesture signal through the short range wireless communication module or receives a text message or an incoming call through the mobile communication module, the terminal outputs an image corresponding to the gesture signal. Outputting the image on the space or generating an event corresponding to the text message or the incoming signal as an image on the space. The first output step may further include outputting the same image as the image output on the space through a display unit provided in the main body of the terminal. The image output on the space may include outputting light from a light source unit, controlling a position to collect diffusely reflected coherent light output from some light source units of the light source unit, and to project the light onto a corresponding image position, Controlling a position to project the reference light to the corresponding image position, and projecting the coherent light and the reference light onto the space. After the second output step, the terminal may further include a step of transmitting a response signal to a result of executing the command, and generating a vibration by the gesture signal generator receiving the response signal. .

이와 같이, 본 발명은 공간 또는 스크린 상에서의 사용자 제스처를 통해 사용자 인터페이스를 수행하므로, 인터페이스 환경을 확장하여 사용자에게 편리함을 제공할 수 있는 효과가 있다.As described above, since the present invention performs the user interface through a user gesture on a space or a screen, the user can extend the interface environment and provide convenience to the user.

또한, 본 발명은 다양한 사용자 제스처와 단말기 기능을 매칭시킬 수 있으므로 다양한 조작 방법을 통해 단말기 조작의 즐거움을 제공할 수 있다.In addition, the present invention can match various user gestures and terminal functions, thereby providing enjoyment of terminal operation through various operation methods.

그리고, 본 발명은 가상현실과의 결합을 통해 더욱 확장된 사용자 인터페이스 환경을 제공할 수 있을 것이다.In addition, the present invention may provide a more extended user interface environment through a combination with virtual reality.

이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, with reference to the accompanying drawings will be described in detail an embodiment of the present invention.

도 1은 본 발명의 일실시예로서, 제스처에 의한 사용자 인터페이스 제공 시스템을 나타낸 개념도이다.1 is a conceptual diagram illustrating a user interface providing system using a gesture according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예에서 제시하는 제스처에 의한 사용자 인터페이스 제공 시스템은, 크게 사용자의 제스처에 대응하여 제스처신호를 발생시키는 제스처신호 발생장치(1) 및 공간 또는 스크린 상에 영상을 출력시키는 단말기(2)를 포함하여 구성된다.Referring to FIG. 1, a system for providing a user interface based on a gesture according to the present exemplary embodiment may include a gesture signal generator 1 that generates a gesture signal corresponding to a gesture of a user and an image on a space or a screen. It comprises a terminal (2).

제스처신호 발생장치(1)는 사용자의 제스처에 대응하는 제스처신호를 발생시키는 기능을 수행한다. 이를 위해, 제스처신호 발생장치(1)는 사용자의 움직임을 감지하기 위한 센서를 포함하여 구성되며, 이 센서는 스핀 자이로(spin gyro), 바 자이로(bar gyro), 와이어 자이로(wire gyro) 및 가속도계(accelerometer)와 같은 자이로스코프를 이용할 수 있다. 또한, 제스처신호 발생장치(1)와 단말기(2) 간의 초기 위치를 설정하기 위해 거리를 감지하는 거리 센서를 포함할 수 있다. 또한, 제스처신호 발생장치(1)는 감지된 신호를 인접한 단말기(2)로 전송하는 기능을 수행한다. 이를 위해 제스처신호 발생장치(1)는 근거리무선통신 모듈을 포함하여 구성되며, 이 근거리무선통신 모듈은 블루투스(Bluetooth) 모듈, 지그비(Zigbee) 모듈, RFID(Radio Frequency Identification) 모듈, UWB(Ultra Wide Band) 모듈, IrDA(Infrared Data Association) 모듈 중에 적어도 하나가 적용될 수 있다. 그리고, 제스처신호 발생장치(1)는 사용자 조작을 지원하는 스위치, 예를 들어 전원을 공급하기 위한 스위치, 공간 또는 스크린 상에 출력된 영상에서 대상물의 드래그 또는 클릭을 수행하기 위한 스위치 등을 마련할 수 있다. 이와 같이, 제스처신호 발생장치(1)는 사용자의 제스처를 센서에서 감지하고, 감지된 신호를 신호처리하여 근거리무선통신으로 단말기로 전송하여 공간 또는 스크린 상에 출력된 영상과의 인터페이스를 수행한다. 이와 같은 제스처신호 발생장치(1)는, 반지 또는 팔찌 형태와 같은 링타입(Ring type)으로 제조되어 사용자가 간편하게 장착할 수 있으며, 밴드타입으로 제조되어 반창고처럼 부착할 수도 있다.The gesture signal generator 1 performs a function of generating a gesture signal corresponding to a gesture of a user. To this end, the gesture signal generator 1 includes a sensor for detecting a user's movement, which includes a spin gyro, a bar gyro, a wire gyro and an accelerometer. You can use a gyroscope such as an accelerometer. In addition, it may include a distance sensor for sensing the distance to set the initial position between the gesture signal generator 1 and the terminal (2). In addition, the gesture signal generator 1 performs a function of transmitting the detected signal to the adjacent terminal 2. To this end, the gesture signal generator 1 includes a short range wireless communication module, and the short range wireless communication module includes a Bluetooth module, a Zigbee module, a Radio Frequency Identification (RFID) module, and a UWB (Ultra Wide). At least one of a Band module and an Infrared Data Association (IrDA) module may be applied. In addition, the gesture signal generator 1 may provide a switch for supporting a user operation, for example, a switch for supplying power, a switch for dragging or clicking an object in an image output on a space or screen, and the like. Can be. As such, the gesture signal generator 1 detects a user's gesture by a sensor, processes the detected signal, and transmits the detected signal to a terminal through short-range wireless communication to interface with an image output on a space or a screen. The gesture signal generator 1 is manufactured in a ring type such as a ring or a bracelet, and can be easily mounted by a user. The gesture signal generator 1 may be manufactured in a band type and attached like a band-aid.

한편, 단말기(2)는 제스처신호 발생장치(1)로부터 전송된 제스처신호를 수신하여 공간 또는 스크린 상에 출력된 영상에 반영하는 기능을 수행한다. 이를 위해, 단말기(2)는 공간 또는 스크린 상에 영상을 출력하기 위한 홀로그래피 또는 프로젝션을 포함하고 있다. 이 홀로그래피 또는 프로젝션은 광을 단말기(2) 외부로 투사하는 투사형을 이용하는 것이 바람직하다. 또한, 단말기(2)는 제스처신호 발생장치(1)로부터 제스처신호를 수신하는 기능을 수행한다. 이를 위해 단말기(2)는 근거리무선통신 모듈을 포함하여 구성되며, 이 근거리무선통신 모듈은 블루투스(Bluetooth) 모듈, 지그비(Zigbee) 모듈, RFID(Radio Frequency Identification) 모듈, UWB(Ultra Wide Band) 모듈, IrDA(Infrared Data Association) 모듈 중에 적어도 하나가 적용될 수 있다. 그리고, 단말기(2)는 제스처신호에 대응하는 명령어를 저장하고 있다. 이 명령어를 통해 영상에 출력된 대상물 및 영상 자체에 대한 제어가 이루어지게 된다. 이와 같이, 단말기(2)는 제스처신호를 수신하고, 제스처신호에 대응하는 명령어를 추출하여 실행하며, 이 명령어의 실행결과에 대응하는 영상을 출력한다.Meanwhile, the terminal 2 receives a gesture signal transmitted from the gesture signal generator 1 and reflects it to an image output on a space or a screen. To this end, the terminal 2 includes holography or projection for outputting an image on a space or screen. This holography or projection preferably uses a projection type that projects light to the outside of the terminal 2. In addition, the terminal 2 performs a function of receiving a gesture signal from the gesture signal generator 1. To this end, the terminal 2 includes a short range wireless communication module, which includes a Bluetooth module, a Zigbee module, a Radio Frequency Identification (RFID) module, and a UWB (Ultra Wide Band) module. At least one of the Infrared Data Association (IrDA) modules may be applied. In addition, the terminal 2 stores a command corresponding to the gesture signal. Through this command, the control of the object and the image itself displayed on the image is made. As such, the terminal 2 receives the gesture signal, extracts and executes a command corresponding to the gesture signal, and outputs an image corresponding to the execution result of the command.

이와 같이, 제스처에 의한 사용자 인터페이스 제공 시스템을 구성하는 제스처신호 발생장치(1)와 단말기(2) 간의 인터페이스 수행과정을 정리하면 다음과 같다. 먼저, 단말기(2)가 공간 또는 스크린 상에 영상을 출력하면, 사용자가 영상을 인지하고 제스처신호 발생장치(1)를 이용하여 제스처를 취한다. 이에 제스처신호 발생장치(1)에서 제스처신호를 발생시켜 단말기(2)로 전송한다. 한편, 단말기(2)는 제스처신호를 수신하여 제스처신호에 대응하는 명령어를 추출하고, 해당 명령어 실행에 따른 실행결과를 영상에 출력한다.As described above, a process of performing an interface between the gesture signal generator 1 and the terminal 2 constituting the user interface providing system by gestures is as follows. First, when the terminal 2 outputs an image on a space or a screen, the user recognizes the image and makes a gesture using the gesture signal generator 1. The gesture signal generator 1 generates a gesture signal and transmits the gesture signal to the terminal 2. Meanwhile, the terminal 2 receives the gesture signal, extracts a command corresponding to the gesture signal, and outputs an execution result according to the execution of the command on the image.

그러면, 여기서 제스처에 의한 사용자 인터페이스를 제공하기 위한 제스처신호 발생장치(1) 및 단말기(2)의 구성에 대해 상세히 설명하기로 한다.Next, the configuration of the gesture signal generator 1 and the terminal 2 for providing the user interface by the gesture will be described in detail.

도 2는 본 발명에 일실시예에 의한 제스처신호 발생장치를 나타낸 블록도이다.2 is a block diagram showing a gesture signal generator according to an embodiment of the present invention.

도 2를 참조하면, 본 실시예에서 제시하는 제스처신호 발생장치(1)는 전원공급부(11), 통신부(12), 센서부(13), 진동부(14), 메모리부(15) 및 제어부(16)를 포함하여 구성된다.Referring to FIG. 2, the gesture signal generator 1 according to the present embodiment includes a power supply unit 11, a communication unit 12, a sensor unit 13, a vibration unit 14, a memory unit 15, and a control unit. It comprises 16.

전원공급부(11)는 사용자의 전원 스위치(미도시) 조작 또는 단말기(2)로부터 전달된 구동요청신호에 대응하여 제스처신호 발생장치(1)의 회로에 전원을 공급하는 기능을 수행한다.The power supply unit 11 performs a function of supplying power to a circuit of the gesture signal generator 1 in response to a user's power switch (not shown) operation or a driving request signal transmitted from the terminal 2.

통신부(12)는 사용자 제스처에 의해 발생된 제스처신호를 제어부(16)의 제어에 의해 단말기(2)로 전송하는 기능을 수행한다. 또한, 통신부(12)는 단말기(2)로부터 전송된 응답신호를 수신하여 제어부(16)로 전달하는 기능을 수행한다.The communication unit 12 performs a function of transmitting the gesture signal generated by the user gesture to the terminal 2 under the control of the controller 16. In addition, the communication unit 12 receives a response signal transmitted from the terminal 2 and transmits the response signal to the control unit 16.

센서부(13)는 사용자의 제스처를 감지하여 제어부(16)로 전달하는 기능을 수행한다. 즉, 센서부(13)에서 사용자의 움직임 방향, 움직임 기울기, 움직임 속도, 움직임 시간 중에 적어도 하나의 감지신호를 출력하면 제어부(16)에서 인코딩 과정을 수행하여 제스처신호를 발생시킨다. 이와 같은 제스처신호를 발생시키기 위해, 센서부(13)는 자이로 센서, 가속도 센서 등의 움직임 또는 위치를 검출하기 위한 관성 센서, 또는 제스처신호 발생장치(1)와 단말기(2) 사이의 거리 관계를 검출 또는 측정하기 위한 거리 센서를 포함할 수 있다.The sensor unit 13 detects a user gesture and transmits the gesture to the control unit 16. That is, when the sensor unit 13 outputs at least one detection signal among a user's movement direction, movement tilt, movement speed, and movement time, the controller 16 performs an encoding process to generate a gesture signal. In order to generate such a gesture signal, the sensor unit 13 measures an inertial sensor for detecting a movement or position of a gyro sensor, an acceleration sensor, or the like, or a distance relationship between the gesture signal generator 1 and the terminal 2. It may include a distance sensor for detecting or measuring.

진동부(14)는 단말기(2)로부터 전송된 응답신호를 수신하여 제어부(16)의 제어에 의해 진동을 발생시키는 기능을 수행한다. 즉, 진동부(14)는 단말기(2)로부터 전송된 응답신호 또는 에러상태를 사용자에게 경보하는 에러응답신호에 수신하여 진동을 발생시킴으로써, 사용자 제스처에 대한 결과를 진동으로 느낄 수 있도록 할 수 있다. 본 실시예에서는 진동부(14)를 예시하고 있으나, 전기자극, 음향, 영상, 향기 등의 다양한 방법으로 제스처에 대한 반응을 느낄 수 있도록 할 수 있다.The vibrator 14 receives a response signal transmitted from the terminal 2 and generates a vibration under the control of the controller 16. That is, the vibrator 14 may generate a vibration by receiving a response signal or an error state transmitted from the terminal 2 to an error response signal that alerts the user, thereby making it possible to feel the result of the user gesture as a vibration. . Although the vibration unit 14 is exemplified in the present embodiment, it may be possible to feel the response to the gesture in various ways such as electric stimulation, sound, image, and fragrance.

메모리부(15)는 실행 프로그램, 제스처신호 발생장치(1)에 관한 정보를 저장하고 있으며, 제어부(16)로부터의 실행 프로그램 또는 특정 데이터 호출에 대응하여 해당 데이터를 제공하는 기능을 수행한다. 여기서, 메모리부(15)에 저장된 실행 프로그램은 제어부(16)의 제어에 의해 생성된 제스처신호를 통신부(12)를 통해 전송하기 위한 통신신호처리 프로그램을 포함한다.The memory unit 15 stores information about the execution program and the gesture signal generator 1 and performs a function of providing the corresponding data in response to the execution program or the specific data call from the control unit 16. Here, the execution program stored in the memory unit 15 includes a communication signal processing program for transmitting the gesture signal generated by the control of the control unit 16 through the communication unit 12.

그리고, 제어부(16)는 제스처신호 발생장치(1)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)로서의 기능을 수행한다. 즉, 제어부(16)는 센서부(13)로부터 전달된 감지신호를 단말기(2)로 전송할 수 있도록 인코딩하여 제스처신호를 생성하고, 생성된 제스처신호를 통신부(12)로 전달하여 통신부(12)의 전송 제어를 수행하며, 메모리(15)에서 실행 프로그램 및 특정 데이터를 호출하고, 통신부(12)를 통해 수신된 응답신호 또는 에러응답신호를 디코딩하여 진동부(14)로 전달하고 진동부(14)를 제어하는 기능을 수행한다.In addition, the controller 16 performs a function as a microprocessor for performing an overall control operation of the gesture signal generator 1. That is, the controller 16 generates a gesture signal by encoding the detection signal transmitted from the sensor unit 13 to the terminal 2 and transmits the generated gesture signal to the communication unit 12 to communicate with the communication unit 12. Control the transmission of the data, call the executable program and the specific data from the memory 15, decode the response signal or the error response signal received through the communication unit 12 and transmit it to the vibration unit 14, and the vibration unit 14 ) To control the function.

도 3은 본 발명의 일실시예에 의한 단말기를 나타낸 블록도이다.3 is a block diagram showing a terminal according to an embodiment of the present invention.

도 3을 참조하면, 본 실시예에서 제시하는 단말기(2)는 통신부(21), 입력부(22), 저장부(23), 표시부(24), 영상출력부(25), 진동부(26), 음원처리부(27) 및 단말제어부(28)를 포함한다.Referring to FIG. 3, the terminal 2 according to the present embodiment includes a communication unit 21, an input unit 22, a storage unit 23, a display unit 24, an image output unit 25, and a vibration unit 26. And a sound source processing unit 27 and a terminal control unit 28.

통신부(21)는 무선통신을 통해 데이터를 송수신하는 기능을 수행한다. 이 통신부(21)는 이동통신 모듈(211)과 근거리무선통신 모듈(212)을 포함할 수 있다. 이동통신 모듈(211)은 상대방과의 통화 및 메시지 등의 데이터를 단말제어부(28)의 제어에 의해 송수신하는 기능을 수행한다. 그리고, 근거리무선통신 모듈(212)은 제스처신호 발생장치(1)로부터 제스처신호를 수신하거나 제스처에 대응하는 응답신호를 단말제어부(28)의 제어에 의해 제스처신호 발생장치(1)로 송신하는 기능을 수행한다.The communication unit 21 performs a function of transmitting and receiving data through wireless communication. The communication unit 21 may include a mobile communication module 211 and a short range wireless communication module 212. The mobile communication module 211 performs a function of transmitting and receiving data such as a call and a message with the counterpart under the control of the terminal controller 28. The short-range wireless communication module 212 receives a gesture signal from the gesture signal generator 1 or transmits a response signal corresponding to the gesture to the gesture signal generator 1 under the control of the terminal controller 28. Do this.

입력부(22)는 단말기(2)의 조작을 위한 복수의 키를 제공하며, 사용자 조작을 지원하여 사용자의 키 선택에 따른 입력신호를 단말제어부(28)에 전달하는 기능을 수행한다. 입력부(22)는 키패드, 터치패드와 같은 포인팅 장치, 터치스크린(touch screen) 등이 이용될 수 있다.The input unit 22 provides a plurality of keys for the operation of the terminal 2, and supports a user operation to transmit an input signal according to a user's key selection to the terminal controller 28. The input unit 22 may be a keypad, a pointing device such as a touch pad, a touch screen, or the like.

저장부(23)는 단말기(2)의 동작 제어시 필요한 실행 프로그램, 이 실행 프로그램 수행 중에 발생되는 데이터, 제스처신호에 대응하는 명령어들을 저장하고 있으며, 단말제어부(28)로부터의 실행 프로그램 또는 명령어 호출에 대응하여 해당 데이터를 제공하는 기능을 수행한다. 이를 위해, 저장부(23)는 하나 이상의 휘발성 메모리 소자와 비휘발성 메모리 소자를 포함할 수 있다. 또한, 저장부(23)는 제스처신호에 대응하여 다양한 명령어와 매칭시킬 수 있도록 제스처신호 매칭 프로그램을 저장할 수 있다.The storage unit 23 stores an execution program necessary for controlling the operation of the terminal 2, data generated during execution of the execution program, and commands corresponding to a gesture signal, and calls an execution program or a command from the terminal control unit 28. It performs the function of providing the corresponding data. To this end, the storage unit 23 may include one or more volatile memory devices and nonvolatile memory devices. In addition, the storage unit 23 may store a gesture signal matching program to match various commands in response to the gesture signal.

표시부(24)는 단말기(2)에서 실행되는 각종 기능 메뉴를 비롯하여 사용자 요구에 대응하는 정보를 단말제어부(28)의 제어에 의해 패널 상에 출력하는 기능을 수행한다. 또한, 표시부(24)는 단말제어부(28)의 제어에 의해 영상출력부(25)로부터 출력되는 영상과 동일한 영상을 출력하는 기능을 수행할 수 있다. 이와 같은 기능을 수행하는 표시부(24)로는 LCD(Liquid Crystal Display)나 터치 스크린이 사용될 수 있다. 터치 스크린은 표시 장치와 입력 장치로서의 역할을 동시에 수행할 수 있을 것이다.The display unit 24 performs a function of outputting information corresponding to a user's request on the panel under the control of the terminal control unit 28, including various function menus executed in the terminal 2. In addition, the display unit 24 may perform a function of outputting the same image as the image output from the image output unit 25 under the control of the terminal controller 28. As the display unit 24 performing such a function, a liquid crystal display (LCD) or a touch screen may be used. The touch screen may simultaneously serve as a display device and an input device.

영상출력부(25)는 호 요청 및 메시지 수신 등과 같은 외부로부터 실시간으로 발생하는 이벤트, 또는 제스처신호 등이 통신부(21)로 수신되면, 단말제어부(28)의 제어에 의해 해당 영상을 공간 또는 스크린 상에 출력하는 기능을 수행한다. 한편, 영상출력부(25)는 상기한 바와 같이 표시부(24)와 연동하여 동일 내용을 출력할 수 있다. 이 같은 기능을 수행하는 영상출력부는 홀로그래피 또는 프로젝션일 수 있으며, 광을 단말기(2) 외부로 투사하는 투사형을 이용하는 것이 바람직하다. When the video output unit 25 receives an event or a gesture signal generated in real time from the outside such as a call request or a message reception to the communication unit 21, the image output unit 25 controls the terminal control unit 28 to display the corresponding video space or screen. Performs a function to output to the image. On the other hand, the image output unit 25 may output the same content in conjunction with the display unit 24 as described above. The image output unit performing such a function may be holography or projection, and it is preferable to use a projection type for projecting light to the outside of the terminal 2.

먼저, 홀로그래피는, 2개의 광원부를 이용하여 평면 또는 입체로 표현되는 3차원 입체 영상을 생성할 수도 있다. 즉, 2개의 적외선 빔을 이용하여 공간 상에 스캐닝함으로써 사용자가 인식할 수 있도록 할 수 있다. 2개의 빔의 간섭을 이용하여 명암을 구현함으로써 3차원의 영상을 재현할 수도 있다. 이를 위해, 홀로그래피는 2개의 광원부와, 단말제어부에서 출력된 영상신호에 따라, 하나의 광원부에서 출력된 난반사된 간섭성 광을 집결시켜 해당 영상 위치에 투사할 수 있도록 위치를 제어하며, 나머지 하나의 광원부에서 해당 영상 위치로 참조광을 투사할 수 있도록 위치를 제어하는 광스캐너부와, 광스캐너부로부터 출력되는 영상을 확대하여 투사하는 렌즈부를 포함하여 구성될 수 있다. 광스캐너부로는 2개의 광원부로부터 출력되는 광을 X축으로 선형 편향시키는 회전형 미러를 이용할 수 있다. 또한, 렌즈부로는 회전형 미러를 통해 출력된 광을 Y축으로 선형 편향시키는 회전형 렌즈를 이용할 수 있다. 이와 같은 아날로그 형태의 광출사 장치 뿐만 아니라 매트릭스 영상신호 처리부와 같은 디지털 형태의 광출사 장치도 이용할 수 있다.First, holography may generate a 3D stereoscopic image represented by a plane or a stereoscopic image using two light sources. In other words, by scanning the space using the two infrared beams can be recognized by the user. By implementing the contrast using the interference of the two beams it is also possible to reproduce the three-dimensional image. To this end, the holography controls the position so that the two light source units and the image signal output from the terminal control unit collect the diffusely reflected coherent light output from one light source unit and project the image onto the corresponding image position. The light source may be configured to control the position of the light source to project the reference light to the corresponding image position, and the lens unit may enlarge and project the image output from the light scanner. As the light scanner portion, a rotating mirror that linearly deflects light output from two light sources can be used on the X axis. In addition, as the lens unit, a rotatable lens that linearly deflects light output through the rotatable mirror along the Y axis may be used. In addition to the analog light emitting device, a digital light emitting device such as a matrix image signal processor may be used.

한편, 프로젝터는 적색(R), 녹색(G), 청색(B) LED 모듈들이 서로 분리되어 이루어진 램프부 및 플라이아이렌즈 등과 같은 광균일화 광학계 등으로 구성된 광원부와, 영상신호에 따라 광원부로부터 제공되는 광을 변조하여 영상을 출력하는 광변조 소자와, 광변조 소자로부터 출력되는 영상을 확대하여 투사하는 렌즈부를 포함하여 구성될 수 있다. 이때, 램프부는 발광다이오드(LED) 뿐만 아니라 유기발광다이오드(OLED), 레이저다이오드(LD) 등으로도 구성될 수 있으며, 광변조 소자는 LCD(Liquid Crystal Display) 패널, DMD(Digital Micromirror Device) 소자, GLV(Grating Light Valve) 소자, Lcos 등과 같은 투과형 또는 반사형 광변조 소자들이 선택적으로 사용될 수 있다.On the other hand, the projector is provided with a light source unit composed of a light unit and a light homogenizing optical system such as a lamp unit and a red eye, and a red (R), green (G), blue (B) LED modules are separated from each other, and is provided from the light source unit according to the image signal And a lens unit for enlarging and projecting an image output from the light modulation device. In this case, the lamp unit may include not only a light emitting diode (LED) but also an organic light emitting diode (OLED), a laser diode (LD), and the like, and the optical modulation device may be a liquid crystal display (LCD) panel or a digital micromirror device (DMD) device. Transmissive or reflective light modulators such as GLV (Grating Light Valve) devices, Lcos, etc. may be selectively used.

진동부(26)는 단말기(2)에서 실행되는 각종 기능 메뉴에 대응하여 단말제어부(28)의 제어에 의해 다양한 진동을 발생시키는 기능을 수행한다. 즉, 진동부(26)는 입력부(22)를 통해 입력된 사용자 조작에 대응하거나 제스처신호에 대응하여 진동을 발생시킬 수 있으며, 표시부(24) 및 음원처리부(27)와 연동시킬 수 있다.The vibrator 26 performs a function of generating various vibrations under the control of the terminal controller 28 in response to various function menus executed in the terminal 2. That is, the vibrator 26 may generate vibrations in response to a user manipulation input through the input unit 22 or in response to a gesture signal, and may be linked with the display unit 24 and the sound source processing unit 27.

음원처리부(27)는 마이크(MIC)로 입력되는 음성을 디지털화하여 음성정보를 획득하고, 통신부(21)를 통해 수신된 음성정보를 복조하여 스피커(SPK)를 통해 출력한다. 음원처리부(27)는 제스처신호에 대응하는 음향을 스피커를 통해 출력할 수 있다.The sound source processing unit 27 digitizes the voice input through the microphone MIC to obtain voice information, and demodulates the voice information received through the communication unit 21 and outputs it through the speaker SPK. The sound source processor 27 may output a sound corresponding to the gesture signal through the speaker.

그리고, 단말제어부(28)는 단말기(2)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)로서의 기능을 수행한다. 특히, 단말제어부(28)는 근거리무선통신 모듈(212)에서 수신한 제스처신호를 전달받아 제스처신호에 대응하는 명령어를 저장부(23)로부터 추출하여 해당 명령어에 대응하는 단말기(2)의 기능을 실행한다. 즉, 단말제어부(28)는 제스처신호에서 사용자의 움직임 방향, 움직임 기울기, 움직임 속도, 움직임 시간 중에 적어도 하나에 대응하는 정보를 추출하여 이에 대응하는 명령어를 저장부(23)에서 추출하고, 이 명령어를 실행함으로써 명령어 실행에 따른 실행결과를 영상출력부(25)로 전달하여 영상으로 출력할 수 있도록 제어한다. 한편, 단말제어부(28)는 사용자 제스처에 대응하는 응답신호를 근거리무선통신 모듈(212)을 통해 제스처신호 발생장치(1)로 전송하는 제어를 수행한다.In addition, the terminal controller 28 performs a function as a microprocessor for performing the overall control operation of the terminal 2. In particular, the terminal controller 28 receives the gesture signal received from the short range wireless communication module 212 and extracts a command corresponding to the gesture signal from the storage unit 23 to perform a function of the terminal 2 corresponding to the command. Run That is, the terminal controller 28 extracts information corresponding to at least one of a user's movement direction, movement inclination, movement speed, and movement time from the gesture signal, and extracts a corresponding command from the storage unit 23. By executing the control result to be transmitted to the image output unit 25 according to the execution of the command output to the image. Meanwhile, the terminal controller 28 performs a control to transmit a response signal corresponding to the user gesture to the gesture signal generator 1 through the short range wireless communication module 212.

한편, 본 실시예에서는 이동통신단말과 같이 통화를 수행할 수 있는 단말기(2)를 일례로서 예시하고 있으나, 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등에 본 발명의 기술적 사상을 모두 적용할 수 있다. 또한, 위에서 예시한 구성중에서 통신부(21), 저장부(23), 영상출력부(25) 및 단말제어부(28)로 이루어진 최소구성의 단말기를 이용하여 본 발명을 실현할 수 있으며, 또한 통신부(21), 저장부(23), 표시부(24) 및 단말제어부(28)로 이루어진 최소구성의 단말기를 이용하여 본 발명을 실현할 수 있다. 이에 본 발명은 최소구성의 단말기를 포함하는 TV, 모니터, 프로젝터, 입체영상표시장치 등을 적용될 수 있음은 당연하다.Meanwhile, in the present embodiment, the terminal 2 capable of making a call as a mobile communication terminal is illustrated as an example, but a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia (PMP) It is possible to apply all of the technical ideas of the present invention to a player) and a navigation device. In addition, in the above-described configuration, the present invention can be realized by using a terminal having a minimum configuration including a communication unit 21, a storage unit 23, an image output unit 25, and a terminal control unit 28. ), The storage unit 23, the display unit 24 and the terminal control unit 28 can be realized using the terminal of the minimum configuration. Accordingly, the present invention can be applied to a TV, a monitor, a projector, a stereoscopic image display device, etc. including a terminal having a minimum configuration.

그러면, 여기서 상기한 구성을 갖는 제스처에 의한 사용자 인터페이스 제공 시스템에서의 사용자 인터페이스 과정에 대해 상세히 설명하기로 한다.Next, the user interface process in the user interface providing system by the gesture having the above configuration will be described in detail.

도 4는 본 발명의 일실시예로서, 제스처에 의한 사용자 인터페이스 제공 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a method for providing a user interface by a gesture according to an embodiment of the present invention.

먼저, 초기 상태로서 제스처신호 발생장치(1)는 오프 상태를 유지하며, 단말기(2)는 최초 초기화가 이루어진 후 대기 상태를 유지하고 있는 것으로 가정한다. 그리고, 제스처신호 발생장치(1)는 단말기(2)에 등록된 상태라고 가정한다. 즉, 제스처신호 발생장치(1)와 단말기(2) 간의 페어링(Pairring)을 통해 단말기(2)에 해당 제스처신호 발생장치(1)에 대한 기본 정보가 저장된 상태라고 가정한다.First, it is assumed that the gesture signal generator 1 maintains the off state as the initial state, and the terminal 2 maintains the standby state after the initial initialization. In addition, it is assumed that the gesture signal generator 1 is registered in the terminal 2. That is, it is assumed that basic information about the gesture signal generator 1 is stored in the terminal 2 through pairing between the gesture signal generator 1 and the terminal 2.

도 1 내지 도 4를 참조하면, 외부로부터 호 요청 또는 영상 호 요청, 메시지 수신 등의 이벤트가 이동통신 모듈(211)을 통해 수신되면(S1), 단말제어부(28)의 제어에 의해 단말기(2)의 구동이 이루어지게 된다(S2). 즉, 단말기(2)가 구동 대기 상태를 유지하고 있다가, 이벤트가 발생되면 이벤트에 따라 단말제어부(28)의 제어에 의해 표시부(24), 영상출력부(25), 진동부(26), 음원처리부(27) 중에서 필요한 장치를 구동시킨다.1 to 4, when an event such as a call request, a video call request, or a message reception is received from the outside through the mobile communication module 211 (S1), the terminal 2 is controlled by the terminal controller 28. ) Is made (S2). That is, the terminal 2 maintains the driving standby state, and when an event occurs, the display unit 24, the image output unit 25, the vibration unit 26, under the control of the terminal control unit 28 according to the event. The necessary device is driven among the sound source processing units 27.

이와 같이, 단말기(2)의 표시부(24) 또는 영상출력부(25), 진동부(26) 또는 음원처리부(27)를 구동시켜 화면, 공간 또는 스크린 상에 영상, 통화음 발생 또는 진동을 출력할 준비를 하거나, 메시지가 출력될 수 있도록 표시부(24) 또는 영상출력부(25)를 구동시켜 화면 또는 공간 또는 스크린 상에 영상을 출력할 준비를 한다.As such, the display unit 24, the image output unit 25, the vibration unit 26, or the sound source processing unit 27 of the terminal 2 may be driven to output an image, a call sound, or a vibration on a screen, a space, or a screen. The display unit 24 or the image output unit 25 is driven to prepare the output or to output an image on the screen or a space or the screen so that a message can be output.

본 실시예에서는 외부로부터 이벤트가 수신되는 경우에 대해서 설명하고 있으나, 사용자가 단말기(2)를 조작하여 단말기(2) 구동을 위한 이벤트를 발생시킬 수도 있을 것이다. 또한, 이벤트는 제스처신호일 수 있으며, 이와 같은 제스처신호로서 단말기(2)를 구동시킬 수도 있다.In the present embodiment, a case in which an event is received from the outside is described, but a user may generate an event for driving the terminal 2 by operating the terminal 2. In addition, the event may be a gesture signal, and may drive the terminal 2 as such a gesture signal.

이어서, 초기 상태 조건에 따라 제스처신호 발생장치(1)를 구동시키기 위해, 단말기(2)는 단말제어부(28)의 제어에 의해 근거리무선통신 모듈(212)를 통해 제스처신호 발생장치(1)로 구동요청신호를 전송한다(S3).Subsequently, in order to drive the gesture signal generator 1 according to the initial state condition, the terminal 2 is controlled by the terminal controller 28 to the gesture signal generator 1 through the short range wireless communication module 212. The driving request signal is transmitted (S3).

이때, 단말기(2)에서는 구동요청신호를 전송함과 아울러, 단말제어부(28)의 제어에 의해 영상출력부(25)에서 해당 이벤트에 대응하는 영상(I) 출력이 이루어지게 된다(S4). 이때, 홀로그래피가 적용된 단말기(2)인 경우에는 공간 상에 영상 출 력이 이루어지게 되며, 프로젝션이 적용된 단말기의 경우에는 스크린 또는 임의로 벽면 등에 영상 투영이 이루어지게 된다. 한편, 표시부(24)에서도 이벤트에 대응하는 영상(I) 출력이 이루어질 수 있다.At this time, the terminal 2 transmits the driving request signal, and under the control of the terminal controller 28, the image output unit 25 outputs the image I corresponding to the corresponding event (S4). In this case, in the case of the terminal 2 to which the holography is applied, an image output is performed in the space, and in the case of the terminal to which the projection is applied, the image projection is performed on a screen or a wall. On the other hand, the display unit 24 may also output the image (I) corresponding to the event.

한편, 제스처신호 발생장치(1)는 단말기(2)로부터 전송된 구동요청신호 수신에 대응하여 제어부(16)의 제어에 의해 전원공급부(11)에서 전원공급이 이루어지게 된다(S5). 본 실시예에서는 구동요청신호에 의해 제스처신호 발생장치(1)에 전원이 공급되는 경우에 대해 설명하고 있으나, 사용자가 임의로 전원 공급 스위치(미도시)를 온시켜 제스처신호 발생장치(1)에 전원 공급이 이루어질 수도 있다.Meanwhile, the gesture signal generator 1 is supplied with power from the power supply unit 11 under the control of the controller 16 in response to receiving the driving request signal transmitted from the terminal 2 (S5). In the present embodiment, a case in which power is supplied to the gesture signal generator 1 by the driving request signal is described. However, a user arbitrarily turns on a power supply switch (not shown) to power the gesture signal generator 1. Supply may be made.

이에 제어부(16)의 제어에 의해 제스처신호 발생장치(1)의 구동 및 초기화가 이루어지게 된다(S6). 이 초기화 과정은 제스처신호 발생장치(1)의 통신부(12) 및 단말기(2)의 근거리무선통신 모듈(212) 간 통신을 통해 단말기(2)에서 제스처신호 발생장치(1)를 인식하는 과정을 포함한다. 즉, 제스처신호 발생장치(1)가 구동되면 제어부(16)의 제어에 의해 통신부(12)를 통해 인식 요청 메시지를 단말기(2)로 전송하게 되고, 이에 단말기(2)에서는 단말제어부(28)의 제어에 의해 등록된 제스처신호 발생장치(1)인 지를 확인함으로써 인식 과정을 완료하게 된다. 이와 같이, 단말기(2)에 미리 저장된 제스처신호 발생장치(1)에 대한 이름, 클래스(Class), 서비스 리스트(List of service)와, 특성, 제조사, 스펙(Specification) 등을 포함하는 기술 정보를 확인하여 미리 등록된 제스처신호 발생장치(1)인 지를 확인할 수 있을 것이다. 이후, 사용자는 손가락, 손목 등에 제스처신호 발생장치(1)를 장착한 후, 단말기(2)와의 인터페이스를 수행할 준비를 한다.Accordingly, the gesture signal generator 1 is driven and initialized under the control of the controller 16 (S6). This initialization process is a process of recognizing the gesture signal generator 1 in the terminal 2 through communication between the communication unit 12 of the gesture signal generator 1 and the short-range wireless communication module 212 of the terminal 2. Include. That is, when the gesture signal generator 1 is driven, the recognition request message is transmitted to the terminal 2 through the communication unit 12 under the control of the control unit 16, so that the terminal 2 controls the terminal control unit 28. The recognition process is completed by confirming whether the gesture signal generator 1 is registered under the control of. In this way, technical information including a name, a class, a list of services, and a characteristic, a manufacturer, a specification, and the like for the gesture signal generator 1 stored in advance in the terminal 2 are stored. It may be confirmed whether the gesture signal generator 1 is registered in advance. Thereafter, the user mounts the gesture signal generator 1 on a finger, a wrist, or the like, and prepares to interface with the terminal 2.

한편, 제스처신호 발생장치(1)와 단말기(2) 간의 인터페이스를 수행하기 이전에 영상출력부(25)를 통해 출력된 영상(I)에서의 제스처신호 발생장치(1)의 초기 위치를 설정하는 과정을 진행할 수 있다. 영상(I)에서의 제스처신호 발생장치(1)의 초기 위치를 설정하는 과정은 다음과 같다. 먼저, 제스처신호 발생장치(1)에 포함된 거리 센서를 이용하여 단말기(2)와의 거리를 감지한다. 제스처신호 발생장치(1)와 단말기(2)가 미리 설정된 거리 이내로 판단되면, 제스처신호 발생장치(1)는 제어부(16)의 제어에 의해 단말기(2)로 커서 요청 신호를 전송한다. 이에, 단말기(2)는 단말제어부(28)의 제어에 의해 공간 또는 스크린 상에 출력된 영상(I)에 커서를 표시한다. 이때, 커서는 영상(I)의 중앙에 위치시키는 것이 바람직하다. 이후, 제스처신호 발생장치(1)의 움직임에 대응하여 단말기(2)에서 커서의 움직임을 영상출력부(25)를 통해 출력할 수 있다.Meanwhile, before performing the interface between the gesture signal generator 1 and the terminal 2, the initial position of the gesture signal generator 1 in the image I output through the image output unit 25 is set. You can proceed. The process of setting the initial position of the gesture signal generator 1 in the image I is as follows. First, the distance with the terminal 2 is sensed using the distance sensor included in the gesture signal generator 1. When the gesture signal generator 1 and the terminal 2 are determined to be within a preset distance, the gesture signal generator 1 transmits a cursor request signal to the terminal 2 under the control of the controller 16. Accordingly, the terminal 2 displays the cursor in the image I output on the space or the screen under the control of the terminal controller 28. At this time, the cursor is preferably located at the center of the image (I). Thereafter, in response to the movement of the gesture signal generator 1, the terminal 2 may output the movement of the cursor through the image output unit 25.

이와 같은 영상(I)에서의 제스처신호 발생장치(1)의 초기 위치를 설정하는 과정이 완료되면, 제스처신호 발생장치(1)는 사용자에 의한 제스처가 있는 지를 판단한다(S7). 즉, 센서부(13)에서 사용자의 제스처를 감지하였는 지를 판단한다.When the process of setting the initial position of the gesture signal generator 1 in the image I is completed, the gesture signal generator 1 determines whether there is a gesture by the user (S7). That is, the sensor unit 13 determines whether the user's gesture is detected.

S7단계의 판단 결과, 센서부(13)에서 사용자의 제스처를 감지하지 못하였을 경우에는 센서부(13)는 제스처 감지 대기상태를 계속 유지한다.As a result of the determination in step S7, when the sensor unit 13 does not detect the user's gesture, the sensor unit 13 maintains the gesture detection standby state.

S7단계의 판단 결과, 센서부(13)에서 사용자의 제스처를 감지하였을 경우에는 센서부(13)가 사용자 제스처를 대응하는 제스처신호를 발생시켜 출력한다(S8).As a result of the determination in step S7, when the sensor unit 13 detects a gesture of the user, the sensor unit 13 generates and outputs a gesture signal corresponding to the user gesture (S8).

여기서, 센서부(13)로부터 발생될 수 있는 제스처신호의 종류에 대해 간략하게 설명한다.Here, the types of gesture signals that may be generated from the sensor unit 13 will be briefly described.

먼저, 공간 또는 스크린 상에서 전방향/후방향/좌방향/우방향/상방향/하방향을 향해 직선으로 움직이는 제스처를 기본 동작신호로 정의한다. 여기에 인접한 2개의 직선 방향을 조합한 방향, 회전, 기울어짐 등의 변형 동작신호를 추가할 수 있다. 또한, 클릭 동작과 같은 반복 동작 회수를 포함하는 반복 동작신호를 포함할 수 있다. 그리고, 각 동작신호에 대한 동작 시간을 포함할 수 있다. 기본 동작신호, 변형 동작신호, 반복 동작신호 및 동작 시간은 임의로 조합될 수 있으며, 조합된 동작신호에 단말기(2)의 명령어가 각각 매칭될 수 있다. 이때, 사용자가 자신의 취향에 맞추어 동작신호와 명령어를 임의로 매칭시킬 수도 있다.First, a gesture that moves in a straight line toward a forward / rearward / leftward / rightward / upward / downward direction on a space or a screen is defined as a basic operation signal. Modification operation signals such as a direction, a rotation, and a tilt that combine two adjacent linear directions may be added thereto. It may also include a repetitive operation signal that includes a number of repetitive operations, such as a click operation. And, it may include an operation time for each operation signal. The basic operation signal, the modified operation signal, the repetitive operation signal, and the operation time may be arbitrarily combined, and the command of the terminal 2 may be matched with the combined operation signal, respectively. In this case, the user may arbitrarily match the operation signal and the command according to his or her taste.

예를 들어, 출력된 영상에서 커서 위치를 확인하고 사용자가 제스처신호 발생장치(1)를 전후좌우로 움직이는 것에 대응하여 단말기(2)에서 커서가 전후좌우로 움직이는 영상을 출력한다. 제스처신호 발생장치(1)에 마련된 특정 버튼을 누르면 아이콘 등의 대상물이 선택되고, 이 상태에서 대상물을 전후좌우로 움직이면 단말기(2)에서 대상물이 전후좌우로 움직이는 영상을 출력한다. 제스처신호 발생장치(1)에 마련된 특정 버튼을 이용하여 아이콘 등의 대상물을 선택하고 더블 클릭하거나 상하로 움직이면, 단말기(2)에서 대상물과 링크된 데이터의 영상을 출력한다. 이때, 링크된 데이터가 전자책일 경우에, 제스처신호 발생장치(1)를 좌측으로 기울이면, 단말기(2)는 책장이 넘겨지는 영상을 출력한다. 또한, 그림 파일이 복수개 출력된 영상일 경우에 제스처신호 발생장치(1)를 임의의 방향으로 기울이면 단말기(2)에서 스크롤이 이루어지는 영상을 출력한다. 제스처신호 발생장치(1)를 X 문양을 설정시간 이내에 취하면, 단말기(2)에서 현재 출력된 영상을 닫고 초기 화면 또는 이전 영상을 출력한다. 이와 같이, 마우스 등과 같은 입력장치에서 숙지된 행동방식을 이용하여 인터페이스를 수행할 수 있으며, 다양한 제스처가 존재하므로 이를 다양한 영상 제어 명령과 매칭시킬 수 있을 것이다.For example, the cursor position is identified in the output image, and the terminal 2 outputs an image in which the cursor moves back, forth, left, and right in response to the user moving the gesture signal generator 1 in front, rear, left and right. When a specific button provided in the gesture signal generator 1 is pressed, an object such as an icon is selected, and when the object is moved back, front, left, or right in this state, the terminal 2 outputs an image in which the object moves back, forth, left, and right. When an object such as an icon is selected and double-clicked or moved up and down by using a specific button provided in the gesture signal generator 1, the terminal 2 outputs an image of data linked to the object. At this time, when the linked data is an e-book, when the gesture signal generator 1 is tilted to the left, the terminal 2 outputs an image to which the bookshelf is turned. In addition, when a plurality of picture files are outputted images, when the gesture signal generator 1 is tilted in an arbitrary direction, the terminal 2 outputs a scrolled image. When the gesture signal generator 1 takes the X pattern within the set time, the terminal 2 closes the image currently output and outputs the initial screen or the previous image. As such, the interface may be performed using a behavioral method known from an input device such as a mouse, and since various gestures exist, it may be matched with various image control commands.

이와 같이, 발생된 제스처신호는 제어부(16)의 제어에 의해 통신부(12)를 통해 단말기(2)로 전송된다(S9).In this way, the generated gesture signal is transmitted to the terminal 2 through the communication unit 12 under the control of the control unit 16 (S9).

이후, 제스처신호 발생장치(1)로부터 전송된 제스처신호를 단말기(2)의 근거리무선통신 모듈(212)을 통해 수신하면(S10), 단말기(2)는 단말제어부(28)의 제어에 의해 통상의 신호처리 과정을 거치게 된다. 즉, 제스처신호를 증폭하고, 증폭된 고주파 신호로부터 필터링을 수행하여 디지털 신호로 변환하는 과정을 거치게 된다.Thereafter, when the gesture signal transmitted from the gesture signal generator 1 is received through the short range wireless communication module 212 of the terminal 2 (S10), the terminal 2 is normally controlled by the terminal controller 28. Signal processing of the In other words, the gesture signal is amplified, filtered from the amplified high frequency signal, and converted into a digital signal.

이어서, 단말기(2)의 단말제어부(28)에서는 제스처신호를 분석하여 동작신호에 포함된 사용자의 움직임 방향, 움직임 기울기, 움직임 속도, 움직임 시간 등을 추출하고, 이들에 대응하는 명령어를 저장부(23)에서 추출한다(S11).Subsequently, the terminal control unit 28 of the terminal 2 analyzes the gesture signal, extracts the movement direction, the tilt of the user, the movement speed, the movement time, etc. of the user included in the operation signal, and stores a command corresponding thereto. 23) (S11).

그리고, 단말기(2)의 단말제어부(28)에서는 명령어를 실행시킴과 동시에 실행결과를 영상(I)에 출력시키는 제어를 수행한다(S12). 즉, 단말기(2)의 단말제어부(28)에서는 영상출력부(25)를 제어하여 출력된 해당 페이지를 이동시키거나, 대각선 방향 또는 기울기에 대응하여 해당 페이지를 넘기거나, 반복 동작에 대응하여 특정 아이콘을 실행하거나, 속도에 비례하여 실행 속도를 조절하는 영상(I)을 출력시킨다.In addition, the terminal controller 28 of the terminal 2 executes a command and simultaneously performs a control for outputting the execution result to the image I (S12). That is, the terminal controller 28 of the terminal 2 controls the image output unit 25 to move the output page, to turn over the page in response to the diagonal direction or tilt, or to respond to the repetitive operation. Runs the icon, or outputs the image (I) to adjust the running speed in proportion to the speed.

이 영상(I) 출력에 있어, 홀로그래피의 경우에는 단말제어부(28)에서 영상신 호를 영상출력부(25)로 전달하면, 영상신호에 따라 영상출력부(25)가 하나의 광원부에서 출력된 난반사된 간섭성 광을 집결시켜 해당 영상 위치에 투사할 수 있도록 위치를 제어하며, 나머지 하나의 광원부에서 해당 영상 위치로 참조광을 투사할 수 있도록 위치를 제어한다. 이후, 영상출력부(25)가 간섭성 광 및 참조광을 공간 상에 투사한다. 한편, 프로젝터의 경우에는 단말제어부(28)에서 영상신호를 영상출력부(25)로 전달하면, 영상신호에 따라 영상출력부(25)가 영상신호에 대응한 광을 출력하고, 광을 변조하여 영상을 형성시킨다. 이후, 영상출력부(25)가 형성된 영상을 확대하여 투사한다.In the case of holography, when the terminal controller 28 transmits an image signal to the image output unit 25, the image output unit 25 is output from one light source unit according to the image signal. The position is controlled so that the diffusely reflected coherent light is collected and projected to the corresponding image position, and the position is controlled so that the reference light can be projected from the other light source to the corresponding image position. Thereafter, the image output unit 25 projects the coherent light and the reference light on the space. In the case of the projector, when the terminal control unit 28 transmits the image signal to the image output unit 25, the image output unit 25 outputs light corresponding to the image signal according to the image signal, and modulates the light. Form an image. Thereafter, the image output unit 25 is enlarged and projected.

한편, 단말기(2)의 단말제어부(28)에서는 사용자 제스처에 대응하는 기능이 실행되었음을 알리는 응답신호를 생성하여 근거리무선통신 모듈(212)로 전달하고, 이후 단말기(2)의 단말제어부(28)에서 근거리무선통신 모듈(212)을 제어하여 응답신호를 제스처신호 발생장치(1)로 전송한다(S13).Meanwhile, the terminal controller 28 of the terminal 2 generates a response signal indicating that a function corresponding to a user gesture has been executed, and transmits the response signal to the short range wireless communication module 212, and then the terminal controller 28 of the terminal 2. In step S13, the wireless communication module 212 transmits a response signal to the gesture signal generator 1 in step S13.

이에, 제스처신호 발생장치(1)는 통신부(12)를 통해 수신한 응답신호를 수신하여 제어부(16)로 전달하고, 제스처신호 발생장치(1)의 제어부(16)에서는 응답신호에 대응하는 제어를 통해 진동부(14)를 구동시켜 진동을 발생시킨다(S14). 물론, 응답신호에 대응하여 음향, 디스플레이, 향기 등을 출력시킬 수도 있다.Accordingly, the gesture signal generator 1 receives the response signal received through the communication unit 12 and transmits the response signal to the controller 16, and the control unit 16 of the gesture signal generator 1 controls the response signal. The vibration unit 14 is driven to generate vibration (S14). Of course, a sound, a display, a fragrance, or the like may be output in response to the response signal.

한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples to aid understanding, and are not intended to limit the scope of the present invention. In addition to the embodiments disclosed herein, it is apparent to those skilled in the art that other modifications based on the technical idea of the present invention may be implemented.

본 발명은 공간 또는 스크린 상에 영상을 출력시킬 수 있으며, 제스처신호에 대응하는 실행결과를 영상으로 출력할 수 있는 단말기와 사용자의 제스처에 대응하여 제스처신호를 발생시킬 수 있는 제스처신호 발생장치를 통해 사용자 인터페이스 환경을 공간 또는 스크린으로 확장시킬 수 있으므로, 한정된 인터페이스 영역을 갖는 장치 등에 본 발명을 적용할 경우에 이를 이용하는 사용자의 편리성 및 흥미를 증대시킬 수 있다.The present invention can output an image on a space or screen, through a terminal capable of outputting an execution result corresponding to a gesture signal as an image and a gesture signal generator capable of generating a gesture signal in response to a user's gesture. Since the user interface environment can be extended to a space or a screen, when the present invention is applied to a device having a limited interface area or the like, it is possible to increase the convenience and interest of the user using the same.

도 1은 본 발명의 일실시예로서, 제스처에 의한 사용자 인터페이스 제공 시스템을 나타낸 개념도이다.1 is a conceptual diagram illustrating a user interface providing system using a gesture according to an embodiment of the present invention.

도 2는 본 발명에 일실시예에 의한 제스처신호 발생장치를 나타낸 블록도이다.2 is a block diagram showing a gesture signal generator according to an embodiment of the present invention.

도 3은 본 발명의 일실시예에 의한 단말기를 나타낸 블록도이다.3 is a block diagram showing a terminal according to an embodiment of the present invention.

도 4는 본 발명의 일실시예로서, 제스처에 의한 사용자 인터페이스 제공 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a method for providing a user interface by a gesture according to an embodiment of the present invention.

<도면의 주요 부분에 대한 설명>Description of the main parts of the drawing

1 : 제스처신호 발생장치 11 : 전원공급부1: Gesture signal generator 11: Power supply

12 : 통신부 13 : 센서부12: communication unit 13: sensor unit

14 : 진동부 15 : 메모리부14: vibration unit 15: memory unit

16 : 제어부 2 : 단말기16 controller 2 terminal

21 : 통신부 22 : 입력부21: communication unit 22: input unit

23 : 저장부 24 : 표시부23: storage unit 24: display unit

25 : 영상출력부 26 : 진동부25: video output unit 26: vibration unit

27 : 음원처리부 28 : 단말제어부27: sound source processing unit 28: terminal control unit

Claims (15)

사용자에 장착되어 상기 사용자의 제스처를 감지하여 상기 제스처에 대응하는 제스처신호를 생성하고, 상기 제스처신호를 근거리무선통신으로 출력하는 제스처신호 발생장치; 및A gesture signal generator mounted on a user to generate a gesture signal corresponding to the gesture by detecting the gesture of the user, and outputting the gesture signal through short-range wireless communication; And 이벤트 발생 시 공간 상에 상기 이벤트에 대응하는 영상을 출력하며, 근거리무선통신을 통해 상기 제스처신호 발생장치로부터 상기 제스처신호가 수신되면, 상기 제스처신호에 대응하는 명령어를 추출하여 상기 명령어를 실행하고, 상기 명령어의 실행결과에 대응하는 영상을 상기 공간 상에 출력하는 단말기를 포함하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 시스템.Outputs an image corresponding to the event in space when an event occurs, and when the gesture signal is received from the gesture signal generator through short-range wireless communication, extracts a command corresponding to the gesture signal and executes the command; And a terminal for outputting an image corresponding to an execution result of the command on the space. 근거리무선통신을 통해 데이터를 송수신하는 통신부;Communication unit for transmitting and receiving data through short-range wireless communication; 사용자의 제스처를 감지하는 센서부;A sensor unit for detecting a gesture of a user; 상기 센서부로부터 감지신호가 전달되면, 상기 감지신호로부터 제스처신호를 생성하고, 상기 제스처신호를 상기 통신부를 통해 공간 상에 영상을 출력하는 단말기로 전송하는 제어부를 포함하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 시스템의 제스처신호 발생장치.And a control unit for generating a gesture signal from the detection signal and transmitting the gesture signal to a terminal for outputting an image in a space through the communication unit when the detection signal is transmitted from the sensor unit. Gesture signal generator of a user interface providing system. 제2항에 있어서, 상기 센서부는 상기 사용자의 움직임 또는 위치를 검출하기 위한 관성 센서 및 상기 단말기와의 거리 관계를 검출 또는 측정하기 위한 거리 센 서 중에 적어도 하나를 포함하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 시스템의 제스처신호 발생장치.The method of claim 2, wherein the sensor unit comprises at least one of an inertial sensor for detecting a movement or a position of the user and a distance sensor for detecting or measuring a distance relationship with the terminal. Gesture signal generator of a user interface providing system. 제3항에 있어서, 상기 관성 센서는 자이로 센서 또는 가속도 센서인 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 시스템의 제스처신호 발생장치.The apparatus of claim 3, wherein the inertial sensor is a gyro sensor or an acceleration sensor. 제2항에 있어서, 상기 통신부를 통해 상기 제스처신호의 실행결과에 대한 응답신호가 수신되면, 상기 제어부의 제어에 의해 진동을 발생시키는 진동부를 더 포함하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 시스템의 제스처신호 발생장치.The system of claim 2, further comprising a vibration unit configured to generate vibrations under the control of the controller when a response signal for the execution result of the gesture signal is received through the communication unit. Gesture signal generator. 제2항에 있어서, 상기 제스처신호 발생장치는 링타입(Ring type)인 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 시스템의 제스처신호 발생장치.The gesture signal generator of claim 2, wherein the gesture signal generator is a ring type. 무선통신을 통해 데이터를 송수신하는 통신부;Communication unit for transmitting and receiving data through wireless communication; 공간 상에 영상을 출력하는 영상출력부;An image output unit which outputs an image in a space; 제스처신호에 대응하는 명령어를 저장하고 있는 저장부; 및A storage unit which stores a command corresponding to the gesture signal; And 상기 통신부를 통해 이벤트가 수신되면 상기 이벤트에 대응하는 상기 이벤트 발생 사실을 상기 영상출력부를 통해 상기 공간 상에 영상으로 출력하며, 상기 통신부를 통해 수신한 제스처신호를 전달받아 상기 제스처신호에 대응하는 명령어를 상기 저장부에서 추출하여 상기 명령어를 실행하고, 상기 명령어의 실행결과를 상기 영상출력부를 통해 상기 공간 상에 영상으로 출력하는 단말제어부를 포함하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 시스템의 단말기.When an event is received through the communication unit, the event occurrence corresponding to the event is output as an image on the space through the image output unit, and receives a gesture signal received through the communication unit corresponding to the gesture signal The terminal of the user interface providing system by a gesture, characterized in that for extracting from the storage to execute the command, and outputs the execution result of the command as an image on the space through the image output unit . 제7항에 있어서, 상기 통신부는 근거리무선통신 모듈을 포함하며, 상기 단말제어부는 상기 통신부에 포함된 근거리무선통신 모듈을 이용하여 제스처신호를 수신하면, 상기 제스처신호에 대응하는 영상을 상기 영상출력부를 통해 상기 공간 상에 출력하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 시스템의 단말기.The apparatus of claim 7, wherein the communication unit comprises a short range wireless communication module, and the terminal control unit outputs an image corresponding to the gesture signal when receiving a gesture signal using a short range wireless communication module included in the communication unit. A terminal of a user interface providing system based on a gesture, which is output on the space through a unit. 제7항에 있어서, 상기 통신부는 이동통신 모듈을 포함하며, 상기 단말제어부는 상기 통신부에 포함된 이동통신 모듈을 이용하여 문자메시지 또는 착 신호를 수신하면, 상기 문자메시지 또는 착 신호에 대응하는 이벤트 발생 사실을 상기 영상출력부를 통해 상기 공간 상에 영상으로 출력하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 시스템의 단말기.The mobile terminal of claim 7, wherein the communication unit comprises a mobile communication module, and when the terminal control unit receives a text message or an incoming signal using a mobile communication module included in the communication unit, an event corresponding to the text message or an incoming signal Terminal of the user interface providing system by a gesture, characterized in that the output of the fact in the image on the space through the image output unit. 제7항에 있어서, 상기 영상출력부는,The method of claim 7, wherein the image output unit, 적어도 2개 이상의 광원부를 포함하며, 상기 광원부 중에 일부 광원부가 상 기 광원부로부터 출력된 난반사된 간섭성 광을 집결시켜 상기 공간 상의 특정 영역에 투사할 수 있도록 위치를 제어하며, 나머지 광원부가 상기 특정 영역으로 참조광을 투사할 수 있도록 위치를 제어하여, 상기 공간 상에 투사하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 시스템의 단말기.At least two light source units, wherein the light source unit controls a position of the light source unit to collect diffusely reflected coherent light output from the light source unit and to project it onto a specific area in the space, and the remaining light source unit to control the specific area. The terminal of the user interface providing system according to the gesture, characterized in that for controlling the position so as to project the reference light to project on the space. 이벤트 발생 시 단말기가 공간 상에 영상을 출력하는 제1 출력단계;A first output step of the terminal outputting an image in a space when an event occurs; 상기 단말기가 제스처신호 발생장치로부터 전송된 제스처신호를 수신하는 수신단계;A reception step of receiving, by the terminal, a gesture signal transmitted from a gesture signal generator; 상기 단말기가 수신한 상기 제스처신호에 대응하는 명령어를 추출하는 추출단계;Extracting a command corresponding to the gesture signal received by the terminal; 상기 단말기가 추출한 상기 명령어를 실행하는 실행단계; 및An execution step of executing the command extracted by the terminal; And 상기 단말기가 상기 명령어의 실행결과에 대응하는 영상을 상기 공간 상에 출력하는 제2 출력단계를 포함하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 방법.And a second output step of outputting, by the terminal, an image corresponding to the execution result of the command on the space. 제11항에 있어서, 상기 제1 출력단계는, 상기 단말기가 근거리무선통신 모듈을 통해 상기 제스처신호를 수신하거나, 이동통신 모듈을 통해 문자메시지 또는 착신 호를 수신하면, 상기 단말기가 상기 제스처신호에 대응하는 영상을 상기 공간 상에 출력하거나, 상기 문자메시지 또는 착 신호에 대응하는 이벤트 발생 사실을 상기 공간 상에 영상으로 출력하는 단계를 포함하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 방법.12. The method of claim 11, wherein the first outputting step comprises: when the terminal receives the gesture signal through a short range wireless communication module or receives a text message or an incoming call through a mobile communication module, the terminal receives the gesture signal. And outputting a corresponding image on the space, or outputting an event occurrence corresponding to the text message or an incoming signal as an image on the space. 제11항에 있어서, 상기 제1 출력단계는, 상기 단말기가 상기 공간 상에 출력된 영상과 동일한 영상을 상기 단말기의 본체에 마련된 표시부를 통해 출력하는 단계를 더 포함하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 방법.The method of claim 11, wherein the first outputting step further comprises the terminal outputting the same image as the image output on the space through a display unit provided in the main body of the terminal. How to provide a user interface. 제11항에 있어서, 상기 공간 상에 영상 출력은,The method of claim 11, wherein the image output on the space, 광원부에서 광을 출력하는 단계;Outputting light from the light source unit; 상기 광원부 중에 일부 광원부에서 출력된 난반사된 간섭성 광을 집결시켜 해당 영상 위치에 투사할 수 있도록 위치를 제어하며, 나머지 광원부에서 상기 해당 영상 위치로 참조광을 투사할 수 있도록 위치를 제어하는 단계; 및Controlling a position of the light source unit so as to collect diffusely reflected coherent light output from a portion of the light source unit and to project the image to a corresponding image position, and to control a position of the remaining light source unit to project a reference light to the corresponding image position; And 상기 간섭성 광 및 참조광을 상기 공간 상에 투사하는 단계를 포함하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 방법.And projecting the coherent light and the reference light onto the space. 제11항에 있어서, 상기 제2 출력단계 이후에, 상기 단말기가 상기 명령어의 실행결과에 대한 응답신호를 전송하고, 상기 제스처신호 발생장치가 상기 응답신호를 수신하여 진동을 발생시키는 단계를 더 포함하는 것을 특징으로 하는 제스처에 의한 사용자 인터페이스 제공 방법.The method of claim 11, further comprising, after the second outputting step, the terminal transmitting a response signal to a result of executing the command, and generating a vibration by the gesture signal generator receiving the response signal. Method for providing a user interface by a gesture, characterized in that.
KR1020090089614A 2009-09-22 2009-09-22 System and method for providing user interface by gesture, gesture signal generator and terminal thereof KR20110032224A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090089614A KR20110032224A (en) 2009-09-22 2009-09-22 System and method for providing user interface by gesture, gesture signal generator and terminal thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090089614A KR20110032224A (en) 2009-09-22 2009-09-22 System and method for providing user interface by gesture, gesture signal generator and terminal thereof

Publications (1)

Publication Number Publication Date
KR20110032224A true KR20110032224A (en) 2011-03-30

Family

ID=43937009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090089614A KR20110032224A (en) 2009-09-22 2009-09-22 System and method for providing user interface by gesture, gesture signal generator and terminal thereof

Country Status (1)

Country Link
KR (1) KR20110032224A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095349A (en) * 2016-06-14 2016-11-09 无锡天脉聚源传媒科技有限公司 A kind of signature Method of printing and device
KR101865362B1 (en) * 2016-12-08 2018-06-07 동명대학교산학협력단 Control system and method for mixed reality using foot gesture
CN109643212A (en) * 2016-09-20 2019-04-16 苹果公司 3D document editing system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095349A (en) * 2016-06-14 2016-11-09 无锡天脉聚源传媒科技有限公司 A kind of signature Method of printing and device
CN109643212A (en) * 2016-09-20 2019-04-16 苹果公司 3D document editing system
CN109643212B (en) * 2016-09-20 2022-04-01 苹果公司 3D document editing system
KR101865362B1 (en) * 2016-12-08 2018-06-07 동명대학교산학협력단 Control system and method for mixed reality using foot gesture

Similar Documents

Publication Publication Date Title
KR101561155B1 (en) Method and system for adapting the usage of external display with mobile device
CN106168848B (en) Display device and control method of display device
KR102492560B1 (en) Electronic device and method for controlling input thereof
KR20190017347A (en) Mobile terminal and method for controlling the same
KR20170126295A (en) Head mounted display device and method for controlling the same
US9678663B2 (en) Display system and operation input method
WO2005069114A1 (en) Mobile communication terminal
CN105339870A (en) Method and wearable device for providing a virtual input interface
EP3885885A1 (en) Method, apparatus and storage medium for displaying application interface
KR20160139481A (en) User terminal apparatus and control method thereof
EP3933545B1 (en) Method and apparatus for detecting a bending state of electronic device, and storage medium
JP6770502B2 (en) Communication devices, display devices, their control methods, programs and display systems
CN107783669B (en) Cursor generation system, method and computer program product
KR20170059760A (en) Mobile terminal and method for controlling the same
EP1501041B1 (en) Data input device with cursor position notification
US11157085B2 (en) Method and apparatus for switching display mode, mobile terminal and storage medium
KR20110032224A (en) System and method for providing user interface by gesture, gesture signal generator and terminal thereof
US20230124173A1 (en) Information terminal device and application operation mode control method of same
JP4047822B2 (en) Electronics
KR20110126438A (en) Mobile terminal and operation method thereof
JP2015206854A (en) Display system, display device, and display control method
EP3770722B1 (en) Screen display method and device, mobile terminal and storage medium
JP2015200951A (en) display system and program
KR102204599B1 (en) Method for outputting screen and display device for executing the same
JP5713401B2 (en) User interface device for generating projected image signal for pointer projection, image projection method and program

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E601 Decision to refuse application