KR20110032224A - System and method for providing user interface by gesture, gesture signal generator and terminal thereof - Google Patents
System and method for providing user interface by gesture, gesture signal generator and terminal thereof Download PDFInfo
- Publication number
- KR20110032224A KR20110032224A KR1020090089614A KR20090089614A KR20110032224A KR 20110032224 A KR20110032224 A KR 20110032224A KR 1020090089614 A KR1020090089614 A KR 1020090089614A KR 20090089614 A KR20090089614 A KR 20090089614A KR 20110032224 A KR20110032224 A KR 20110032224A
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- terminal
- unit
- image
- gesture signal
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Abstract
Description
본 발명은 사용자 인터페이스(User Interface) 기술에 관한 것으로, 더욱 상세하게는 공간 또는 스크린 상에 출력된 영상을 인지하고 사용자가 제스처를 취하면, 사용자에 장착된 제스처신호 발생장치가 제스처신호를 발생시켜 단말기로 전송하고, 이에 단말기가 제스처신호에 대응하는 명령어를 추출하여 실행하면서 그 실행결과에 대응하는 영상을 출력하는 제스처에 의한 사용자 인터페이스 제공 시스템 및 방법과 이를 위한 제스처신호 발생장치 및 단말기에 관한 것이다.The present invention relates to a user interface technology, and more particularly, to recognize an image output on a space or a screen, and when a user makes a gesture, a gesture signal generator mounted on the user generates a gesture signal. The present invention relates to a system and method for providing a user interface by a gesture which transmits to a terminal, and outputs an image corresponding to the execution result while the terminal extracts and executes a command corresponding to the gesture signal. .
기존 단말기는 사용자 조작을 지원하기 위해 키 패드, 터치스크린, 조이스틱, 스크롤 휠 등의 입력 장치를 구성하고 있으며, 사용자는 입력 장치를 이용하여 단말기를 조작하거나 단말기에 필요한 정보를 입력한다.Existing terminals configure input devices such as a keypad, a touch screen, a joystick, and a scroll wheel to support a user's operation, and a user operates a terminal or inputs necessary information into the terminal using the input device.
이와 같이, 사용자는 일괄적으로 정해진 방법에 따라 입력 장치를 조작하여 단말기가 제공하는 기능을 이용한다. 예컨대, 단말기의 전면 또는 측면에 구비된 버튼을 누르거나, 스타일러스 펜 등을 이용하여 입력함으로써 인터페이스를 수행한 다.In this way, the user manipulates the input device according to a batch method and uses a function provided by the terminal. For example, the interface is performed by pressing a button provided on the front or side of the terminal or using a stylus pen.
그러나, 키 패드, 터치스크린, 조이스틱, 스크롤 휠 등은 한정된 영역 내에서 입력을 수행해야 하므로 사용자 인터페이스의 영역이 한정되는 문제점이 있다.However, since a keypad, a touch screen, a joystick, a scroll wheel, and the like must input within a limited area, there is a problem in that an area of a user interface is limited.
이러한 종래의 문제점을 해결하기 위하여, 본 발명은 공간 또는 스크린 상에 영상을 출력시킬 수 있으며, 제스처신호에 매칭된 명령어의 실행결과에 대응하는 영상을 출력할 수 있는 단말기와, 사용자의 제스처에 대응하여 제스처신호를 발생시킬 수 있는 제스처신호 발생장치를 통해 사용자 인터페이스 환경을 공간으로 확장시킬 수 있는 제스처에 의한 사용자 인터페이스 제공 시스템 및 방법과 이를 위한 제스처신호 발생장치 및 단말기를 제공하는 것을 목적으로 한다.In order to solve such a conventional problem, the present invention can output an image on a space or screen, the terminal capable of outputting an image corresponding to the execution result of the command matched to the gesture signal, corresponding to the user's gesture It is an object of the present invention to provide a system and method for providing a user interface by a gesture that can extend a user interface environment to a space through a gesture signal generator capable of generating a gesture signal, and a gesture signal generator and a terminal therefor.
이러한 목적을 달성하기 위하여, 본 발명에 따른 제스처에 의한 사용자 인터페이스 제공 시스템은, 제스처신호 발생장치와 단말기를 포함하는 것을 특징으로 한다. 상기 제스처신호 발생장치는 사용자에 장착되어 상기 사용자의 제스처를 감지하여 상기 제스처에 대응하는 제스처신호를 생성하고, 상기 제스처신호를 근거리무선통신으로 출력한다. 상기 단말기는 이벤트 발생 시 공간 상에 상기 이벤트에 대응하는 영상을 출력하며, 근거리무선통신을 통해 상기 제스처신호 발생장치로부터 상기 제스처신호가 수신되면, 상기 제스처신호에 대응하는 명령어를 추출하여 상기 명령어를 실행하고, 상기 명령어의 실행결과에 대응하는 영상을 상기 공간 상에 출력한다.In order to achieve this object, a system for providing a user interface by a gesture according to the present invention is characterized by including a gesture signal generator and a terminal. The gesture signal generator is mounted on a user to detect a gesture of the user to generate a gesture signal corresponding to the gesture, and output the gesture signal through short-range wireless communication. The terminal outputs an image corresponding to the event in space when an event occurs. When the gesture signal is received from the gesture signal generator through short-range wireless communication, the terminal extracts a command corresponding to the gesture signal and executes the command. The image is output on the space corresponding to the execution result of the command.
또한, 본 발명에 따른 제스처에 의한 사용자 인터페이스 제공 시스템의 제스처신호 발생장치는, 통신부, 센서부, 제어부를 포함하는 것을 특징으로 한다. 상기 통신부는 근거리무선통신을 통해 데이터를 송수신한다. 상기 센서부는 사용자의 제스처를 감지한다. 상기 제어부는 상기 센서부로부터 감지신호가 전달되면, 상기 감지신호로부터 제스처신호를 생성하고, 상기 제스처신호를 상기 통신부를 통해 공간 상에 영상을 출력하는 단말기로 전송한다. 이때, 상기 센서부는 상기 사용자의 움직임 또는 위치를 검출하기 위한 관성 센서 및 상기 단말기와의 거리 관계를 검출 또는 측정하기 위한 거리 센서 중에 적어도 하나를 포함한다. 여기서, 상기 관성 센서는 자이로 센서 또는 가속도 센서일 수 있다. 또한, 상기 통신부를 통해 상기 제스처신호의 실행결과에 대한 응답신호가 수신되면, 상기 제어부의 제어에 의해 진동을 발생시키는 진동부를 더 포함하는 것이 바람직하다. 그리고, 상기 제스처신호 발생장치는 링타입(Ring type)일 수 있다.In addition, the gesture signal generator of the user interface providing system according to the present invention is characterized in that it comprises a communication unit, a sensor unit, a control unit. The communication unit transmits and receives data through short-range wireless communication. The sensor unit detects a user's gesture. When the detection signal is transmitted from the sensor unit, the controller generates a gesture signal from the detection signal, and transmits the gesture signal to a terminal that outputs an image in the space through the communication unit. In this case, the sensor unit includes at least one of an inertial sensor for detecting a movement or position of the user and a distance sensor for detecting or measuring a distance relationship with the terminal. Here, the inertial sensor may be a gyro sensor or an acceleration sensor. In addition, when the response signal for the execution result of the gesture signal is received through the communication unit, it is preferable to further include a vibration unit for generating a vibration under the control of the controller. The gesture signal generator may be a ring type.
또한, 본 발명에 따른 제스처에 의한 사용자 인터페이스 제공 시스템의 단말기는, 통신부, 영상출력부, 저장부 및 단말제어부를 포함하는 것을 특징으로 한다. 상기 통신부는 무선통신을 통해 데이터를 송수신한다. 상기 영상출력부는 공간 상에 영상을 출력한다. 상기 저장부는 제스처신호에 대응하는 명령어를 저장하고 있다. 상기 단말제어부는 상기 통신부를 통해 이벤트가 수신되면 상기 이벤트에 대응하는 상기 이벤트 발생 사실을 상기 영상출력부를 통해 상기 공간 상에 영상으로 출력하며, 상기 통신부를 통해 수신한 제스처신호를 전달받아 상기 제스처신호에 대응하는 명령어를 상기 저장부에서 추출하여 상기 명령어를 실행하고, 상기 명령어의 실행결과를 상기 영상출력부를 통해 상기 공간 상에 영상으로 출력한다. 이때, 상기 통신부는 근거리무선통신 모듈을 포함하며, 상기 단말제어부는 상기 통신 부에 포함된 근거리무선통신 모듈을 이용하여 제스처신호를 수신하면, 상기 제스처신호에 대응하는 영상을 상기 영상출력부를 통해 상기 공간 상에 출력한다. 또한, 상기 통신부는 이동통신 모듈을 포함하며, 상기 단말제어부는 상기 통신부에 포함된 이동통신 모듈을 이용하여 문자메시지 또는 착 신호를 수신하면, 상기 문자메시지 또는 착 신호에 대응하는 이벤트 발생 사실을 상기 영상출력부를 통해 상기 공간 상에 영상으로 출력한다. 또한, 상기 영상출력부는, 적어도 2개 이상의 광원부를 포함하며, 상기 광원부 중에 일부 광원부가 상기 광원부로부터 출력된 난반사된 간섭성 광을 집결시켜 상기 공간 상의 특정 영역에 투사할 수 있도록 위치를 제어하며, 나머지 광원부가 상기 특정 영역으로 참조광을 투사할 수 있도록 위치를 제어하여, 상기 공간 상에 투사할 수 있다.In addition, the terminal of the user interface providing system according to the present invention is characterized in that it comprises a communication unit, an image output unit, a storage unit and a terminal control unit. The communication unit transmits and receives data through wireless communication. The image output unit outputs an image in space. The storage unit stores a command corresponding to the gesture signal. When the event is received through the communication unit, the terminal controller outputs the event occurrence corresponding to the event as an image on the space through the image output unit, and receives the gesture signal received through the communication unit to receive the gesture signal. Extracts a command corresponding to and executes the command, and outputs the execution result of the command as an image on the space through the image output unit. In this case, the communication unit includes a short-range wireless communication module, and when the terminal control unit receives a gesture signal using the short-range wireless communication module included in the communication unit, the image corresponding to the gesture signal through the image output unit Output on space. The communication unit may include a mobile communication module. When the terminal control unit receives a text message or an incoming signal by using the mobile communication module included in the communication unit, the communication unit may be configured to indicate an event occurrence corresponding to the text message or the incoming signal. The image output unit outputs the image on the space. The image output unit may include at least two light source units, and the light source unit may control a position of the light source units such that some light source units collect diffusely reflected coherent light output from the light source unit and project the light onto a specific area of the space. The position of the remaining light source unit may be controlled to project the reference light to the specific area, and may be projected onto the space.
그리고, 본 발명에 따른 제스처에 의한 사용자 인터페이스 제공 방법은, 이벤트 발생 시 단말기가 공간 상에 영상을 출력하는 제1 출력단계, 상기 단말기가 제스처신호 발생장치로부터 전송된 제스처신호를 수신하는 수신단계, 상기 단말기가 수신한 상기 제스처신호에 대응하는 명령어를 추출하는 추출단계, 상기 단말기가 추출한 상기 명령어를 실행하는 실행단계, 상기 단말기가 상기 명령어의 실행결과에 대응하는 영상을 상기 공간 상에출력하는 제2 출력단계를 포함하는 것을 특징으로 한다. 이때, 상기 제1 출력단계는, 상기 단말기가 근거리무선통신 모듈을 통해 상기 제스처신호를 수신하거나, 이동통신 모듈을 통해 문자메시지 또는 착신 호를 수신하면, 상기 단말기가 상기 제스처신호에 대응하는 영상을 상기 공간 상에 출력하거나, 상기 문자메시지 또는 착 신호에 대응하는 이벤트 발생 사실을 상기 공간 상에 영상으로 출력하는 단계를 포함한다. 또한, 상기 제1 출력단계는, 상기 공간 상에 출력된 영상과 동일한 영상을 상기 단말기의 본체에 마련된 표시부를 통해 출력하는 단계를 더 포함할 수 있다. 또한, 상기 공간 상에 영상 출력은, 광원부에서 광을 출력하는 단계, 상기 광원부 중에 일부 광원부에서 출력된 난반사된 간섭성 광을 집결시켜 해당 영상 위치에 투사할 수 있도록 위치를 제어하며, 나머지 광원부에서 상기 해당 영상 위치로 참조광을 투사할 수 있도록 위치를 제어하는 단계, 상기 간섭성 광 및 참조광을 상기 공간 상에 투사하는 단계를 포함한다. 그리고, 상기 제2 출력단계 이후에, 상기 단말기가 상기 명령어의 실행결과에 대한 응답신호를 전송하고, 상기 제스처신호 발생장치가 상기 응답신호를 수신하여 진동을 발생시키는 단계를 더 포함하는 것이 바람직하다.In addition, a method for providing a user interface by a gesture according to the present invention may include: a first output step of outputting an image in a space by a terminal when an event occurs, a reception step of receiving a gesture signal transmitted from a gesture signal generator by the terminal, An extraction step of extracting a command corresponding to the gesture signal received by the terminal, an execution step of executing the command extracted by the terminal, and outputting an image corresponding to an execution result of the command on the space by the terminal; It characterized in that it comprises two output stages. In this case, when the terminal receives the gesture signal through the short range wireless communication module or receives a text message or an incoming call through the mobile communication module, the terminal outputs an image corresponding to the gesture signal. Outputting the image on the space or generating an event corresponding to the text message or the incoming signal as an image on the space. The first output step may further include outputting the same image as the image output on the space through a display unit provided in the main body of the terminal. The image output on the space may include outputting light from a light source unit, controlling a position to collect diffusely reflected coherent light output from some light source units of the light source unit, and to project the light onto a corresponding image position, Controlling a position to project the reference light to the corresponding image position, and projecting the coherent light and the reference light onto the space. After the second output step, the terminal may further include a step of transmitting a response signal to a result of executing the command, and generating a vibration by the gesture signal generator receiving the response signal. .
이와 같이, 본 발명은 공간 또는 스크린 상에서의 사용자 제스처를 통해 사용자 인터페이스를 수행하므로, 인터페이스 환경을 확장하여 사용자에게 편리함을 제공할 수 있는 효과가 있다.As described above, since the present invention performs the user interface through a user gesture on a space or a screen, the user can extend the interface environment and provide convenience to the user.
또한, 본 발명은 다양한 사용자 제스처와 단말기 기능을 매칭시킬 수 있으므로 다양한 조작 방법을 통해 단말기 조작의 즐거움을 제공할 수 있다.In addition, the present invention can match various user gestures and terminal functions, thereby providing enjoyment of terminal operation through various operation methods.
그리고, 본 발명은 가상현실과의 결합을 통해 더욱 확장된 사용자 인터페이스 환경을 제공할 수 있을 것이다.In addition, the present invention may provide a more extended user interface environment through a combination with virtual reality.
이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, with reference to the accompanying drawings will be described in detail an embodiment of the present invention.
도 1은 본 발명의 일실시예로서, 제스처에 의한 사용자 인터페이스 제공 시스템을 나타낸 개념도이다.1 is a conceptual diagram illustrating a user interface providing system using a gesture according to an embodiment of the present invention.
도 1을 참조하면, 본 실시예에서 제시하는 제스처에 의한 사용자 인터페이스 제공 시스템은, 크게 사용자의 제스처에 대응하여 제스처신호를 발생시키는 제스처신호 발생장치(1) 및 공간 또는 스크린 상에 영상을 출력시키는 단말기(2)를 포함하여 구성된다.Referring to FIG. 1, a system for providing a user interface based on a gesture according to the present exemplary embodiment may include a
제스처신호 발생장치(1)는 사용자의 제스처에 대응하는 제스처신호를 발생시키는 기능을 수행한다. 이를 위해, 제스처신호 발생장치(1)는 사용자의 움직임을 감지하기 위한 센서를 포함하여 구성되며, 이 센서는 스핀 자이로(spin gyro), 바 자이로(bar gyro), 와이어 자이로(wire gyro) 및 가속도계(accelerometer)와 같은 자이로스코프를 이용할 수 있다. 또한, 제스처신호 발생장치(1)와 단말기(2) 간의 초기 위치를 설정하기 위해 거리를 감지하는 거리 센서를 포함할 수 있다. 또한, 제스처신호 발생장치(1)는 감지된 신호를 인접한 단말기(2)로 전송하는 기능을 수행한다. 이를 위해 제스처신호 발생장치(1)는 근거리무선통신 모듈을 포함하여 구성되며, 이 근거리무선통신 모듈은 블루투스(Bluetooth) 모듈, 지그비(Zigbee) 모듈, RFID(Radio Frequency Identification) 모듈, UWB(Ultra Wide Band) 모듈, IrDA(Infrared Data Association) 모듈 중에 적어도 하나가 적용될 수 있다. 그리고, 제스처신호 발생장치(1)는 사용자 조작을 지원하는 스위치, 예를 들어 전원을 공급하기 위한 스위치, 공간 또는 스크린 상에 출력된 영상에서 대상물의 드래그 또는 클릭을 수행하기 위한 스위치 등을 마련할 수 있다. 이와 같이, 제스처신호 발생장치(1)는 사용자의 제스처를 센서에서 감지하고, 감지된 신호를 신호처리하여 근거리무선통신으로 단말기로 전송하여 공간 또는 스크린 상에 출력된 영상과의 인터페이스를 수행한다. 이와 같은 제스처신호 발생장치(1)는, 반지 또는 팔찌 형태와 같은 링타입(Ring type)으로 제조되어 사용자가 간편하게 장착할 수 있으며, 밴드타입으로 제조되어 반창고처럼 부착할 수도 있다.The
한편, 단말기(2)는 제스처신호 발생장치(1)로부터 전송된 제스처신호를 수신하여 공간 또는 스크린 상에 출력된 영상에 반영하는 기능을 수행한다. 이를 위해, 단말기(2)는 공간 또는 스크린 상에 영상을 출력하기 위한 홀로그래피 또는 프로젝션을 포함하고 있다. 이 홀로그래피 또는 프로젝션은 광을 단말기(2) 외부로 투사하는 투사형을 이용하는 것이 바람직하다. 또한, 단말기(2)는 제스처신호 발생장치(1)로부터 제스처신호를 수신하는 기능을 수행한다. 이를 위해 단말기(2)는 근거리무선통신 모듈을 포함하여 구성되며, 이 근거리무선통신 모듈은 블루투스(Bluetooth) 모듈, 지그비(Zigbee) 모듈, RFID(Radio Frequency Identification) 모듈, UWB(Ultra Wide Band) 모듈, IrDA(Infrared Data Association) 모듈 중에 적어도 하나가 적용될 수 있다. 그리고, 단말기(2)는 제스처신호에 대응하는 명령어를 저장하고 있다. 이 명령어를 통해 영상에 출력된 대상물 및 영상 자체에 대한 제어가 이루어지게 된다. 이와 같이, 단말기(2)는 제스처신호를 수신하고, 제스처신호에 대응하는 명령어를 추출하여 실행하며, 이 명령어의 실행결과에 대응하는 영상을 출력한다.Meanwhile, the
이와 같이, 제스처에 의한 사용자 인터페이스 제공 시스템을 구성하는 제스처신호 발생장치(1)와 단말기(2) 간의 인터페이스 수행과정을 정리하면 다음과 같다. 먼저, 단말기(2)가 공간 또는 스크린 상에 영상을 출력하면, 사용자가 영상을 인지하고 제스처신호 발생장치(1)를 이용하여 제스처를 취한다. 이에 제스처신호 발생장치(1)에서 제스처신호를 발생시켜 단말기(2)로 전송한다. 한편, 단말기(2)는 제스처신호를 수신하여 제스처신호에 대응하는 명령어를 추출하고, 해당 명령어 실행에 따른 실행결과를 영상에 출력한다.As described above, a process of performing an interface between the
그러면, 여기서 제스처에 의한 사용자 인터페이스를 제공하기 위한 제스처신호 발생장치(1) 및 단말기(2)의 구성에 대해 상세히 설명하기로 한다.Next, the configuration of the
도 2는 본 발명에 일실시예에 의한 제스처신호 발생장치를 나타낸 블록도이다.2 is a block diagram showing a gesture signal generator according to an embodiment of the present invention.
도 2를 참조하면, 본 실시예에서 제시하는 제스처신호 발생장치(1)는 전원공급부(11), 통신부(12), 센서부(13), 진동부(14), 메모리부(15) 및 제어부(16)를 포함하여 구성된다.Referring to FIG. 2, the
전원공급부(11)는 사용자의 전원 스위치(미도시) 조작 또는 단말기(2)로부터 전달된 구동요청신호에 대응하여 제스처신호 발생장치(1)의 회로에 전원을 공급하는 기능을 수행한다.The
통신부(12)는 사용자 제스처에 의해 발생된 제스처신호를 제어부(16)의 제어에 의해 단말기(2)로 전송하는 기능을 수행한다. 또한, 통신부(12)는 단말기(2)로부터 전송된 응답신호를 수신하여 제어부(16)로 전달하는 기능을 수행한다.The
센서부(13)는 사용자의 제스처를 감지하여 제어부(16)로 전달하는 기능을 수행한다. 즉, 센서부(13)에서 사용자의 움직임 방향, 움직임 기울기, 움직임 속도, 움직임 시간 중에 적어도 하나의 감지신호를 출력하면 제어부(16)에서 인코딩 과정을 수행하여 제스처신호를 발생시킨다. 이와 같은 제스처신호를 발생시키기 위해, 센서부(13)는 자이로 센서, 가속도 센서 등의 움직임 또는 위치를 검출하기 위한 관성 센서, 또는 제스처신호 발생장치(1)와 단말기(2) 사이의 거리 관계를 검출 또는 측정하기 위한 거리 센서를 포함할 수 있다.The
진동부(14)는 단말기(2)로부터 전송된 응답신호를 수신하여 제어부(16)의 제어에 의해 진동을 발생시키는 기능을 수행한다. 즉, 진동부(14)는 단말기(2)로부터 전송된 응답신호 또는 에러상태를 사용자에게 경보하는 에러응답신호에 수신하여 진동을 발생시킴으로써, 사용자 제스처에 대한 결과를 진동으로 느낄 수 있도록 할 수 있다. 본 실시예에서는 진동부(14)를 예시하고 있으나, 전기자극, 음향, 영상, 향기 등의 다양한 방법으로 제스처에 대한 반응을 느낄 수 있도록 할 수 있다.The
메모리부(15)는 실행 프로그램, 제스처신호 발생장치(1)에 관한 정보를 저장하고 있으며, 제어부(16)로부터의 실행 프로그램 또는 특정 데이터 호출에 대응하여 해당 데이터를 제공하는 기능을 수행한다. 여기서, 메모리부(15)에 저장된 실행 프로그램은 제어부(16)의 제어에 의해 생성된 제스처신호를 통신부(12)를 통해 전송하기 위한 통신신호처리 프로그램을 포함한다.The
그리고, 제어부(16)는 제스처신호 발생장치(1)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)로서의 기능을 수행한다. 즉, 제어부(16)는 센서부(13)로부터 전달된 감지신호를 단말기(2)로 전송할 수 있도록 인코딩하여 제스처신호를 생성하고, 생성된 제스처신호를 통신부(12)로 전달하여 통신부(12)의 전송 제어를 수행하며, 메모리(15)에서 실행 프로그램 및 특정 데이터를 호출하고, 통신부(12)를 통해 수신된 응답신호 또는 에러응답신호를 디코딩하여 진동부(14)로 전달하고 진동부(14)를 제어하는 기능을 수행한다.In addition, the
도 3은 본 발명의 일실시예에 의한 단말기를 나타낸 블록도이다.3 is a block diagram showing a terminal according to an embodiment of the present invention.
도 3을 참조하면, 본 실시예에서 제시하는 단말기(2)는 통신부(21), 입력부(22), 저장부(23), 표시부(24), 영상출력부(25), 진동부(26), 음원처리부(27) 및 단말제어부(28)를 포함한다.Referring to FIG. 3, the
통신부(21)는 무선통신을 통해 데이터를 송수신하는 기능을 수행한다. 이 통신부(21)는 이동통신 모듈(211)과 근거리무선통신 모듈(212)을 포함할 수 있다. 이동통신 모듈(211)은 상대방과의 통화 및 메시지 등의 데이터를 단말제어부(28)의 제어에 의해 송수신하는 기능을 수행한다. 그리고, 근거리무선통신 모듈(212)은 제스처신호 발생장치(1)로부터 제스처신호를 수신하거나 제스처에 대응하는 응답신호를 단말제어부(28)의 제어에 의해 제스처신호 발생장치(1)로 송신하는 기능을 수행한다.The
입력부(22)는 단말기(2)의 조작을 위한 복수의 키를 제공하며, 사용자 조작을 지원하여 사용자의 키 선택에 따른 입력신호를 단말제어부(28)에 전달하는 기능을 수행한다. 입력부(22)는 키패드, 터치패드와 같은 포인팅 장치, 터치스크린(touch screen) 등이 이용될 수 있다.The
저장부(23)는 단말기(2)의 동작 제어시 필요한 실행 프로그램, 이 실행 프로그램 수행 중에 발생되는 데이터, 제스처신호에 대응하는 명령어들을 저장하고 있으며, 단말제어부(28)로부터의 실행 프로그램 또는 명령어 호출에 대응하여 해당 데이터를 제공하는 기능을 수행한다. 이를 위해, 저장부(23)는 하나 이상의 휘발성 메모리 소자와 비휘발성 메모리 소자를 포함할 수 있다. 또한, 저장부(23)는 제스처신호에 대응하여 다양한 명령어와 매칭시킬 수 있도록 제스처신호 매칭 프로그램을 저장할 수 있다.The
표시부(24)는 단말기(2)에서 실행되는 각종 기능 메뉴를 비롯하여 사용자 요구에 대응하는 정보를 단말제어부(28)의 제어에 의해 패널 상에 출력하는 기능을 수행한다. 또한, 표시부(24)는 단말제어부(28)의 제어에 의해 영상출력부(25)로부터 출력되는 영상과 동일한 영상을 출력하는 기능을 수행할 수 있다. 이와 같은 기능을 수행하는 표시부(24)로는 LCD(Liquid Crystal Display)나 터치 스크린이 사용될 수 있다. 터치 스크린은 표시 장치와 입력 장치로서의 역할을 동시에 수행할 수 있을 것이다.The
영상출력부(25)는 호 요청 및 메시지 수신 등과 같은 외부로부터 실시간으로 발생하는 이벤트, 또는 제스처신호 등이 통신부(21)로 수신되면, 단말제어부(28)의 제어에 의해 해당 영상을 공간 또는 스크린 상에 출력하는 기능을 수행한다. 한편, 영상출력부(25)는 상기한 바와 같이 표시부(24)와 연동하여 동일 내용을 출력할 수 있다. 이 같은 기능을 수행하는 영상출력부는 홀로그래피 또는 프로젝션일 수 있으며, 광을 단말기(2) 외부로 투사하는 투사형을 이용하는 것이 바람직하다. When the
먼저, 홀로그래피는, 2개의 광원부를 이용하여 평면 또는 입체로 표현되는 3차원 입체 영상을 생성할 수도 있다. 즉, 2개의 적외선 빔을 이용하여 공간 상에 스캐닝함으로써 사용자가 인식할 수 있도록 할 수 있다. 2개의 빔의 간섭을 이용하여 명암을 구현함으로써 3차원의 영상을 재현할 수도 있다. 이를 위해, 홀로그래피는 2개의 광원부와, 단말제어부에서 출력된 영상신호에 따라, 하나의 광원부에서 출력된 난반사된 간섭성 광을 집결시켜 해당 영상 위치에 투사할 수 있도록 위치를 제어하며, 나머지 하나의 광원부에서 해당 영상 위치로 참조광을 투사할 수 있도록 위치를 제어하는 광스캐너부와, 광스캐너부로부터 출력되는 영상을 확대하여 투사하는 렌즈부를 포함하여 구성될 수 있다. 광스캐너부로는 2개의 광원부로부터 출력되는 광을 X축으로 선형 편향시키는 회전형 미러를 이용할 수 있다. 또한, 렌즈부로는 회전형 미러를 통해 출력된 광을 Y축으로 선형 편향시키는 회전형 렌즈를 이용할 수 있다. 이와 같은 아날로그 형태의 광출사 장치 뿐만 아니라 매트릭스 영상신호 처리부와 같은 디지털 형태의 광출사 장치도 이용할 수 있다.First, holography may generate a 3D stereoscopic image represented by a plane or a stereoscopic image using two light sources. In other words, by scanning the space using the two infrared beams can be recognized by the user. By implementing the contrast using the interference of the two beams it is also possible to reproduce the three-dimensional image. To this end, the holography controls the position so that the two light source units and the image signal output from the terminal control unit collect the diffusely reflected coherent light output from one light source unit and project the image onto the corresponding image position. The light source may be configured to control the position of the light source to project the reference light to the corresponding image position, and the lens unit may enlarge and project the image output from the light scanner. As the light scanner portion, a rotating mirror that linearly deflects light output from two light sources can be used on the X axis. In addition, as the lens unit, a rotatable lens that linearly deflects light output through the rotatable mirror along the Y axis may be used. In addition to the analog light emitting device, a digital light emitting device such as a matrix image signal processor may be used.
한편, 프로젝터는 적색(R), 녹색(G), 청색(B) LED 모듈들이 서로 분리되어 이루어진 램프부 및 플라이아이렌즈 등과 같은 광균일화 광학계 등으로 구성된 광원부와, 영상신호에 따라 광원부로부터 제공되는 광을 변조하여 영상을 출력하는 광변조 소자와, 광변조 소자로부터 출력되는 영상을 확대하여 투사하는 렌즈부를 포함하여 구성될 수 있다. 이때, 램프부는 발광다이오드(LED) 뿐만 아니라 유기발광다이오드(OLED), 레이저다이오드(LD) 등으로도 구성될 수 있으며, 광변조 소자는 LCD(Liquid Crystal Display) 패널, DMD(Digital Micromirror Device) 소자, GLV(Grating Light Valve) 소자, Lcos 등과 같은 투과형 또는 반사형 광변조 소자들이 선택적으로 사용될 수 있다.On the other hand, the projector is provided with a light source unit composed of a light unit and a light homogenizing optical system such as a lamp unit and a red eye, and a red (R), green (G), blue (B) LED modules are separated from each other, and is provided from the light source unit according to the image signal And a lens unit for enlarging and projecting an image output from the light modulation device. In this case, the lamp unit may include not only a light emitting diode (LED) but also an organic light emitting diode (OLED), a laser diode (LD), and the like, and the optical modulation device may be a liquid crystal display (LCD) panel or a digital micromirror device (DMD) device. Transmissive or reflective light modulators such as GLV (Grating Light Valve) devices, Lcos, etc. may be selectively used.
진동부(26)는 단말기(2)에서 실행되는 각종 기능 메뉴에 대응하여 단말제어부(28)의 제어에 의해 다양한 진동을 발생시키는 기능을 수행한다. 즉, 진동부(26)는 입력부(22)를 통해 입력된 사용자 조작에 대응하거나 제스처신호에 대응하여 진동을 발생시킬 수 있으며, 표시부(24) 및 음원처리부(27)와 연동시킬 수 있다.The
음원처리부(27)는 마이크(MIC)로 입력되는 음성을 디지털화하여 음성정보를 획득하고, 통신부(21)를 통해 수신된 음성정보를 복조하여 스피커(SPK)를 통해 출력한다. 음원처리부(27)는 제스처신호에 대응하는 음향을 스피커를 통해 출력할 수 있다.The sound
그리고, 단말제어부(28)는 단말기(2)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)로서의 기능을 수행한다. 특히, 단말제어부(28)는 근거리무선통신 모듈(212)에서 수신한 제스처신호를 전달받아 제스처신호에 대응하는 명령어를 저장부(23)로부터 추출하여 해당 명령어에 대응하는 단말기(2)의 기능을 실행한다. 즉, 단말제어부(28)는 제스처신호에서 사용자의 움직임 방향, 움직임 기울기, 움직임 속도, 움직임 시간 중에 적어도 하나에 대응하는 정보를 추출하여 이에 대응하는 명령어를 저장부(23)에서 추출하고, 이 명령어를 실행함으로써 명령어 실행에 따른 실행결과를 영상출력부(25)로 전달하여 영상으로 출력할 수 있도록 제어한다. 한편, 단말제어부(28)는 사용자 제스처에 대응하는 응답신호를 근거리무선통신 모듈(212)을 통해 제스처신호 발생장치(1)로 전송하는 제어를 수행한다.In addition, the
한편, 본 실시예에서는 이동통신단말과 같이 통화를 수행할 수 있는 단말기(2)를 일례로서 예시하고 있으나, 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등에 본 발명의 기술적 사상을 모두 적용할 수 있다. 또한, 위에서 예시한 구성중에서 통신부(21), 저장부(23), 영상출력부(25) 및 단말제어부(28)로 이루어진 최소구성의 단말기를 이용하여 본 발명을 실현할 수 있으며, 또한 통신부(21), 저장부(23), 표시부(24) 및 단말제어부(28)로 이루어진 최소구성의 단말기를 이용하여 본 발명을 실현할 수 있다. 이에 본 발명은 최소구성의 단말기를 포함하는 TV, 모니터, 프로젝터, 입체영상표시장치 등을 적용될 수 있음은 당연하다.Meanwhile, in the present embodiment, the
그러면, 여기서 상기한 구성을 갖는 제스처에 의한 사용자 인터페이스 제공 시스템에서의 사용자 인터페이스 과정에 대해 상세히 설명하기로 한다.Next, the user interface process in the user interface providing system by the gesture having the above configuration will be described in detail.
도 4는 본 발명의 일실시예로서, 제스처에 의한 사용자 인터페이스 제공 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a method for providing a user interface by a gesture according to an embodiment of the present invention.
먼저, 초기 상태로서 제스처신호 발생장치(1)는 오프 상태를 유지하며, 단말기(2)는 최초 초기화가 이루어진 후 대기 상태를 유지하고 있는 것으로 가정한다. 그리고, 제스처신호 발생장치(1)는 단말기(2)에 등록된 상태라고 가정한다. 즉, 제스처신호 발생장치(1)와 단말기(2) 간의 페어링(Pairring)을 통해 단말기(2)에 해당 제스처신호 발생장치(1)에 대한 기본 정보가 저장된 상태라고 가정한다.First, it is assumed that the
도 1 내지 도 4를 참조하면, 외부로부터 호 요청 또는 영상 호 요청, 메시지 수신 등의 이벤트가 이동통신 모듈(211)을 통해 수신되면(S1), 단말제어부(28)의 제어에 의해 단말기(2)의 구동이 이루어지게 된다(S2). 즉, 단말기(2)가 구동 대기 상태를 유지하고 있다가, 이벤트가 발생되면 이벤트에 따라 단말제어부(28)의 제어에 의해 표시부(24), 영상출력부(25), 진동부(26), 음원처리부(27) 중에서 필요한 장치를 구동시킨다.1 to 4, when an event such as a call request, a video call request, or a message reception is received from the outside through the mobile communication module 211 (S1), the
이와 같이, 단말기(2)의 표시부(24) 또는 영상출력부(25), 진동부(26) 또는 음원처리부(27)를 구동시켜 화면, 공간 또는 스크린 상에 영상, 통화음 발생 또는 진동을 출력할 준비를 하거나, 메시지가 출력될 수 있도록 표시부(24) 또는 영상출력부(25)를 구동시켜 화면 또는 공간 또는 스크린 상에 영상을 출력할 준비를 한다.As such, the
본 실시예에서는 외부로부터 이벤트가 수신되는 경우에 대해서 설명하고 있으나, 사용자가 단말기(2)를 조작하여 단말기(2) 구동을 위한 이벤트를 발생시킬 수도 있을 것이다. 또한, 이벤트는 제스처신호일 수 있으며, 이와 같은 제스처신호로서 단말기(2)를 구동시킬 수도 있다.In the present embodiment, a case in which an event is received from the outside is described, but a user may generate an event for driving the
이어서, 초기 상태 조건에 따라 제스처신호 발생장치(1)를 구동시키기 위해, 단말기(2)는 단말제어부(28)의 제어에 의해 근거리무선통신 모듈(212)를 통해 제스처신호 발생장치(1)로 구동요청신호를 전송한다(S3).Subsequently, in order to drive the
이때, 단말기(2)에서는 구동요청신호를 전송함과 아울러, 단말제어부(28)의 제어에 의해 영상출력부(25)에서 해당 이벤트에 대응하는 영상(I) 출력이 이루어지게 된다(S4). 이때, 홀로그래피가 적용된 단말기(2)인 경우에는 공간 상에 영상 출 력이 이루어지게 되며, 프로젝션이 적용된 단말기의 경우에는 스크린 또는 임의로 벽면 등에 영상 투영이 이루어지게 된다. 한편, 표시부(24)에서도 이벤트에 대응하는 영상(I) 출력이 이루어질 수 있다.At this time, the
한편, 제스처신호 발생장치(1)는 단말기(2)로부터 전송된 구동요청신호 수신에 대응하여 제어부(16)의 제어에 의해 전원공급부(11)에서 전원공급이 이루어지게 된다(S5). 본 실시예에서는 구동요청신호에 의해 제스처신호 발생장치(1)에 전원이 공급되는 경우에 대해 설명하고 있으나, 사용자가 임의로 전원 공급 스위치(미도시)를 온시켜 제스처신호 발생장치(1)에 전원 공급이 이루어질 수도 있다.Meanwhile, the
이에 제어부(16)의 제어에 의해 제스처신호 발생장치(1)의 구동 및 초기화가 이루어지게 된다(S6). 이 초기화 과정은 제스처신호 발생장치(1)의 통신부(12) 및 단말기(2)의 근거리무선통신 모듈(212) 간 통신을 통해 단말기(2)에서 제스처신호 발생장치(1)를 인식하는 과정을 포함한다. 즉, 제스처신호 발생장치(1)가 구동되면 제어부(16)의 제어에 의해 통신부(12)를 통해 인식 요청 메시지를 단말기(2)로 전송하게 되고, 이에 단말기(2)에서는 단말제어부(28)의 제어에 의해 등록된 제스처신호 발생장치(1)인 지를 확인함으로써 인식 과정을 완료하게 된다. 이와 같이, 단말기(2)에 미리 저장된 제스처신호 발생장치(1)에 대한 이름, 클래스(Class), 서비스 리스트(List of service)와, 특성, 제조사, 스펙(Specification) 등을 포함하는 기술 정보를 확인하여 미리 등록된 제스처신호 발생장치(1)인 지를 확인할 수 있을 것이다. 이후, 사용자는 손가락, 손목 등에 제스처신호 발생장치(1)를 장착한 후, 단말기(2)와의 인터페이스를 수행할 준비를 한다.Accordingly, the
한편, 제스처신호 발생장치(1)와 단말기(2) 간의 인터페이스를 수행하기 이전에 영상출력부(25)를 통해 출력된 영상(I)에서의 제스처신호 발생장치(1)의 초기 위치를 설정하는 과정을 진행할 수 있다. 영상(I)에서의 제스처신호 발생장치(1)의 초기 위치를 설정하는 과정은 다음과 같다. 먼저, 제스처신호 발생장치(1)에 포함된 거리 센서를 이용하여 단말기(2)와의 거리를 감지한다. 제스처신호 발생장치(1)와 단말기(2)가 미리 설정된 거리 이내로 판단되면, 제스처신호 발생장치(1)는 제어부(16)의 제어에 의해 단말기(2)로 커서 요청 신호를 전송한다. 이에, 단말기(2)는 단말제어부(28)의 제어에 의해 공간 또는 스크린 상에 출력된 영상(I)에 커서를 표시한다. 이때, 커서는 영상(I)의 중앙에 위치시키는 것이 바람직하다. 이후, 제스처신호 발생장치(1)의 움직임에 대응하여 단말기(2)에서 커서의 움직임을 영상출력부(25)를 통해 출력할 수 있다.Meanwhile, before performing the interface between the
이와 같은 영상(I)에서의 제스처신호 발생장치(1)의 초기 위치를 설정하는 과정이 완료되면, 제스처신호 발생장치(1)는 사용자에 의한 제스처가 있는 지를 판단한다(S7). 즉, 센서부(13)에서 사용자의 제스처를 감지하였는 지를 판단한다.When the process of setting the initial position of the
S7단계의 판단 결과, 센서부(13)에서 사용자의 제스처를 감지하지 못하였을 경우에는 센서부(13)는 제스처 감지 대기상태를 계속 유지한다.As a result of the determination in step S7, when the
S7단계의 판단 결과, 센서부(13)에서 사용자의 제스처를 감지하였을 경우에는 센서부(13)가 사용자 제스처를 대응하는 제스처신호를 발생시켜 출력한다(S8).As a result of the determination in step S7, when the
여기서, 센서부(13)로부터 발생될 수 있는 제스처신호의 종류에 대해 간략하게 설명한다.Here, the types of gesture signals that may be generated from the
먼저, 공간 또는 스크린 상에서 전방향/후방향/좌방향/우방향/상방향/하방향을 향해 직선으로 움직이는 제스처를 기본 동작신호로 정의한다. 여기에 인접한 2개의 직선 방향을 조합한 방향, 회전, 기울어짐 등의 변형 동작신호를 추가할 수 있다. 또한, 클릭 동작과 같은 반복 동작 회수를 포함하는 반복 동작신호를 포함할 수 있다. 그리고, 각 동작신호에 대한 동작 시간을 포함할 수 있다. 기본 동작신호, 변형 동작신호, 반복 동작신호 및 동작 시간은 임의로 조합될 수 있으며, 조합된 동작신호에 단말기(2)의 명령어가 각각 매칭될 수 있다. 이때, 사용자가 자신의 취향에 맞추어 동작신호와 명령어를 임의로 매칭시킬 수도 있다.First, a gesture that moves in a straight line toward a forward / rearward / leftward / rightward / upward / downward direction on a space or a screen is defined as a basic operation signal. Modification operation signals such as a direction, a rotation, and a tilt that combine two adjacent linear directions may be added thereto. It may also include a repetitive operation signal that includes a number of repetitive operations, such as a click operation. And, it may include an operation time for each operation signal. The basic operation signal, the modified operation signal, the repetitive operation signal, and the operation time may be arbitrarily combined, and the command of the
예를 들어, 출력된 영상에서 커서 위치를 확인하고 사용자가 제스처신호 발생장치(1)를 전후좌우로 움직이는 것에 대응하여 단말기(2)에서 커서가 전후좌우로 움직이는 영상을 출력한다. 제스처신호 발생장치(1)에 마련된 특정 버튼을 누르면 아이콘 등의 대상물이 선택되고, 이 상태에서 대상물을 전후좌우로 움직이면 단말기(2)에서 대상물이 전후좌우로 움직이는 영상을 출력한다. 제스처신호 발생장치(1)에 마련된 특정 버튼을 이용하여 아이콘 등의 대상물을 선택하고 더블 클릭하거나 상하로 움직이면, 단말기(2)에서 대상물과 링크된 데이터의 영상을 출력한다. 이때, 링크된 데이터가 전자책일 경우에, 제스처신호 발생장치(1)를 좌측으로 기울이면, 단말기(2)는 책장이 넘겨지는 영상을 출력한다. 또한, 그림 파일이 복수개 출력된 영상일 경우에 제스처신호 발생장치(1)를 임의의 방향으로 기울이면 단말기(2)에서 스크롤이 이루어지는 영상을 출력한다. 제스처신호 발생장치(1)를 X 문양을 설정시간 이내에 취하면, 단말기(2)에서 현재 출력된 영상을 닫고 초기 화면 또는 이전 영상을 출력한다. 이와 같이, 마우스 등과 같은 입력장치에서 숙지된 행동방식을 이용하여 인터페이스를 수행할 수 있으며, 다양한 제스처가 존재하므로 이를 다양한 영상 제어 명령과 매칭시킬 수 있을 것이다.For example, the cursor position is identified in the output image, and the
이와 같이, 발생된 제스처신호는 제어부(16)의 제어에 의해 통신부(12)를 통해 단말기(2)로 전송된다(S9).In this way, the generated gesture signal is transmitted to the
이후, 제스처신호 발생장치(1)로부터 전송된 제스처신호를 단말기(2)의 근거리무선통신 모듈(212)을 통해 수신하면(S10), 단말기(2)는 단말제어부(28)의 제어에 의해 통상의 신호처리 과정을 거치게 된다. 즉, 제스처신호를 증폭하고, 증폭된 고주파 신호로부터 필터링을 수행하여 디지털 신호로 변환하는 과정을 거치게 된다.Thereafter, when the gesture signal transmitted from the
이어서, 단말기(2)의 단말제어부(28)에서는 제스처신호를 분석하여 동작신호에 포함된 사용자의 움직임 방향, 움직임 기울기, 움직임 속도, 움직임 시간 등을 추출하고, 이들에 대응하는 명령어를 저장부(23)에서 추출한다(S11).Subsequently, the
그리고, 단말기(2)의 단말제어부(28)에서는 명령어를 실행시킴과 동시에 실행결과를 영상(I)에 출력시키는 제어를 수행한다(S12). 즉, 단말기(2)의 단말제어부(28)에서는 영상출력부(25)를 제어하여 출력된 해당 페이지를 이동시키거나, 대각선 방향 또는 기울기에 대응하여 해당 페이지를 넘기거나, 반복 동작에 대응하여 특정 아이콘을 실행하거나, 속도에 비례하여 실행 속도를 조절하는 영상(I)을 출력시킨다.In addition, the
이 영상(I) 출력에 있어, 홀로그래피의 경우에는 단말제어부(28)에서 영상신 호를 영상출력부(25)로 전달하면, 영상신호에 따라 영상출력부(25)가 하나의 광원부에서 출력된 난반사된 간섭성 광을 집결시켜 해당 영상 위치에 투사할 수 있도록 위치를 제어하며, 나머지 하나의 광원부에서 해당 영상 위치로 참조광을 투사할 수 있도록 위치를 제어한다. 이후, 영상출력부(25)가 간섭성 광 및 참조광을 공간 상에 투사한다. 한편, 프로젝터의 경우에는 단말제어부(28)에서 영상신호를 영상출력부(25)로 전달하면, 영상신호에 따라 영상출력부(25)가 영상신호에 대응한 광을 출력하고, 광을 변조하여 영상을 형성시킨다. 이후, 영상출력부(25)가 형성된 영상을 확대하여 투사한다.In the case of holography, when the
한편, 단말기(2)의 단말제어부(28)에서는 사용자 제스처에 대응하는 기능이 실행되었음을 알리는 응답신호를 생성하여 근거리무선통신 모듈(212)로 전달하고, 이후 단말기(2)의 단말제어부(28)에서 근거리무선통신 모듈(212)을 제어하여 응답신호를 제스처신호 발생장치(1)로 전송한다(S13).Meanwhile, the
이에, 제스처신호 발생장치(1)는 통신부(12)를 통해 수신한 응답신호를 수신하여 제어부(16)로 전달하고, 제스처신호 발생장치(1)의 제어부(16)에서는 응답신호에 대응하는 제어를 통해 진동부(14)를 구동시켜 진동을 발생시킨다(S14). 물론, 응답신호에 대응하여 음향, 디스플레이, 향기 등을 출력시킬 수도 있다.Accordingly, the
한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples to aid understanding, and are not intended to limit the scope of the present invention. In addition to the embodiments disclosed herein, it is apparent to those skilled in the art that other modifications based on the technical idea of the present invention may be implemented.
본 발명은 공간 또는 스크린 상에 영상을 출력시킬 수 있으며, 제스처신호에 대응하는 실행결과를 영상으로 출력할 수 있는 단말기와 사용자의 제스처에 대응하여 제스처신호를 발생시킬 수 있는 제스처신호 발생장치를 통해 사용자 인터페이스 환경을 공간 또는 스크린으로 확장시킬 수 있으므로, 한정된 인터페이스 영역을 갖는 장치 등에 본 발명을 적용할 경우에 이를 이용하는 사용자의 편리성 및 흥미를 증대시킬 수 있다.The present invention can output an image on a space or screen, through a terminal capable of outputting an execution result corresponding to a gesture signal as an image and a gesture signal generator capable of generating a gesture signal in response to a user's gesture. Since the user interface environment can be extended to a space or a screen, when the present invention is applied to a device having a limited interface area or the like, it is possible to increase the convenience and interest of the user using the same.
도 1은 본 발명의 일실시예로서, 제스처에 의한 사용자 인터페이스 제공 시스템을 나타낸 개념도이다.1 is a conceptual diagram illustrating a user interface providing system using a gesture according to an embodiment of the present invention.
도 2는 본 발명에 일실시예에 의한 제스처신호 발생장치를 나타낸 블록도이다.2 is a block diagram showing a gesture signal generator according to an embodiment of the present invention.
도 3은 본 발명의 일실시예에 의한 단말기를 나타낸 블록도이다.3 is a block diagram showing a terminal according to an embodiment of the present invention.
도 4는 본 발명의 일실시예로서, 제스처에 의한 사용자 인터페이스 제공 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a method for providing a user interface by a gesture according to an embodiment of the present invention.
<도면의 주요 부분에 대한 설명>Description of the main parts of the drawing
1 : 제스처신호 발생장치 11 : 전원공급부1: Gesture signal generator 11: Power supply
12 : 통신부 13 : 센서부12: communication unit 13: sensor unit
14 : 진동부 15 : 메모리부14: vibration unit 15: memory unit
16 : 제어부 2 : 단말기16
21 : 통신부 22 : 입력부21: communication unit 22: input unit
23 : 저장부 24 : 표시부23: storage unit 24: display unit
25 : 영상출력부 26 : 진동부25: video output unit 26: vibration unit
27 : 음원처리부 28 : 단말제어부27: sound source processing unit 28: terminal control unit
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090089614A KR20110032224A (en) | 2009-09-22 | 2009-09-22 | System and method for providing user interface by gesture, gesture signal generator and terminal thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090089614A KR20110032224A (en) | 2009-09-22 | 2009-09-22 | System and method for providing user interface by gesture, gesture signal generator and terminal thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110032224A true KR20110032224A (en) | 2011-03-30 |
Family
ID=43937009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090089614A KR20110032224A (en) | 2009-09-22 | 2009-09-22 | System and method for providing user interface by gesture, gesture signal generator and terminal thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110032224A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095349A (en) * | 2016-06-14 | 2016-11-09 | 无锡天脉聚源传媒科技有限公司 | A kind of signature Method of printing and device |
KR101865362B1 (en) * | 2016-12-08 | 2018-06-07 | 동명대학교산학협력단 | Control system and method for mixed reality using foot gesture |
CN109643212A (en) * | 2016-09-20 | 2019-04-16 | 苹果公司 | 3D document editing system |
-
2009
- 2009-09-22 KR KR1020090089614A patent/KR20110032224A/en not_active Application Discontinuation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095349A (en) * | 2016-06-14 | 2016-11-09 | 无锡天脉聚源传媒科技有限公司 | A kind of signature Method of printing and device |
CN109643212A (en) * | 2016-09-20 | 2019-04-16 | 苹果公司 | 3D document editing system |
CN109643212B (en) * | 2016-09-20 | 2022-04-01 | 苹果公司 | 3D document editing system |
KR101865362B1 (en) * | 2016-12-08 | 2018-06-07 | 동명대학교산학협력단 | Control system and method for mixed reality using foot gesture |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101561155B1 (en) | Method and system for adapting the usage of external display with mobile device | |
CN106168848B (en) | Display device and control method of display device | |
KR102492560B1 (en) | Electronic device and method for controlling input thereof | |
KR20190017347A (en) | Mobile terminal and method for controlling the same | |
KR20170126295A (en) | Head mounted display device and method for controlling the same | |
US9678663B2 (en) | Display system and operation input method | |
WO2005069114A1 (en) | Mobile communication terminal | |
CN105339870A (en) | Method and wearable device for providing a virtual input interface | |
EP3885885A1 (en) | Method, apparatus and storage medium for displaying application interface | |
KR20160139481A (en) | User terminal apparatus and control method thereof | |
EP3933545B1 (en) | Method and apparatus for detecting a bending state of electronic device, and storage medium | |
JP6770502B2 (en) | Communication devices, display devices, their control methods, programs and display systems | |
CN107783669B (en) | Cursor generation system, method and computer program product | |
KR20170059760A (en) | Mobile terminal and method for controlling the same | |
EP1501041B1 (en) | Data input device with cursor position notification | |
US11157085B2 (en) | Method and apparatus for switching display mode, mobile terminal and storage medium | |
KR20110032224A (en) | System and method for providing user interface by gesture, gesture signal generator and terminal thereof | |
US20230124173A1 (en) | Information terminal device and application operation mode control method of same | |
JP4047822B2 (en) | Electronics | |
KR20110126438A (en) | Mobile terminal and operation method thereof | |
JP2015206854A (en) | Display system, display device, and display control method | |
EP3770722B1 (en) | Screen display method and device, mobile terminal and storage medium | |
JP2015200951A (en) | display system and program | |
KR102204599B1 (en) | Method for outputting screen and display device for executing the same | |
JP5713401B2 (en) | User interface device for generating projected image signal for pointer projection, image projection method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |