KR20110112919A - Method for providing contents user interface and terminal - Google Patents
Method for providing contents user interface and terminal Download PDFInfo
- Publication number
- KR20110112919A KR20110112919A KR1020100032139A KR20100032139A KR20110112919A KR 20110112919 A KR20110112919 A KR 20110112919A KR 1020100032139 A KR1020100032139 A KR 1020100032139A KR 20100032139 A KR20100032139 A KR 20100032139A KR 20110112919 A KR20110112919 A KR 20110112919A
- Authority
- KR
- South Korea
- Prior art keywords
- terminal
- specific content
- user
- control command
- content
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Abstract
본 발명은 단말기의 사용자 인터페이스 제공 방법 및 시스템에 관한 것으로, 단말기는 사용자의 요청에 따라 컨텐츠를 실행하고, 실행된 컨텐츠를 내부의 가상 스크린에 출력 중 제어 명령에 따라 컨텐츠의 실행을 제어한다. 이를 통해 사용자는 공공 장소에서 컨텐츠를 실행 중 타인의 시선으로부터 개인의 사생활을 보호 받을 수 있고, 단말기의 내부에 가상 스크린을 통해 컨텐츠를 제공 받을 수 있기에 이에 따른 흥미를 유발할 수 있고, 사용자에 의해 발생하는 제어 명령을 감지하여 다양한 입력수단으로 활용할 수 있다.The present invention relates to a method and a system for providing a user interface of a terminal, wherein the terminal executes content according to a user's request, and controls execution of the content according to a control command while outputting the executed content on a virtual screen therein. This allows the user to protect his or her privacy from the eyes of others while the content is being executed in a public place, and the user can be provided with the content through a virtual screen inside the terminal, thereby inducing interest accordingly. It can be used as various input means by detecting a control command.
Description
본 발명은 사용자 인터페이스 제공 방법 및 단말기에 관한 것으로, 더욱 상세하게는 단말기는 사용자의 요청에 따라 컨텐츠를 실행하고, 실행된 컨텐츠를 내부의 가상 스크린에 출력 중 제스처의 입력에 따라 컨텐츠의 실행을 제어할 수 있는 컨텐츠를 제공하는 사용자 인터페이스 제공 방법 및 단말기에 관한 것이다.The present invention relates to a method and a terminal for providing a user interface, and more particularly, a terminal executes content according to a user's request, and controls execution of the content according to a gesture input while outputting the executed content on a virtual screen therein. The present invention relates to a method and a terminal for providing a user interface for providing contents.
최근에 단말기와 관련된 기술이 발달하고, 그 보급이 확산되면서 단말기는 개인의 필수품이 되고 있다. 또한, 단말기의 보급이 일반화되면서 사업자들은 사용자들의 욕구를 충족시키기 위한 다양한 서비스를 제공하고 있다. 예를 들면, 현재 이동통신 서비스 사업자들은 이동통신망을 통해 주요 기능인 발신자와 수신자 사이의 통화 기능뿐만 아니라 카메라 기능, 디지털 방송 재생 서비스, 무선 인터넷 서비스, 단문 메시지 서비스(SMS, Short Message Service), 멀티미디어 메시지 서비스(MMS, Multimedia Message Service)등의 다양한 기능 및 서비스를 단말기에 접목하여 제공하고 있다. 특히, 근래의 단말기 관련 서비스는 제시된 기능 및 서비스를 비롯하여, 사용자의 기호에 맞도록 다양한 부가 서비스를 제공하고 있다. 이러한 부가 서비스를 제공하는 단말기의 사용자는 통상적으로 단말기에 마련된 키 패드, 터치스크린, 조이스틱, 스크롤 휠 등의 입력 수단을 이용하여 단말기를 조작하거나 단말기에 필요한 정보를 입력한다.Recently, with the development of technology related to the terminal and its spread, the terminal has become a necessity of the individual. In addition, with the spread of terminals, operators have provided various services to meet the needs of users. For example, mobile service providers currently use camera functions, digital broadcast playback services, wireless Internet services, short message services (SMS), multimedia messages, as well as calling functions between the sender and receiver, which are the main functions through the mobile network. It provides various functions and services such as services (MMS, Multimedia Message Service) to the terminal. In particular, recent terminal-related services, including the proposed functions and services, provide a variety of additional services to suit the user's preferences. A user of a terminal providing such an additional service typically operates a terminal or inputs necessary information into the terminal using input means such as a keypad, a touch screen, a joystick, and a scroll wheel provided in the terminal.
그러나 사용자는 단말기의 이러한 기능들을 실행하는 중에 타인으로부터 화면에 노출되어 개인 사생활 침해를 받을 수 있다.However, the user may be exposed to the screen from others while violating personal privacy while executing these functions of the terminal.
이러한 종래의 문제점을 해결하기 위하여, 본 발명의 목적은 단말기를 사용하는 사용자의 사생활을 보호하기 위하여 내부의 가상 스크린에 컨텐츠를 출력함으로써, 사용자만이 컨텐츠의 실행에 따른 화면을 볼 수 있는 사용자 인터페이스 제공 방법 및 단말기를 제공하고자 한다.In order to solve such a conventional problem, an object of the present invention is to output the content on the virtual screen inside to protect the privacy of the user using the terminal, so that only the user can view the screen according to the execution of the content It is intended to provide a method and a terminal.
또한, 본 발명의 목적은 컨텐츠의 실행에 대한 다양한 입력 수단으로 사용자의 제스처, 특정키 입력 또는 음성 입력과 같은 제어 명령을 센싱하여 컨텐츠의 실행을 제어하는 사용자 인터페이스 방법 및 단말기를 제공하고자 한다.Another object of the present invention is to provide a user interface method and a terminal for controlling the execution of content by sensing a control command such as a gesture, a specific key input or a voice input of a user with various input means for executing the content.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 단말기에 있어서, 사용자가 특정 컨텐츠를 확인하는 렌즈부 및 특정 컨텐츠를 실행하고, 실행된 특정 컨텐츠를 내부의 가상 스크린에 출력하는 제어부를 포함하는 것을 특징으로 한다.In the terminal of the present invention for achieving the above object, the user includes a lens unit for confirming the specific content and a control unit for executing the specific content, and outputs the executed specific content on the virtual screen therein; It is done.
본 발명에 따른 단말기에 있어서, 사용자의 눈동자가 근접하는지 감지하는 센서부를 더 포함하고, 제어부는 센서부를 통해 눈동자의 근접이 확인되면, 특정 컨텐츠를 가상스크린에 출력하는 것을 특징으로 한다.The terminal according to the present invention further includes a sensor unit for detecting whether a user's pupils are in proximity, and when the proximity of the pupils is confirmed through the sensor unit, the controller outputs specific content to the virtual screen.
본 발명에 따른 단말기는 특정 컨텐츠를 표시하는 표시부를 더 포함하고, 제어부는 눈동자가 근접하는 경우 표시부를 제어하여 특정 컨텐츠의 표시를 오프하는 것을 특징으로 한다.The terminal according to the present invention further includes a display unit for displaying specific content, and the controller is configured to turn off the display of the specific content by controlling the display unit when the pupils are in close proximity.
본 발명에 따른 단말기에 있어서, 센서부는 사용자의 제스처 입력을 더 감지하며, 제어부는 센서부를 통해 감지되는 제스처의 입력에 대응하는 제어 명령에 따라 특정 컨텐츠의 실행을 제어하는 것을 특징으로 한다.In the terminal according to the present invention, the sensor unit further detects a user's gesture input, and the controller controls the execution of specific content according to a control command corresponding to the input of the gesture detected through the sensor unit.
본 발명에 따른 단말기에 있어서, 센서부는 사용자의 손에 착용되는 링 타입 또는 밴드 타입의 모션 장치로부터 발생하는 적외선을 감지하여 제어부로 전달하는 것을 특징으로 한다.In the terminal according to the present invention, the sensor unit detects infrared rays generated from a ring type or band type motion device worn on the user's hand, and transmits the detected infrared rays to the control unit.
본 발명에 따른 단말기에 있어서, 렌즈부는 특정 컨텐츠를 확인할 수 있는 오목렌즈, 볼록렌즈 및 입체렌즈 중 적어도 하나의 렌즈로 구성되는 것을 특징으로 한다.In the terminal according to the present invention, the lens unit is characterized by consisting of at least one lens of the concave lens, the convex lens and the three-dimensional lens that can identify the specific content.
본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 단말기에서 특정 컨텐츠가 선택되는 단계와, 단말기가 선택된 특정 컨텐츠를 실행하는 단계 및 단말기가 특정 컨텐츠의 실행에 따라 특정 컨텐츠를 내부의 가상 스크린에 출력하는 단계를 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the step of selecting a specific content in the terminal, the step of executing the specific content selected by the terminal and the terminal outputs the specific content on the virtual screen in accordance with the execution of the specific content Characterized in that it comprises a step.
본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 실행하는 단계는 단말기가 특정 컨텐츠를 표시부에 표시하는 단계와, 단말기가 특정 컨텐츠를 표시 중 사용자의 눈동자가 단말기에 근접하는지 판단하는 단계 및 단말기가 눈동자의 근접에 따라 특정 컨텐츠의 표시를 오프하는 단계를 더 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the step of executing the terminal displays the specific content on the display unit, the terminal determines whether the user's eyes are close to the terminal while displaying the specific content, and the terminal pupil The method may further include turning off the display of the specific content according to the proximity of.
본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 판단하는 단계는 단말기가 눈동자를 인식하는 단계와, 단말기가 인식된 눈동자의 근접 여부를 분석하는 단계 및 단말기가 분석 결과에 따라 근접 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the determining may include the steps of the terminal recognizing the pupil, the step of analyzing the proximity of the pupil recognized by the terminal, and the determination of the proximity according to the analysis result. Characterized in that it comprises a.
본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 출력하는 단계는 단말기가 특정 컨텐츠의 영상을 확대하는 단계 및 단말기가 확대된 영상을 가상 스크린에 출력하는 단계를 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the outputting step includes the step of the terminal enlarging an image of a specific content and the step of outputting the enlarged image of the terminal to a virtual screen.
본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 출력하는 단계는 가상 스크린에 특정 컨텐츠가 출력되면, 단말기가 표시부에 표시되는 특정 컨텐츠의 출력을 오프하는 단계를 더 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the outputting step further comprises the step of turning off the output of the specific content displayed on the display unit when the specific content is output on the virtual screen.
본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 출력하는 단계 이후에 단말기가 제어 명령을 감지하는 단계 및 단말기가 감지된 제어 명령에 따라 특정 컨텐츠의 출력을 제어하는 단계를 더 포함하는 것을 특징으로 한다.A user interface method of a terminal according to the present invention, after the outputting step, the terminal detects a control command and the terminal further comprises the step of controlling the output of the specific content according to the detected control command. .
본 발명에 따른 단말기의 사용자 인터페이스 제공 방법에 있어서, 제어 명령은 제스처 입력, 특정키 입력 및 음성 입력 중 적어도 하나의 입력에 의해 감지되는 것을 특징으로 한다.In the method for providing a user interface of a terminal according to the present invention, the control command is characterized by being detected by at least one of a gesture input, a specific key input, and a voice input.
본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 감지하는 단계는 단말기가 제어 명령이 입력되는지 판단하는 단계와, 제어 명령이 입력되면, 단말기가 제어 명령을 분석하는 단계 및 단말기가 분석된 제어 명령을 확인하는 단계를 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the detecting may include: determining whether a control command is input by the terminal; when the control command is input, analyzing the control command by the terminal; Characterized in that it comprises a step of identifying.
본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 제어하는 단계는 단말기가 제어 명령에 따라 특정 컨텐츠를 빠르게 재생, 느리게 재생, 볼륨을 증가 및 볼륨을 감소 중 적어도 하나의 출력을 제어하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the controlling step is characterized in that the terminal controls the output of at least one of fast playing, slow playing, increasing volume and decreasing volume according to a control command. .
본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 출력하는 단계 이후에 단말기는 눈동자가 단말기에서 멀어짐을 감지하는 단계 및 눈동자가 멀어지면, 단말기가 가상 스크린에 출력되는 특정 컨텐츠를 오프하는 단계를 더 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, after the outputting step, the terminal further comprises the step of detecting the pupil away from the terminal and if the pupil away, the terminal further comprises the step of turning off the specific content output on the virtual screen Characterized in that.
본 발명에 따르면, 단말기의 사용자는 공공 장소에서 컨텐츠를 이용하는 중 타인의 시선으로부터 컨텐츠의 화면이 보여지는 것을 방지하여 개인의 사생활을 보호 받을 수 있다.According to the present invention, the user of the terminal can protect the privacy of the individual by preventing the screen of the content from being viewed by others while using the content in a public place.
또한, 사용자는 단말기 내부의 가상 스크린을 통해 컨텐츠를 제공 받을 수 있기에 컨텐츠 이용에 따른 흥미를 증가할 수 있다.In addition, since the user may be provided with content through a virtual screen inside the terminal, the user may increase interest in using the content.
또한, 단말기는 컨텐츠 실행 중 사용자에 의해 발생하는 제스처에 따른 제어 명령을 감지하고, 감지된 제스처를 다양한 입력수단으로 적용하여 컨텐츠 실행을 제어함으로써, 사용자의 컨텐츠 이용에 대한 재미를 증가 시킬 수 있다.In addition, the terminal detects a control command according to a gesture generated by the user while executing the content and controls the execution of the content by applying the detected gesture to various input means, thereby increasing the fun of the user.
도 1은 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 시스템을 나타내는 구성도이다.
도 2는 본 발명의 실시 예에 따른 단말기의 구성을 나타내는 도면이다.
도 3은 본 발명의 실시 예에 따른 단말기의 개략적인 구성을 나타내는 블록도이다.
도 4는 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 방법 설명하기 위한 화면 예이다.
도 6은 도4의 컨텐츠를 출력하는 단계를 구체적으로 설명하기 위한 흐름도이다.
도 7은 도 4의 제어 명령을 감지하는 단계를 구체적으로 설명하기 위한 흐름도이다.1 is a block diagram illustrating a system for providing a user interface of a terminal according to an exemplary embodiment of the present invention.
2 is a diagram illustrating a configuration of a terminal according to an exemplary embodiment of the present invention.
3 is a block diagram illustrating a schematic configuration of a terminal according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a user interface providing method of a terminal according to an exemplary embodiment of the present invention.
5 is a screen example for explaining a user interface providing method of a terminal according to an exemplary embodiment of the present invention.
FIG. 6 is a flowchart for describing in detail a step of outputting the content of FIG. 4.
FIG. 7 is a flowchart for describing a step of detecting the control command of FIG. 4 in detail.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, in the following description and the accompanying drawings, detailed descriptions of well-known functions or configurations that may obscure the subject matter of the present invention will be omitted. In addition, it should be noted that like elements are denoted by the same reference numerals as much as possible throughout the drawings.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms or words used in the specification and claims described below should not be construed as being limited to the ordinary or dictionary meanings, and the inventors are appropriate to the concept of terms in order to explain their invention in the best way. It should be interpreted as meanings and concepts in accordance with the technical spirit of the present invention based on the principle that it can be defined. Therefore, the embodiments described in the present specification and the configuration shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all of the technical ideas of the present invention, and various alternatives may be substituted at the time of the present application. It should be understood that there may be equivalents and variations.
이하에서 본 발명의 실시 예에 따른 단말기는 사용자의 제어 명령을 인식하고, 사용자 인터페이스를 제공하기 위하여 이동통신망을 이용하는 형태의 이동통신 단말기를 대표적인 예로서 설명하지만 단말기는 이동통신 단말기에 한정된 것이 아니고, 모든 정보통신기기 및 멀티미디어 기기와, 그에 대한 응용에도 적용될 수 있음은 자명할 것이다.Hereinafter, a terminal according to an embodiment of the present invention will be described as a representative example of a mobile communication terminal using a mobile communication network to recognize a user's control command and provide a user interface, but the terminal is not limited to the mobile communication terminal, It will be apparent that the present invention can be applied to all information and communication devices and multimedia devices and applications thereof.
도 1은 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 시스템을 나타내는 구성도이고, 도 2는 본 발명의 실시 예에 따른 단말기의 구성을 나타내는 도면이다.1 is a block diagram showing a system for providing a user interface of a terminal according to an embodiment of the present invention, Figure 2 is a view showing the configuration of a terminal according to an embodiment of the present invention.
도 1 및 도 2를 참조하면, 본 발명의 실시 예에 따른 단말기(10)의 사용자 인터페이스 제공 시스템(이하, 사생활 보호 시스템(100))은 사용자에 의해 선택되는 컨텐츠를 내부의 가상 스크린에 출력하는 중 모션 장치(20)를 착용한 사용자의 제스처, 특정키 입력 또는 음성 입력에 의해 발생하는 제어 명령에 따라 컨텐츠의 실행을 제어한다.1 and 2, a system for providing a user interface of a terminal 10 (hereinafter, the privacy protection system 100) according to an embodiment of the present invention outputs content selected by a user to a virtual screen therein. The execution of the content is controlled according to a control command generated by a gesture, a specific key input, or a voice input of a user wearing the
단말기(10)는 사용자의 요청에 따라 컨텐츠를 실행한다. 이때, 단말기(10)는 사생활 보호를 위해 내부의 가상 스크린에 컨텐츠를 출력할 수 있다. 그리고 나서, 단말기(10)는 모션 장치(20)로부터 감지되는 적외선을 분석하고, 분석된 적외선에 따라 제어 명령을 확인하여 컨텐츠의 실행을 제어할 수 있다. 이때, 도 2에 도시된 바와 같이 단말기(10)는 사용자가 내부의 가상 스크린을 볼 수 있는 렌즈부(15)를 포함할 수 있다. 즉, 사용자는 렌즈부(15)를 이용하여 단말기(10)의 내부에 출력되는 컨텐츠를 타인의 시선에 대한 방해 없이 이용할 수 있다.The
단말기(10)는 컨텐츠를 내부의 가상 스크린에 실행하는 중 사용자의 제스처를 인식하여 컨텐츠의 실행을 제어할 수 있다.The
모션 장치(20)는 사용자가 간편하게 착용할 수 있는 반지 또는 팔찌 형태의 링(Ring) 타입으로 제조되어 사용자의 손가락이나 손목에 착용될 수 있고, 밴드(Band) 타입으로 제조되어 반창고처럼 부착되어 비 가시광선 영역의 빛을 발광한다. 여기서, 모션 장치(20)가 적외선을 발광하는 물체인 경우, 단말기(10)는 모션 장치(20)로부터 발광되는 적외선을 감지하기 위하여 적외선 센서 또는 적외선 카메라를 구비하는 것이 바람직하다.The
도 3은 본 발명의 실시 예에 따른 단말기의 개략적인 구성을 나타내는 블록도이다.3 is a block diagram illustrating a schematic configuration of a terminal according to an exemplary embodiment of the present invention.
도 1 내지 도 3을 참조하면, 본 발명의 실시 예에 따른 프로젝트 기능을 구비한 단말기(10)는 제어부(11), 입력부(12), 표시부(13), 센서부(14), 렌즈부(15), 오디오처리부(16), 저장부(17) 및 통신부(18)를 포함하여 구성된다.1 to 3, a
통신부(18)는 단말기(10)의 통신을 수행하는 기능을 한다. 예를 들면, 통신부(18)는 음성통신 및 화상통신을 비롯한 데이터 통신을 수행한다. 여기서, 통신부(18)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF 송신부와 수신되는 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF 수신부 등을 포함한다. 특히, 본 발명의 실시 예에 따른 통신부(18)는 사용자의 요청에 따라 서버로부터 컨텐츠를 다운로드 할 수 있다.The
입력부(12)는 숫자 또는 문자 정보를 입력 받고, 각종 기능들을 설정하기 위한 다수의 입력키 및 기능키들을 포함한다. 이때, 기능키들은 특정 기능을 수행하도록 설정된 방향키, 사이드 키 및 단축키 등을 포함할 수 있다. 또한, 입력부(12)는 사용자 설정 및 제어부(11)의 기능 제어와 관련하여 입력되는 키 신호를 생성하고, 이를 제어부(11)로 전달한다. 특히, 본 발명의 실시 예에 따른 입력부(12)는 컨텐츠를 실행하는 입력 신호 및 컨텐츠를 내부의 가상 스크린에 출력하는 입력 신호 등을 제어부(11)로 전달할 수 있다. 또한, 입력부(12)는 특정 컨텐츠가 내부의 가상 스크린에 출력되는 중 입력되는 특정키에 대한 신호를 제어부(11)로 전달한다. The
표시부(13)는 액정표시장치(Liquid Crystal Display, LCD) 및 유기발광다이오드(Organic Light Emitting Diodes, OLED) 등이 적용될 수 있으며, LCD가 적용되는 경우 표시부(13)는 LCD 단말 제어부, LCD 데이터를 저장할 수 있는 메모리 및 LCD 표시소자 등을 구비할 수 있다. 여기서, LCD 및 OLED 등의 표시 장치를 터치스크린 방식으로 구현하는 경우, 표시부(13)의 화면은 입력부(12)로 동작될 수 있다. 특히, 본 발명의 실시 예에 따른 표시부(13)는 사용자의 요청에 따라 실행되는 컨텐츠를 화면에 표시한다. 또한, 표시부(13)는 센서부(14)를 통해 인식되는 제어 명령에 대한 화면을 표시할 수 있다.The
센서부(14)는 빛을 발광하고, 외부로부터 입력되는 사용자의 움직임 또는 물체의 움직임 등과 같은 물리적 신호를 감지하여 신호 처리부(미도시)로 전송할 수 있다. 이때, 센서부(14)는 외부 물체가 일정 감지 영역 내로 접근하는 것을 적외선을 이용하여 감지하는 적외선 센서(Infrared Sensor)를 사용할 수 있다. 여기서, 센서부(14)는 적외선을 복사하여 빛이 차단됨으로써 변화를 감지하는 능동식과, 자체에 발광부를 가지지 않고 외부로부터 받는 적외선의 변화만을 감지하는 수동식으로 구분될 수 있다. 특히, 센서부(14)가 능동식으로 구성되는 경우 적외선(IR)을 방사하는 발광 다이오드(Light Emitting Diode, LED)로 이루어지는 발광부(미도시)와, 반사되는 빛을 감지할 수 있는 다이오드 또는 트랜지스터(Transister, TR)와 같은 검출기(Detector)로 이루어지는 수광부(미도시)로 구성될 수 있다. 또한, 센서부(14)는 사용자의 눈동자가 근접함을 감지하기 위하여 렌즈부(15)에 부착되어 있을 수 있다.The
발광부는 제어부(11)의 신호에 따라 외부 임의의 물체까지 빛을 발광하는 역할을 하고, 수광부는 검출기를 통해 외부 물체로부터 반사되는 빛을 감지하는 역할을 할 수 있다. 이를 자세하게 살펴보면, 발광부는 일정 양의 적외선을 발광하고, 수광부는 물체에 반사되어 돌아오는 적외선의 양에 따라 전압의 변화를 감지할 수 있다. 특히, 본 발명의 실시 예에서 센서부(14)는 적외선을 이용하여 온도, 열, 압력 또는 방사선의 세기 등의 물리량 또는 화학량을 검지하여 신호 처리가 가능한 전기량으로 변환할 수 있다. 여기서, 센서부(14)는 제어부(11)의 제어에 따라 활성화되며, 사용자의 움직임 즉, 제스처에 따라 발생하는 적외선을 감지하여 제어부(11)에 해당되는 신호를 전달할 수 있다 이를 위해, 센서부(14)는 비교기를 이용하여 수광부에 들어오는 적외선을 감지하는 방법과, 마이크로 컨트롤러의 ADC(Analog Digital Convertor)를 통해서 적외선을 감지하는 방법을 이용할 수 있다.The light emitting unit may serve to emit light to an external arbitrary object according to a signal of the
또한, 센서부(14)는 사용자 눈동자의 변화를 감지할 수 있다. 이를 위해 센서부(14)는 카메라부(미도시)를 구비할 수 있다. 즉, 카메라부는 피사체의 촬영 기능을 수행하며, 특히 눈동자 인식을 이용하여 화면을 처리하기 위한 사용자의 영상을 획득한다. 이때, 카메라부는 이미지 센서, 신호처리부 및 영상처리부를 포함하여 구성될 수 있다. 이미지 센서는 촬영한 영상의 광신호를 아날로그 신호로 변환한다. 신호처리부는 아날로그 신호를 디지털 신호로 변환한다. 그리고 영상처리부는 신호처리부를 통해 입력되는 영상신호를 처리하여 영상데이터를 획득하며, 획득된 영상데이터를 제어부(11)나 표시부(13)를 통해 출력하거나 저장부(17)에 저장한다. 즉, 센서부(14)은 사용자 눈동자의 변화를 추적하기 위해서 적어도 하나 이상의 이미지 센서로 구성되는 카메라를 포함할 수 있다. 이를 상세히 살펴보면, 센서부(14)는 제어부(11)의 제어에 따라 단말기 내부의 가상 스크린에 컨텐츠를 실행하는 중 사용자의 제스처에 의한 제어 명령을 인식하기 위하여 적외선 센서 및 카메라를 활성화 한다. 적외선 센서와 카메라의 기능이 활성화되면, 센서부(14)는 사용자의 제스처에 의해 감지되는 적외선을 분석하여 제어 명령을 획득한다. 또한, 센서부(14)는 사용자에 의해 입력되는 특정키 입력 및 음성 입력에 따른 제어 명령을 획득할 수 있다.In addition, the
렌즈부(15)는 본 발명의 실시 예에 따른 특정 컨텐츠를 사용자가 이용할 수 있도록 볼록 렌즈, 오목 렌즈 및 입체 렌즈 등의 렌즈로 구성될 수 있다. 특히, 렌즈부(15)는 HMD(Head Mounted Display) 기술과 Non-HMD 기술을 적용하여 사용자가 눈앞 정도의 거리에 초점이 형성된 가상 스크린을 보는 것과 같은 형태로 양쪽 눈의 근접한 위치에 설치된 1인치 이하의 LCD 또는 OLED 등의 마이크로 디스플레이에서 발생되는 이미지를 확대하여 대형 가상 스크린을 형성할 수 있도록 제어부(11)의 제어를 받는다. 이때, 렌즈부(15)는 사용자가 내부의 가상 스크린에 출력되는 컨텐츠를 볼 수 있도록 복수 개로 구성될 수 있다. 이를 상세하게 살펴보면, HMD는 광학 HMD 및 영상 HMD로 구분될 수 있다. 여기서, 광학 HMD는 사용자의 눈앞에 반투과성 광학 합성기가 부착되어 있으며, 사용자는 광학 합성기를 통해 실세계 환경을 직접 보면서, 광학 합성기로 투사되는 가상 영상을 동시에 볼 수 있다. 또한, 영상 HMD는 실세계 환경에 대한 영상을 획득하기 위하여 HMD에 1개 이상의 카메라가 별도로 설치되어 있다. 그리고, 비디오 합성기를 이용하여 카메라로부터 입력되는 실세계 영상과 컴퓨터에서 생성한 가상 영상을 합성하여 HMD에 부착된 LCD와 같은 디스플레이 장치에 보여주게 된다.The
Non-HMD는 소형 및 대형 디스플레이장치로 구분된다. 이때, 소형 디스플레이 장치는 의료 분야와 같이 좋은 해상도의 결과 영상이 필요하고, 무거운 HMD를 착용할 수 없는 특수한 환경에서 사용된다. 또한, 대형 디스플레이 장치는 1대 이상의 프로젝터 또는 CRT와 같은 모니터로 구성된 대형 스크린에 나타나는 3차원 오브젝트를 셔터 안경을 착용한 사용자가 보는 방법으로 구성될 수 있다.Non-HMD is divided into small and large display devices. In this case, the small display device requires a high resolution result image, such as a medical field, and is used in a special environment in which a heavy HMD cannot be worn. In addition, the large display device may be configured in such a manner that a user wearing shutter glasses views a three-dimensional object appearing on a large screen composed of one or more projectors or a monitor such as a CRT.
오디오처리부(16)는 오디오 신호를 재생하거나 또는 마이크(MIC)로부터 입력되는 오디오 신호를 제어부(11)에 전달하는 기능을 수행한다. 이때, 오디오 처리부(16)는 오디오 신호를 스피커(SPK)를 통해 가청음으로 변환하여 출력하고, 마이크(MIC)로부터 수신되는 음성 등의 아날로그 신호를 디지털 신호로 변환하여 출력한다. 특히, 오디오 처리부(15)는 사용자의 요청에 따라 실행되는 컨텐츠에 대한 오디오 데이터 및 단말기(10)의 기능 실행에 따른 경고음이나 효과음 등을 제공할 수 있다.The
저장부(17)는 단말기(10)의 기능 동작에 필요한 응용 프로그램을 저장한다. 이러한 저장부(17)는 크게 프로그램 영역과 데이터 영역을 포함할 수 있다. 특히, 본 발명의 실시 예에 따른 프로그램 영역은 단말기(10)를 부팅시키는 운영체제(OS, Operating System), 사용자의 요청에 따라 컨텐츠를 실행하는 프로그램, 사용자의 눈동자 변화에 따른 근접 여부를 판단하는 프로그램 및 제스처 인식 프로그램 등을 저장한다. 여기서, 단말기(10)는 사용자의 요청에 상응하여 각 기능을 활성화하는 경우, 제어부(11)의 제어 하에 해당 응용 프로그램들을 이용하여 각 기능을 제공하게 된다. 또한, 데이터 영역은 단말기(10)의 사용에 따라 발생하는 데이터가 저장되는 영역이다. 특히, 본 발명의 실시 예에 따른 데이터 영역은 서버로부터 다운로드되는 컨텐츠 및 사용자의 제스처에 대한 데이터 등이 저장될 수 있다. 또한, 저장부(17)는 사용자의 제스처, 특정키 입력 및 음성 입력에 따른 제어 명령을 기 저장하고 있는 것이 바람직하다.The
제어부(11)는 단말기(10)의 각 구성을 초기화하고, 필요한 신호 제어를 수행할 수 있다. 특히, 본 발명의 실시 예에 따른 제어부(11)는 사용자의 요청에 따라 컨텐츠를 실행한다. 여기서, 제어부(11)는 컨텐츠를 선택하고, 선택된 컨텐츠를 표시부(13)에 표시한다.The
제어부(11)는 컨텐츠의 실행 중 센서부(14)를 통해 사용자의 눈동자가 근접하는지 판단한다. 여기서, 제어부(11)는 눈동자를 인식하고, 인식된 눈동자의 변화를 감지하고, 감지된 눈동자의 변화에 따라 근접 여부를 결정할 수 있다. 이때, 눈동자가 근접하면, 제어부(11)는 표시부(13)에 출력되고 있는 컨텐츠의 실행을 오프(off)한다. The
제어부(11)는 컨텐츠를 출력한다. 여기서, 제어부(11)는 컨텐츠의 영상을 확대하고, 확대된 영상을 내부의 가상 스크린에 출력할 수 있다.The
제어부(11)는 내부의 가상 스크린에 컨텐츠를 출력하는 중 제어 명령을 감지한다. 이때, 제어 명령이 감지되면, 제어부(11)는 제어 명령을 분석하고, 분석된 제어 명령을 확인할 수 있다. 즉, 제어부(11)는 사용자의 손에 착용되는 모션 장치(20)로부터 발생하는 적외선을 감지하여 제어 명령을 확인한다. 또한, 제어부(11)는 특정 컨텐츠가 내부의 가상 스크린에 출력되는 중 입력되는 특정키에 대한 신호에 따른 제어 명령을 입력부(12)로부터 전달받을 수 있다. 또한, 제어부(11)는 특정 컨텐츠가 내부의 가상 스크린에 출력되는 중 입력되는 사용자의 음성을 감지하여 제어 명령을 인식할 수 있다.The
제어부(11)는 HMD 기술 또는 Non-HMD 기술이 적용되어, 사용자가 눈앞 정도의 거리에 초점이 형성된 가상 스크린을 보는 것과 같은 형태로 양쪽 눈의 근접한 위치에 설치된 1인치 이하의 LCD 또는 OLED 등의 마이크로 디스플레이에서 발생되는 이미지를 광학시스템을 통해 확대하여 대형 가상 스크린을 형성할 수 있도록 한다.The
제어부(11)는 감지된 제스처에 따라 컨텐츠의 실행을 제어한다. 즉, 제어부(11)는 제어 명령에 따라 컨텐츠의 출력을 제어할 수 있다. 예를 들어, 제어부(11)는 사용자의 제어 명령이 원을 그리는 동작인 경우 컨텐츠의 재생을 정지, 제스처가 좌측에서 우측으로 이동하는 동작인 경우 컨텐츠를 빠르게 재생, 제어 명령이 우측에서 좌측으로 이동하는 동작인 경우 컨텐츠를 느리게 재생, 제어 명령이 아래에서 위로 이동하는 동작인 경우 컨텐츠의 볼륨을 증가 및 제어 명령이 위에서 아래로 이동하는 동작인 경우 컨텐츠의 볼륨을 감소 등과 같이 컨텐츠의 실행을 제어할 수 있다. 한편, 본 발명의 실시 예에 따른 제어 명령은 제시된 출력에 한정된 것이 아니고, 사용자는 제시된 출력 이외에 다양한 제어 명령에 의해 컨텐츠의 실행을 제어할 수 있다.The
제어부(11)는 내부의 가상 스크린에 컨텐츠를 실행하는 중 사용자의 제스처에 의한 제어 명령을 인식하기 위하여 적외선 센서 및 카메라를 활성화 시킬 수 있다. 적외선 센서와 카메라의 기능이 활성화되면, 제어부(11)는 센서부(14)를 통해 제어 명령을 인식할 수 있다. 이때, 제어부(11)는 센서부(14)를 통해 감지되는 적외선의 분석을 통해 제어 명령을 인식하기 위하여 적외선을 스펙트럼 처리하거나 영상 처리할 수 있다.The
제어부(11)는 사용자 눈동자의 멀어짐이 감지되면, 가상 스크린에 출력되는 특정 컨텐츠를 오프하도록 제어할 수 있다. 즉, 제어부(11)는 센서부(14)로부터 눈동자의 근접여부가 판단되면, 판단된 결과에 따라 가상 스크린에 출력되고 있는 특정 컨텐츠의 실행을 오프하고, 특정 컨텐츠를 표시부(13)에 표시할 수 있다.The
도 4는 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이고, 도 5는 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 방법 설명하기 위한 화면 예이다.4 is a flowchart illustrating a user interface providing method of a terminal according to an exemplary embodiment of the present invention, and FIG. 5 is a screen example illustrating a user interface providing method of a terminal according to an exemplary embodiment of the present invention.
도 1 내지 도 5를 참조하면, 본 발명의 실시 예에 따른 단말기(10)의 사용자 인터페이스 제공 방법에 있어서, 제어부(11)는 S11 단계에서 컨텐츠를 선택하여 실행한다. 이때, 제어부(11)는 컨텐츠를 표시부(13)에 실행할 수 있다.1 to 5, in the method of providing a user interface of the terminal 10 according to an exemplary embodiment of the present disclosure, the
컨텐츠를 실행하는 중 제어부(11)는 S13 단계에서 컨텐츠를 출력한다. 이때, 제어부(11)는 사용자 눈동자의 변화에 따른 근접 여부를 판단하여 내부의 가상 스크린에 컨텐츠를 출력할 수 있다. 여기서, 제어부(11)는 표시부(13)에 출력되고 잇는 컨텐츠의 실행을 오프할 수 있다. 예를 들어, 도 5에 도시된 바와 같이 제어부(11)는 사용자에 의해 선택되는 컨텐츠를 내부의 가상 스크린에 출력할 수 있다. 즉, 사용자는 단말기(10)의 내부에 출력되는 컨텐츠를 렌즈부(15)를 통해 타인의 시선으로부터 보호하여 이용할 수 있다. 이에 대한 상세한 설명은 후술되는 도 6에서 설명하기로 한다.While executing the content, the
컨텐츠를 출력하는 중 제어부(11)는 S15 단계에서 모션 장치(20)로부터 제어 명령을 감지한다. 이때, 제어부(11)는 제어 명령의 입력이 감지되는지 판단할 수 있다. 그리고 나서, 제어부(11)는 제어 명령이 감지되면, 제어 명령을 분석하여 분석된 제어 명령을 확인한다. 이에 대한 상세한 설명은 후술되는 도 7에서 설명하기로 한다. 여기서, 본 발명의 실시 예에 따른 제어 명령은 사용자의 제스처, 특정키 입력 및 음성 입력 중 적어도 하나의 입력에 의해 감지될 수 있다.While outputting the content, the
제어 명령이 감지되면, 제어부(11)는 S17 단계에서 제어 명령에 따라 컨텐츠의 실행을 제어한다. 즉, 제어부(11)는 사용자의 손에 착용되는 모션 장치(20)에 따라 제어 명령을 구분하여 컨텐츠의 실행을 제어하여 출력할 수 있다. 또한, 제어부(11)는 사용자의 손동작에 따른 제어 명령을 감지하여 컨텐츠의 출력을 제어할 수 있다. 또한, 제어부(11)는 사용자의 음성 입력 또는 특정키 입력 신호에 따라 제어 명령을 감지하여 컨텐츠의 출력을 제어할 수 있다.If the control command is detected, the
이를 통해 사용자는 공공 장소에서 개인의 사생활을 보호 받을 수 있고, 단말기의 내부의 가상 스크린을 통해 컨텐츠를 제공 받을 수 있기에 이에 따른 흥미를 유발할 수 있고, 사용자의 손에 착용되는 링을 통해 제어 명령을 센싱하는 다양한 입력수단으로 활용할 수 있다.This allows the user to protect his or her privacy in a public place, and can be provided with content through the virtual screen inside the terminal, which can induce interest, and control commands through a ring worn on the user's hand. It can be used as various input means for sensing.
도 6은 도 4의 프로젝트를 통해 컨텐츠를 출력하는 단계를 구체적으로 설명하기 위한 흐름도이다.FIG. 6 is a flowchart for describing in detail a step of outputting content through the project of FIG. 4.
도 1 내지 도 6을 참조하면, 본 발명의 실시 예에 따른 프로젝트를 통해 컨텐츠를 출력하는 단계를 구체적으로 살펴보면, 먼저, 제어부(11)는 S21 단계에서 사용자의 눈동자가 렌즈부(15)에 근접하는지 확인하기 위하여 센서부(14)를 활성화한다. 그리고 나서, 제어부(11)는 S23 단계에서 눈동자가 근접하는지 판단한다. 여기서, 제어부(11)는 사용자의 눈동자를 인식하고, 인식된 눈동자의 변화를 감지한다. 이후, 제어부(11)는 감지된 눈동자의 변화에 따라 근접 여부를 결정한다. 한편, 제어부(11)는 눈동자가 근접하지 않는 경우, 컨텐츠를 표시부(13)에 계속 표시할 수 있다.1 to 6, in detail, the step of outputting content through a project according to an embodiment of the present invention will be described in detail. First, the
눈동자가 근접하는 경우, 제어부(11)는 S24 단계에서 표시부(13)에 출력되고 있는 컨텐츠의 실행을 오프한다. 또한, 제어부(11)는 S25 단계에서 컨텐츠의 영상을 확대한다. 그리고 나서, 제어부(11)는 S27 단계에서 확대된 영상을 내부의 가상 스크린에 출력할 수 있다. 한편, 제어부(11)는 눈동자가 근접하지 않는 경우, 컨텐츠를 표시부(13)에 계속 표시할 수 있다.If the pupil is close, the
도 7은 도 4의 제어 명령을 감지하는 단계를 구체적으로 설명하기 위한 흐름도이다.FIG. 7 is a flowchart for describing a step of detecting the control command of FIG. 4 in detail.
도 1 내지 도 7을 참조하면, 본 발명의 실시 예에 따른 제어 명령을 감지하는 단계를 구체적으로 살펴보면, 먼저, 제어부(11)는 S31 단계에서 센서부(14)를 통해 사용자가 착용한 모션 장치(20)로부터 발생하는 적외선을 감지한다. 이때, 적외선이 감지되면, 제어부(11)는 S33 단계에서 적외선이 변화하는지 판단한다. 즉, 제어부(11)는 사용자의 손에 착용되는 모션 장치(20)로부터 방출되는 적외선의 변화를 인식할 수 있다. 한편, 제어부(11)는 적외선 변화가 감지되지 않으면, 적외선이 감지되는지 계속 확인한다.Referring to FIGS. 1 to 7, the step of detecting a control command according to an embodiment of the present invention will be described in detail. First, the
적외선 변화가 감지되면, 제어부(11)는 S35 단계에서 감지된 적외선을 분석한다. 예를 들어, 제어부(11)는 사용자의 제스처에 따른 제어 명령이 좌측에서 우측으로 이동, 우측에서 좌측으로 이동, 아래에서 위로 이동, 위에서 아래로 이동 및 원을 그리는 형태 등을 감지할 수 있다. 이때, 단말기(10)는 사용자의 동작에 따른 제어 명령을 저장부(17)에 저장하고 있는 것이 바람직하다. 또한, 본 발명의 실시 예에 따른 제어부(11)는 특정 컨텐츠가 내부의 가상 스크린에 출력되는 중 입력되는 특정키 또는 음성 입력에 대한 신호에 따라 제어 명령을 인식할 수도 있다.When the infrared change is detected, the
제스처가 분석되면, 제어부(11)는 S37 단계에서 분석된 제어 명령에 따라 컨텐츠의 실행을 제어하여 출력한다. 예를 들어, 제어부(11)는 사용자의 제스처에 따른 제어 명령이 원을 그리는 동작인 경우 컨텐츠의 재생을 정지, 제스처가 좌측에서 우측으로 이동하는 동작인 경우 컨텐츠를 빠르게 재생, 제어 명령이 우측에서 좌측으로 이동하는 동작인 경우 컨텐츠를 느리게 재생, 제어 명령이 아래에서 위로 이동하는 동작인 경우 컨텐츠의 볼륨을 증가 및 제어 명령이 위에서 아래로 이동하는 동작인 경우 컨텐츠의 볼륨을 감소 등과 같이 컨텐츠의 실행을 제어할 수 있다.If the gesture is analyzed, the
또한, 본 발명의 실시 예에 따른 제어 명령을 감지하는 단계에 있어서, 단말기(10)는 사용자의 제스처에 의해 감지되는 적외선을 직접 센싱할 수 있다. 즉, 단말기(10)는 적외선을 발생하는 모션 장치(20)를 착용하지 않은 사용자의 제스처에 따른 제어 명령을 인식하여 컨텐츠 실행을 제어하여 출력할 수 있다. 이를 상세하게 설명하면, 단말기(10)는 내부의 가상 스크린에 컨텐츠를 실행 중 사용자의 제스처에 따른 제어 명령을 인식하기 위하여 적외선 센서 및 카메라를 활성화 시킬 수 있다. 적외선 센서와 카메라의 기능이 활성화되면, 단말기(10)는 제어 명령을 인식할 수 있다. 이후, 단말기(10)는 인식된 제어 명령에 따라 해당되는 컨텐츠의 실행을 제어할 수 있다.In addition, in the detecting of the control command according to an exemplary embodiment of the present disclosure, the terminal 10 may directly sense infrared rays detected by a user's gesture. That is, the terminal 10 may recognize a control command according to a gesture of a user who does not wear the
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples for clarity and are not intended to limit the scope of the present invention. It is apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.
본 발명은 이동통신 단말기, PMP, PDA, 노트북 및 MP3 플레이어와 같은 다양한 종류의 사용자 장치에 적용되어, 단말기는 사용자의 요청에 따라 특정 컨텐츠를 실행하고, 컨텐츠를 내부의 가상스크린에 출력 중 제어 명령에 따라 컨텐츠의 실행을 제어함으로써, 사용자는 공공 장소에서 컨텐츠를 이용 중 타인의 시선으로부터 개인의 사생활을 보호 받을 수 있고, 단말기의 내부에 가상 스크린을 통해 컨텐츠를 제공 받을 수 있기에 이에 따른 흥미를 유발할 수 있고, 사용자의 제스처에 따라 발생하는 제어 명령을 감지하여 다양한 입력수단으로 활용할 수 있다.The present invention is applied to various types of user devices such as mobile communication terminals, PMPs, PDAs, notebook computers, and MP3 players, and the terminal executes specific contents according to a user's request, and outputs the contents to a virtual screen therein. By controlling the execution of the content according to the user, the user can protect his or her privacy from the eyes of others while using the content in a public place, and the content can be provided through a virtual screen inside the terminal, thereby causing interest. In addition, the control command generated according to the user's gesture can be detected and used as various input means.
10: 단말기
11: 제어부
12: 입력부
13: 표시부
14: 센서부
15: 렌즈부
16: 오디오처리부
17: 저장부
18: 통신부
20: 모션 장치
100: 사생활 보호 시스템10: terminal
11: control unit
12: input unit
13: display
14: sensor unit
15: lens unit
16: audio processor
17: storage
18: communication unit
20: motion device
100: privacy system
Claims (15)
상기 특정 컨텐츠를 실행하고, 상기 실행된 특정 컨텐츠를 내부의 가상 스크린에 출력하는 제어부;
를 포함하는 것을 특징으로 하는 단말기.A lens unit for checking a specific content by a user; And
A control unit which executes the specific content and outputs the executed specific content to an internal virtual screen;
And a second terminal.
상기 사용자의 눈동자가 근접하는지 감지하는 센서부;
를 더 포함하고,
상기 제어부는 상기 센서부를 통해 상기 눈동자의 근접이 확인되면, 상기 특정 컨텐츠를 상기 가상스크린에 출력하는 것을 특징으로 하는 단말기.The method of claim 1,
A sensor unit which detects whether the pupil of the user is close;
Further comprising:
The controller, if the proximity of the pupil is confirmed through the sensor unit, characterized in that for outputting the specific content on the virtual screen.
상기 특정 컨텐츠를 표시하는 표시부;
를 더 포함하고,
상기 제어부는 상기 눈동자가 근접하는 경우, 상기 표시부를 제어하여 상기 특정 컨텐츠의 표시를 오프하는 것을 특징으로 하는 단말기.The method of claim 2,
A display unit displaying the specific content;
Further comprising:
And the controller controls the display unit to turn off the display of the specific content when the pupils are in proximity.
상기 사용자의 제스처 입력을 더 감지하며,
상기 제어부는 상기 센서부를 통해 감지되는 상기 제스처 입력에 대응하는 제어 명령에 따라 상기 특정 컨텐츠의 실행을 제어하는 것을 특징으로 하는 단말기.The method of claim 2, wherein the sensor unit
Further detecting a gesture input of the user,
And the controller controls execution of the specific content according to a control command corresponding to the gesture input detected through the sensor unit.
상기 사용자의 손에 착용되는 링 타입 또는 밴드 타입의 모션 장치로부터 발생하는 적외선을 감지하여 상기 제어부로 전달하는 것을 특징으로 하는 단말기.The method of claim 4, wherein the sensor unit
And detecting infrared rays generated from a ring type or band type motion device worn on the user's hand and transmitting the detected infrared rays to the controller.
상기 특정 컨텐츠를 확인할 수 있는 오목렌즈, 볼록렌즈 및 입체렌즈 중 적어도 하나의 렌즈로 구성되는 것을 특징으로 하는 단말기.The method of claim 1, wherein the lens unit
And at least one of a concave lens, a convex lens, and a three-dimensional lens for identifying the specific content.
상기 단말기가 상기 선택된 특정 컨텐츠를 실행하는 단계; 및
상기 단말기가 상기 특정 컨텐츠의 실행에 따라 상기 특정 컨텐츠를 내부의 가상 스크린에 출력하는 단계;
를 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.Selecting specific content in the terminal;
Executing, by the terminal, the selected specific content; And
Outputting, by the terminal, the specific content to an internal virtual screen according to execution of the specific content;
User interface method of the terminal comprising a.
상기 단말기가 상기 특정 컨텐츠를 표시부에 표시하는 단계;
상기 단말기가 상기 특정 컨텐츠를 표시 중 사용자의 눈동자가 상기 단말기에 근접하는지 판단하는 단계; 및
상기 단말기가 상기 눈동자의 근접에 따라 상기 특정 컨텐츠의 표시를 오프하는 단계;
를 더 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.8. The method of claim 7, wherein said executing is
Displaying, by the terminal, the specific content on a display unit;
Determining, by the terminal, whether a user's eyes are close to the terminal while displaying the specific content; And
The terminal turning off the display of the specific content according to the proximity of the pupil;
The user interface method of the terminal further comprising.
상기 단말기가 상기 눈동자를 인식하는 단계;
상기 단말기가 상기 인식된 눈동자의 근접 여부를 분석하는 단계; 및
상기 단말기가 상기 분석 결과에 따라 상기 근접 여부를 결정하는 단계;
를 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.The method of claim 8, wherein the determining step
Recognizing the pupil by the terminal;
Analyzing, by the terminal, whether the recognized pupil is close; And
Determining, by the terminal, whether the proximity is based on the analysis result;
User interface method of the terminal comprising a.
상기 단말기가 상기 특정 컨텐츠의 영상을 확대하는 단계; 및
상기 단말기가 상기 확대된 영상을 상기 가상 스크린에 출력하는 단계;
를 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.The method of claim 7, wherein the outputting step
Enlarging the image of the specific content by the terminal; And
Outputting, by the terminal, the enlarged image to the virtual screen;
User interface method of the terminal comprising a.
상기 단말기가 제어 명령을 감지하는 단계; 및
상기 단말기가 상기 감지된 제어 명령에 따라 상기 특정 컨텐츠의 출력을 제어하는 단계;
를 더 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.8. The method of claim 7, wherein after the outputting step
Detecting, by the terminal, a control command; And
Controlling, by the terminal, the output of the specific content according to the sensed control command;
The user interface method of the terminal further comprising.
제스처 입력, 특정키 입력 및 음성 입력 중 적어도 하나의 입력에 의해 감지되는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.The method of claim 11, wherein the control command
The user interface method of the terminal, characterized in that detected by at least one input of the gesture input, a specific key input and a voice input.
상기 단말기가 상기 제어 명령이 입력되는지 판단하는 단계;
상기 제어 명령이 입력되면, 상기 단말기가 상기 제어 명령을 분석하는 단계; 및
상기 단말기가 상기 분석된 제어 명령을 확인하는 단계;
를 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.The method of claim 11, wherein the detecting step
Determining, by the terminal, whether the control command is input;
Analyzing, by the terminal, the control command when the control command is input; And
Confirming, by the terminal, the analyzed control command;
User interface method of the terminal comprising a.
상기 단말기가 상기 제어 명령에 따라 상기 특정 컨텐츠를 빠르게 재생, 느리게 재생, 볼륨을 증가 및 볼륨을 감소 중 적어도 하나의 출력을 제어하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.12. The method of claim 11 wherein the controlling step
And the terminal controls the output of at least one of playing the specific content quickly, playing slowly, increasing the volume, and decreasing the volume according to the control command.
상기 단말기는 상기 눈동자가 상기 단말기에서 멀어짐을 감지하는 단계; 및
상기 눈동자가 멀어지면, 상기 단말기가 상기 가상 스크린에 출력되는 상기 특정 컨텐츠를 오프하는 단계;
를 더 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.The method of claim 8, wherein after the outputting step
The terminal detecting that the pupil moves away from the terminal; And
If the pupil is far from the terminal, turning off the specific content output on the virtual screen;
The user interface method of the terminal further comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100032139A KR101250224B1 (en) | 2010-04-08 | 2010-04-08 | Method for providing contents user interface and terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100032139A KR101250224B1 (en) | 2010-04-08 | 2010-04-08 | Method for providing contents user interface and terminal |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110112919A true KR20110112919A (en) | 2011-10-14 |
KR101250224B1 KR101250224B1 (en) | 2013-04-05 |
Family
ID=45028413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100032139A KR101250224B1 (en) | 2010-04-08 | 2010-04-08 | Method for providing contents user interface and terminal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101250224B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190108466A (en) * | 2018-10-18 | 2019-09-24 | 장명호 | Display control device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101591089B1 (en) * | 2009-04-08 | 2016-02-02 | 엘지전자 주식회사 | Moblie terminal and method for controlling the same |
-
2010
- 2010-04-08 KR KR1020100032139A patent/KR101250224B1/en not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190108466A (en) * | 2018-10-18 | 2019-09-24 | 장명호 | Display control device |
Also Published As
Publication number | Publication date |
---|---|
KR101250224B1 (en) | 2013-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10495878B2 (en) | Mobile terminal and controlling method thereof | |
EP3411780B1 (en) | Intelligent electronic device and method of operating the same | |
US20190370525A1 (en) | Fingerprint recognition method, electronic device, and storage medium | |
JP6557730B2 (en) | Method and device for irradiating light for photographing iris | |
US11087116B2 (en) | Method and apparatus for determining fingerprint collection region | |
KR20170110965A (en) | Electronic device and method for provideing information in the electronic device | |
KR20170110967A (en) | Electronic device and method for provideing information in the electronic device | |
CN104137118A (en) | Enhanced face recognition in video | |
JP2014086063A (en) | Electronic apparatus, sight line input program and sight line input method | |
US20120229509A1 (en) | System and method for user interaction | |
KR102656528B1 (en) | Electronic device, external electronic device and method for connecting between electronic device and external electronic device | |
CN112044065B (en) | Virtual resource display method, device, equipment and storage medium | |
KR102452314B1 (en) | Method fog playing content and electronic device thereof | |
JP2014142851A (en) | Electronic apparatus, line-of-sight input program, and line-of-sight input method | |
JP5976787B2 (en) | Laser diode mode | |
KR102271184B1 (en) | Video projector and operating method thereof | |
CN109151176A (en) | A kind of information acquisition method and terminal | |
US20210405773A1 (en) | Method and apparatus for detecting orientation of electronic device, and storage medium | |
KR102077665B1 (en) | Virtual movile device implementing system and control method for the same in mixed reality | |
KR20190134975A (en) | Augmented realtity device for rendering a list of apps or skills of artificial intelligence system and method of operating the same | |
KR102656425B1 (en) | Electronic apparatus and method for displaying an image | |
US11164024B2 (en) | Method, apparatus and storage medium for controlling image acquisition component | |
KR101250224B1 (en) | Method for providing contents user interface and terminal | |
CN113168257B (en) | Method for locking touch operation and electronic equipment | |
KR101695695B1 (en) | Mobile terminal and method for controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160302 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170228 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |