KR20110112919A - Method for providing contents user interface and terminal - Google Patents

Method for providing contents user interface and terminal Download PDF

Info

Publication number
KR20110112919A
KR20110112919A KR1020100032139A KR20100032139A KR20110112919A KR 20110112919 A KR20110112919 A KR 20110112919A KR 1020100032139 A KR1020100032139 A KR 1020100032139A KR 20100032139 A KR20100032139 A KR 20100032139A KR 20110112919 A KR20110112919 A KR 20110112919A
Authority
KR
South Korea
Prior art keywords
terminal
specific content
user
control command
content
Prior art date
Application number
KR1020100032139A
Other languages
Korean (ko)
Other versions
KR101250224B1 (en
Inventor
홍상우
신상희
유병철
임민주
김정윤
이유종
박명순
강석훈
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020100032139A priority Critical patent/KR101250224B1/en
Publication of KR20110112919A publication Critical patent/KR20110112919A/en
Application granted granted Critical
Publication of KR101250224B1 publication Critical patent/KR101250224B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Abstract

본 발명은 단말기의 사용자 인터페이스 제공 방법 및 시스템에 관한 것으로, 단말기는 사용자의 요청에 따라 컨텐츠를 실행하고, 실행된 컨텐츠를 내부의 가상 스크린에 출력 중 제어 명령에 따라 컨텐츠의 실행을 제어한다. 이를 통해 사용자는 공공 장소에서 컨텐츠를 실행 중 타인의 시선으로부터 개인의 사생활을 보호 받을 수 있고, 단말기의 내부에 가상 스크린을 통해 컨텐츠를 제공 받을 수 있기에 이에 따른 흥미를 유발할 수 있고, 사용자에 의해 발생하는 제어 명령을 감지하여 다양한 입력수단으로 활용할 수 있다.The present invention relates to a method and a system for providing a user interface of a terminal, wherein the terminal executes content according to a user's request, and controls execution of the content according to a control command while outputting the executed content on a virtual screen therein. This allows the user to protect his or her privacy from the eyes of others while the content is being executed in a public place, and the user can be provided with the content through a virtual screen inside the terminal, thereby inducing interest accordingly. It can be used as various input means by detecting a control command.

Description

컨텐츠를 제공하는 사용자 인터페이스 방법 및 단말기 {Method for providing contents user interface and terminal}Method for providing contents user interface and terminal {Method for providing contents user interface and terminal}

본 발명은 사용자 인터페이스 제공 방법 및 단말기에 관한 것으로, 더욱 상세하게는 단말기는 사용자의 요청에 따라 컨텐츠를 실행하고, 실행된 컨텐츠를 내부의 가상 스크린에 출력 중 제스처의 입력에 따라 컨텐츠의 실행을 제어할 수 있는 컨텐츠를 제공하는 사용자 인터페이스 제공 방법 및 단말기에 관한 것이다.The present invention relates to a method and a terminal for providing a user interface, and more particularly, a terminal executes content according to a user's request, and controls execution of the content according to a gesture input while outputting the executed content on a virtual screen therein. The present invention relates to a method and a terminal for providing a user interface for providing contents.

최근에 단말기와 관련된 기술이 발달하고, 그 보급이 확산되면서 단말기는 개인의 필수품이 되고 있다. 또한, 단말기의 보급이 일반화되면서 사업자들은 사용자들의 욕구를 충족시키기 위한 다양한 서비스를 제공하고 있다. 예를 들면, 현재 이동통신 서비스 사업자들은 이동통신망을 통해 주요 기능인 발신자와 수신자 사이의 통화 기능뿐만 아니라 카메라 기능, 디지털 방송 재생 서비스, 무선 인터넷 서비스, 단문 메시지 서비스(SMS, Short Message Service), 멀티미디어 메시지 서비스(MMS, Multimedia Message Service)등의 다양한 기능 및 서비스를 단말기에 접목하여 제공하고 있다. 특히, 근래의 단말기 관련 서비스는 제시된 기능 및 서비스를 비롯하여, 사용자의 기호에 맞도록 다양한 부가 서비스를 제공하고 있다. 이러한 부가 서비스를 제공하는 단말기의 사용자는 통상적으로 단말기에 마련된 키 패드, 터치스크린, 조이스틱, 스크롤 휠 등의 입력 수단을 이용하여 단말기를 조작하거나 단말기에 필요한 정보를 입력한다.Recently, with the development of technology related to the terminal and its spread, the terminal has become a necessity of the individual. In addition, with the spread of terminals, operators have provided various services to meet the needs of users. For example, mobile service providers currently use camera functions, digital broadcast playback services, wireless Internet services, short message services (SMS), multimedia messages, as well as calling functions between the sender and receiver, which are the main functions through the mobile network. It provides various functions and services such as services (MMS, Multimedia Message Service) to the terminal. In particular, recent terminal-related services, including the proposed functions and services, provide a variety of additional services to suit the user's preferences. A user of a terminal providing such an additional service typically operates a terminal or inputs necessary information into the terminal using input means such as a keypad, a touch screen, a joystick, and a scroll wheel provided in the terminal.

그러나 사용자는 단말기의 이러한 기능들을 실행하는 중에 타인으로부터 화면에 노출되어 개인 사생활 침해를 받을 수 있다.However, the user may be exposed to the screen from others while violating personal privacy while executing these functions of the terminal.

이러한 종래의 문제점을 해결하기 위하여, 본 발명의 목적은 단말기를 사용하는 사용자의 사생활을 보호하기 위하여 내부의 가상 스크린에 컨텐츠를 출력함으로써, 사용자만이 컨텐츠의 실행에 따른 화면을 볼 수 있는 사용자 인터페이스 제공 방법 및 단말기를 제공하고자 한다.In order to solve such a conventional problem, an object of the present invention is to output the content on the virtual screen inside to protect the privacy of the user using the terminal, so that only the user can view the screen according to the execution of the content It is intended to provide a method and a terminal.

또한, 본 발명의 목적은 컨텐츠의 실행에 대한 다양한 입력 수단으로 사용자의 제스처, 특정키 입력 또는 음성 입력과 같은 제어 명령을 센싱하여 컨텐츠의 실행을 제어하는 사용자 인터페이스 방법 및 단말기를 제공하고자 한다.Another object of the present invention is to provide a user interface method and a terminal for controlling the execution of content by sensing a control command such as a gesture, a specific key input or a voice input of a user with various input means for executing the content.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 단말기에 있어서, 사용자가 특정 컨텐츠를 확인하는 렌즈부 및 특정 컨텐츠를 실행하고, 실행된 특정 컨텐츠를 내부의 가상 스크린에 출력하는 제어부를 포함하는 것을 특징으로 한다.In the terminal of the present invention for achieving the above object, the user includes a lens unit for confirming the specific content and a control unit for executing the specific content, and outputs the executed specific content on the virtual screen therein; It is done.

본 발명에 따른 단말기에 있어서, 사용자의 눈동자가 근접하는지 감지하는 센서부를 더 포함하고, 제어부는 센서부를 통해 눈동자의 근접이 확인되면, 특정 컨텐츠를 가상스크린에 출력하는 것을 특징으로 한다.The terminal according to the present invention further includes a sensor unit for detecting whether a user's pupils are in proximity, and when the proximity of the pupils is confirmed through the sensor unit, the controller outputs specific content to the virtual screen.

본 발명에 따른 단말기는 특정 컨텐츠를 표시하는 표시부를 더 포함하고, 제어부는 눈동자가 근접하는 경우 표시부를 제어하여 특정 컨텐츠의 표시를 오프하는 것을 특징으로 한다.The terminal according to the present invention further includes a display unit for displaying specific content, and the controller is configured to turn off the display of the specific content by controlling the display unit when the pupils are in close proximity.

본 발명에 따른 단말기에 있어서, 센서부는 사용자의 제스처 입력을 더 감지하며, 제어부는 센서부를 통해 감지되는 제스처의 입력에 대응하는 제어 명령에 따라 특정 컨텐츠의 실행을 제어하는 것을 특징으로 한다.In the terminal according to the present invention, the sensor unit further detects a user's gesture input, and the controller controls the execution of specific content according to a control command corresponding to the input of the gesture detected through the sensor unit.

본 발명에 따른 단말기에 있어서, 센서부는 사용자의 손에 착용되는 링 타입 또는 밴드 타입의 모션 장치로부터 발생하는 적외선을 감지하여 제어부로 전달하는 것을 특징으로 한다.In the terminal according to the present invention, the sensor unit detects infrared rays generated from a ring type or band type motion device worn on the user's hand, and transmits the detected infrared rays to the control unit.

본 발명에 따른 단말기에 있어서, 렌즈부는 특정 컨텐츠를 확인할 수 있는 오목렌즈, 볼록렌즈 및 입체렌즈 중 적어도 하나의 렌즈로 구성되는 것을 특징으로 한다.In the terminal according to the present invention, the lens unit is characterized by consisting of at least one lens of the concave lens, the convex lens and the three-dimensional lens that can identify the specific content.

본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 단말기에서 특정 컨텐츠가 선택되는 단계와, 단말기가 선택된 특정 컨텐츠를 실행하는 단계 및 단말기가 특정 컨텐츠의 실행에 따라 특정 컨텐츠를 내부의 가상 스크린에 출력하는 단계를 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the step of selecting a specific content in the terminal, the step of executing the specific content selected by the terminal and the terminal outputs the specific content on the virtual screen in accordance with the execution of the specific content Characterized in that it comprises a step.

본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 실행하는 단계는 단말기가 특정 컨텐츠를 표시부에 표시하는 단계와, 단말기가 특정 컨텐츠를 표시 중 사용자의 눈동자가 단말기에 근접하는지 판단하는 단계 및 단말기가 눈동자의 근접에 따라 특정 컨텐츠의 표시를 오프하는 단계를 더 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the step of executing the terminal displays the specific content on the display unit, the terminal determines whether the user's eyes are close to the terminal while displaying the specific content, and the terminal pupil The method may further include turning off the display of the specific content according to the proximity of.

본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 판단하는 단계는 단말기가 눈동자를 인식하는 단계와, 단말기가 인식된 눈동자의 근접 여부를 분석하는 단계 및 단말기가 분석 결과에 따라 근접 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the determining may include the steps of the terminal recognizing the pupil, the step of analyzing the proximity of the pupil recognized by the terminal, and the determination of the proximity according to the analysis result. Characterized in that it comprises a.

본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 출력하는 단계는 단말기가 특정 컨텐츠의 영상을 확대하는 단계 및 단말기가 확대된 영상을 가상 스크린에 출력하는 단계를 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the outputting step includes the step of the terminal enlarging an image of a specific content and the step of outputting the enlarged image of the terminal to a virtual screen.

본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 출력하는 단계는 가상 스크린에 특정 컨텐츠가 출력되면, 단말기가 표시부에 표시되는 특정 컨텐츠의 출력을 오프하는 단계를 더 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the outputting step further comprises the step of turning off the output of the specific content displayed on the display unit when the specific content is output on the virtual screen.

본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 출력하는 단계 이후에 단말기가 제어 명령을 감지하는 단계 및 단말기가 감지된 제어 명령에 따라 특정 컨텐츠의 출력을 제어하는 단계를 더 포함하는 것을 특징으로 한다.A user interface method of a terminal according to the present invention, after the outputting step, the terminal detects a control command and the terminal further comprises the step of controlling the output of the specific content according to the detected control command. .

본 발명에 따른 단말기의 사용자 인터페이스 제공 방법에 있어서, 제어 명령은 제스처 입력, 특정키 입력 및 음성 입력 중 적어도 하나의 입력에 의해 감지되는 것을 특징으로 한다.In the method for providing a user interface of a terminal according to the present invention, the control command is characterized by being detected by at least one of a gesture input, a specific key input, and a voice input.

본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 감지하는 단계는 단말기가 제어 명령이 입력되는지 판단하는 단계와, 제어 명령이 입력되면, 단말기가 제어 명령을 분석하는 단계 및 단말기가 분석된 제어 명령을 확인하는 단계를 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the detecting may include: determining whether a control command is input by the terminal; when the control command is input, analyzing the control command by the terminal; Characterized in that it comprises a step of identifying.

본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 제어하는 단계는 단말기가 제어 명령에 따라 특정 컨텐츠를 빠르게 재생, 느리게 재생, 볼륨을 증가 및 볼륨을 감소 중 적어도 하나의 출력을 제어하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, the controlling step is characterized in that the terminal controls the output of at least one of fast playing, slow playing, increasing volume and decreasing volume according to a control command. .

본 발명에 따른 단말기의 사용자 인터페이스 방법에 있어서, 출력하는 단계 이후에 단말기는 눈동자가 단말기에서 멀어짐을 감지하는 단계 및 눈동자가 멀어지면, 단말기가 가상 스크린에 출력되는 특정 컨텐츠를 오프하는 단계를 더 포함하는 것을 특징으로 한다.In the user interface method of the terminal according to the present invention, after the outputting step, the terminal further comprises the step of detecting the pupil away from the terminal and if the pupil away, the terminal further comprises the step of turning off the specific content output on the virtual screen Characterized in that.

본 발명에 따르면, 단말기의 사용자는 공공 장소에서 컨텐츠를 이용하는 중 타인의 시선으로부터 컨텐츠의 화면이 보여지는 것을 방지하여 개인의 사생활을 보호 받을 수 있다.According to the present invention, the user of the terminal can protect the privacy of the individual by preventing the screen of the content from being viewed by others while using the content in a public place.

또한, 사용자는 단말기 내부의 가상 스크린을 통해 컨텐츠를 제공 받을 수 있기에 컨텐츠 이용에 따른 흥미를 증가할 수 있다.In addition, since the user may be provided with content through a virtual screen inside the terminal, the user may increase interest in using the content.

또한, 단말기는 컨텐츠 실행 중 사용자에 의해 발생하는 제스처에 따른 제어 명령을 감지하고, 감지된 제스처를 다양한 입력수단으로 적용하여 컨텐츠 실행을 제어함으로써, 사용자의 컨텐츠 이용에 대한 재미를 증가 시킬 수 있다.In addition, the terminal detects a control command according to a gesture generated by the user while executing the content and controls the execution of the content by applying the detected gesture to various input means, thereby increasing the fun of the user.

도 1은 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 시스템을 나타내는 구성도이다.
도 2는 본 발명의 실시 예에 따른 단말기의 구성을 나타내는 도면이다.
도 3은 본 발명의 실시 예에 따른 단말기의 개략적인 구성을 나타내는 블록도이다.
도 4는 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 방법 설명하기 위한 화면 예이다.
도 6은 도4의 컨텐츠를 출력하는 단계를 구체적으로 설명하기 위한 흐름도이다.
도 7은 도 4의 제어 명령을 감지하는 단계를 구체적으로 설명하기 위한 흐름도이다.
1 is a block diagram illustrating a system for providing a user interface of a terminal according to an exemplary embodiment of the present invention.
2 is a diagram illustrating a configuration of a terminal according to an exemplary embodiment of the present invention.
3 is a block diagram illustrating a schematic configuration of a terminal according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a user interface providing method of a terminal according to an exemplary embodiment of the present invention.
5 is a screen example for explaining a user interface providing method of a terminal according to an exemplary embodiment of the present invention.
FIG. 6 is a flowchart for describing in detail a step of outputting the content of FIG. 4.
FIG. 7 is a flowchart for describing a step of detecting the control command of FIG. 4 in detail.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, in the following description and the accompanying drawings, detailed descriptions of well-known functions or configurations that may obscure the subject matter of the present invention will be omitted. In addition, it should be noted that like elements are denoted by the same reference numerals as much as possible throughout the drawings.

이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms or words used in the specification and claims described below should not be construed as being limited to the ordinary or dictionary meanings, and the inventors are appropriate to the concept of terms in order to explain their invention in the best way. It should be interpreted as meanings and concepts in accordance with the technical spirit of the present invention based on the principle that it can be defined. Therefore, the embodiments described in the present specification and the configuration shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all of the technical ideas of the present invention, and various alternatives may be substituted at the time of the present application. It should be understood that there may be equivalents and variations.

이하에서 본 발명의 실시 예에 따른 단말기는 사용자의 제어 명령을 인식하고, 사용자 인터페이스를 제공하기 위하여 이동통신망을 이용하는 형태의 이동통신 단말기를 대표적인 예로서 설명하지만 단말기는 이동통신 단말기에 한정된 것이 아니고, 모든 정보통신기기 및 멀티미디어 기기와, 그에 대한 응용에도 적용될 수 있음은 자명할 것이다.Hereinafter, a terminal according to an embodiment of the present invention will be described as a representative example of a mobile communication terminal using a mobile communication network to recognize a user's control command and provide a user interface, but the terminal is not limited to the mobile communication terminal, It will be apparent that the present invention can be applied to all information and communication devices and multimedia devices and applications thereof.

도 1은 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 시스템을 나타내는 구성도이고, 도 2는 본 발명의 실시 예에 따른 단말기의 구성을 나타내는 도면이다.1 is a block diagram showing a system for providing a user interface of a terminal according to an embodiment of the present invention, Figure 2 is a view showing the configuration of a terminal according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 발명의 실시 예에 따른 단말기(10)의 사용자 인터페이스 제공 시스템(이하, 사생활 보호 시스템(100))은 사용자에 의해 선택되는 컨텐츠를 내부의 가상 스크린에 출력하는 중 모션 장치(20)를 착용한 사용자의 제스처, 특정키 입력 또는 음성 입력에 의해 발생하는 제어 명령에 따라 컨텐츠의 실행을 제어한다.1 and 2, a system for providing a user interface of a terminal 10 (hereinafter, the privacy protection system 100) according to an embodiment of the present invention outputs content selected by a user to a virtual screen therein. The execution of the content is controlled according to a control command generated by a gesture, a specific key input, or a voice input of a user wearing the heavy motion device 20.

단말기(10)는 사용자의 요청에 따라 컨텐츠를 실행한다. 이때, 단말기(10)는 사생활 보호를 위해 내부의 가상 스크린에 컨텐츠를 출력할 수 있다. 그리고 나서, 단말기(10)는 모션 장치(20)로부터 감지되는 적외선을 분석하고, 분석된 적외선에 따라 제어 명령을 확인하여 컨텐츠의 실행을 제어할 수 있다. 이때, 도 2에 도시된 바와 같이 단말기(10)는 사용자가 내부의 가상 스크린을 볼 수 있는 렌즈부(15)를 포함할 수 있다. 즉, 사용자는 렌즈부(15)를 이용하여 단말기(10)의 내부에 출력되는 컨텐츠를 타인의 시선에 대한 방해 없이 이용할 수 있다.The terminal 10 executes the content at the request of the user. At this time, the terminal 10 may output the content on the virtual screen inside for privacy protection. Then, the terminal 10 may analyze the infrared rays sensed by the motion device 20 and check the control command according to the analyzed infrared rays to control the execution of the content. In this case, as shown in FIG. 2, the terminal 10 may include a lens unit 15 through which a user may view an internal virtual screen. That is, the user may use the content output inside the terminal 10 using the lens unit 15 without disturbing the eyes of others.

단말기(10)는 컨텐츠를 내부의 가상 스크린에 실행하는 중 사용자의 제스처를 인식하여 컨텐츠의 실행을 제어할 수 있다.The terminal 10 may control the execution of the content by recognizing a gesture of the user while executing the content on the virtual screen therein.

모션 장치(20)는 사용자가 간편하게 착용할 수 있는 반지 또는 팔찌 형태의 링(Ring) 타입으로 제조되어 사용자의 손가락이나 손목에 착용될 수 있고, 밴드(Band) 타입으로 제조되어 반창고처럼 부착되어 비 가시광선 영역의 빛을 발광한다. 여기서, 모션 장치(20)가 적외선을 발광하는 물체인 경우, 단말기(10)는 모션 장치(20)로부터 발광되는 적외선을 감지하기 위하여 적외선 센서 또는 적외선 카메라를 구비하는 것이 바람직하다.The motion device 20 is manufactured in a ring or bracelet type that can be easily worn by a user and can be worn on a user's finger or wrist. The motion device 20 is manufactured in a band type and attached like a band-aid. It emits light in the visible region. Here, when the motion device 20 is an object that emits infrared rays, the terminal 10 preferably includes an infrared sensor or an infrared camera to detect infrared light emitted from the motion device 20.

도 3은 본 발명의 실시 예에 따른 단말기의 개략적인 구성을 나타내는 블록도이다.3 is a block diagram illustrating a schematic configuration of a terminal according to an exemplary embodiment of the present invention.

도 1 내지 도 3을 참조하면, 본 발명의 실시 예에 따른 프로젝트 기능을 구비한 단말기(10)는 제어부(11), 입력부(12), 표시부(13), 센서부(14), 렌즈부(15), 오디오처리부(16), 저장부(17) 및 통신부(18)를 포함하여 구성된다.1 to 3, a terminal 10 having a project function according to an embodiment of the present invention includes a control unit 11, an input unit 12, a display unit 13, a sensor unit 14, and a lens unit ( 15), an audio processing unit 16, a storage unit 17 and a communication unit 18.

통신부(18)는 단말기(10)의 통신을 수행하는 기능을 한다. 예를 들면, 통신부(18)는 음성통신 및 화상통신을 비롯한 데이터 통신을 수행한다. 여기서, 통신부(18)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF 송신부와 수신되는 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF 수신부 등을 포함한다. 특히, 본 발명의 실시 예에 따른 통신부(18)는 사용자의 요청에 따라 서버로부터 컨텐츠를 다운로드 할 수 있다.The communication unit 18 functions to perform communication of the terminal 10. For example, the communication unit 18 performs data communication including voice communication and video communication. Here, the communication unit 18 includes an RF transmitter for up-converting and amplifying the frequency of the transmitted signal, and an RF receiver for low-noise-amplifying and down-converting the received signal. In particular, the communication unit 18 according to an embodiment of the present invention may download the content from the server at the request of the user.

입력부(12)는 숫자 또는 문자 정보를 입력 받고, 각종 기능들을 설정하기 위한 다수의 입력키 및 기능키들을 포함한다. 이때, 기능키들은 특정 기능을 수행하도록 설정된 방향키, 사이드 키 및 단축키 등을 포함할 수 있다. 또한, 입력부(12)는 사용자 설정 및 제어부(11)의 기능 제어와 관련하여 입력되는 키 신호를 생성하고, 이를 제어부(11)로 전달한다. 특히, 본 발명의 실시 예에 따른 입력부(12)는 컨텐츠를 실행하는 입력 신호 및 컨텐츠를 내부의 가상 스크린에 출력하는 입력 신호 등을 제어부(11)로 전달할 수 있다. 또한, 입력부(12)는 특정 컨텐츠가 내부의 가상 스크린에 출력되는 중 입력되는 특정키에 대한 신호를 제어부(11)로 전달한다. The input unit 12 receives a number or character information and includes a plurality of input keys and function keys for setting various functions. In this case, the function keys may include a direction key, a side key and a shortcut key set to perform a specific function. In addition, the input unit 12 generates a key signal input in connection with the user setting and the function control of the control unit 11, and transmits it to the control unit 11. In particular, the input unit 12 according to an embodiment of the present invention may transmit an input signal for executing the content and an input signal for outputting the content to the virtual screen therein to the controller 11. In addition, the input unit 12 transmits a signal for the specific key input while the specific content is output on the internal virtual screen to the control unit 11.

표시부(13)는 액정표시장치(Liquid Crystal Display, LCD) 및 유기발광다이오드(Organic Light Emitting Diodes, OLED) 등이 적용될 수 있으며, LCD가 적용되는 경우 표시부(13)는 LCD 단말 제어부, LCD 데이터를 저장할 수 있는 메모리 및 LCD 표시소자 등을 구비할 수 있다. 여기서, LCD 및 OLED 등의 표시 장치를 터치스크린 방식으로 구현하는 경우, 표시부(13)의 화면은 입력부(12)로 동작될 수 있다. 특히, 본 발명의 실시 예에 따른 표시부(13)는 사용자의 요청에 따라 실행되는 컨텐츠를 화면에 표시한다. 또한, 표시부(13)는 센서부(14)를 통해 인식되는 제어 명령에 대한 화면을 표시할 수 있다.The display unit 13 may be a liquid crystal display (LCD), an organic light emitting diode (OLED), or the like. When the LCD is applied, the display unit 13 controls the LCD terminal controller and the LCD data. Memory and an LCD display element, etc. which can be stored can be provided. Here, when a display device such as an LCD and an OLED is implemented by a touch screen method, the screen of the display unit 13 may be operated as the input unit 12. In particular, the display unit 13 according to an embodiment of the present invention displays the content to be executed in response to a user's request on the screen. In addition, the display unit 13 may display a screen for a control command recognized through the sensor unit 14.

센서부(14)는 빛을 발광하고, 외부로부터 입력되는 사용자의 움직임 또는 물체의 움직임 등과 같은 물리적 신호를 감지하여 신호 처리부(미도시)로 전송할 수 있다. 이때, 센서부(14)는 외부 물체가 일정 감지 영역 내로 접근하는 것을 적외선을 이용하여 감지하는 적외선 센서(Infrared Sensor)를 사용할 수 있다. 여기서, 센서부(14)는 적외선을 복사하여 빛이 차단됨으로써 변화를 감지하는 능동식과, 자체에 발광부를 가지지 않고 외부로부터 받는 적외선의 변화만을 감지하는 수동식으로 구분될 수 있다. 특히, 센서부(14)가 능동식으로 구성되는 경우 적외선(IR)을 방사하는 발광 다이오드(Light Emitting Diode, LED)로 이루어지는 발광부(미도시)와, 반사되는 빛을 감지할 수 있는 다이오드 또는 트랜지스터(Transister, TR)와 같은 검출기(Detector)로 이루어지는 수광부(미도시)로 구성될 수 있다. 또한, 센서부(14)는 사용자의 눈동자가 근접함을 감지하기 위하여 렌즈부(15)에 부착되어 있을 수 있다.The sensor unit 14 may emit light, detect a physical signal such as a user's movement or an object's movement input from the outside, and transmit the detected physical signal to a signal processor (not shown). In this case, the sensor unit 14 may use an infrared sensor that detects an external object approaching a predetermined detection area using infrared rays. Here, the sensor unit 14 may be classified into an active type for detecting a change by radiating infrared light and a passive type for detecting only a change in the infrared light received from the outside without having a light emitting part on its own. In particular, when the sensor unit 14 is actively configured, a light emitting unit (not shown) including a light emitting diode (LED) that emits infrared rays (IR), a diode capable of sensing reflected light, or It may be configured as a light receiving unit (not shown) made of a detector such as a transistor (Transister, TR). In addition, the sensor unit 14 may be attached to the lens unit 15 to detect the proximity of the user's eyes.

발광부는 제어부(11)의 신호에 따라 외부 임의의 물체까지 빛을 발광하는 역할을 하고, 수광부는 검출기를 통해 외부 물체로부터 반사되는 빛을 감지하는 역할을 할 수 있다. 이를 자세하게 살펴보면, 발광부는 일정 양의 적외선을 발광하고, 수광부는 물체에 반사되어 돌아오는 적외선의 양에 따라 전압의 변화를 감지할 수 있다. 특히, 본 발명의 실시 예에서 센서부(14)는 적외선을 이용하여 온도, 열, 압력 또는 방사선의 세기 등의 물리량 또는 화학량을 검지하여 신호 처리가 가능한 전기량으로 변환할 수 있다. 여기서, 센서부(14)는 제어부(11)의 제어에 따라 활성화되며, 사용자의 움직임 즉, 제스처에 따라 발생하는 적외선을 감지하여 제어부(11)에 해당되는 신호를 전달할 수 있다 이를 위해, 센서부(14)는 비교기를 이용하여 수광부에 들어오는 적외선을 감지하는 방법과, 마이크로 컨트롤러의 ADC(Analog Digital Convertor)를 통해서 적외선을 감지하는 방법을 이용할 수 있다.The light emitting unit may serve to emit light to an external arbitrary object according to a signal of the controller 11, and the light receiving unit may serve to detect light reflected from an external object through a detector. In detail, the light emitting unit emits a predetermined amount of infrared rays, and the light receiving unit may detect a change in voltage according to the amount of infrared rays reflected by the object. In particular, in the exemplary embodiment of the present invention, the sensor unit 14 may detect a physical quantity or a chemical quantity such as temperature, heat, pressure or radiation intensity by using infrared rays, and convert the sensor quantity 14 into an electrical quantity capable of signal processing. Here, the sensor unit 14 is activated under the control of the controller 11, and detects infrared rays generated according to a user's movement, that is, a gesture, and transmits a signal corresponding to the controller 11. The method 14 may use a method of detecting infrared rays entering the light receiver using a comparator, and a method of detecting infrared rays through an analog digital converter (ADC) of a microcontroller.

또한, 센서부(14)는 사용자 눈동자의 변화를 감지할 수 있다. 이를 위해 센서부(14)는 카메라부(미도시)를 구비할 수 있다. 즉, 카메라부는 피사체의 촬영 기능을 수행하며, 특히 눈동자 인식을 이용하여 화면을 처리하기 위한 사용자의 영상을 획득한다. 이때, 카메라부는 이미지 센서, 신호처리부 및 영상처리부를 포함하여 구성될 수 있다. 이미지 센서는 촬영한 영상의 광신호를 아날로그 신호로 변환한다. 신호처리부는 아날로그 신호를 디지털 신호로 변환한다. 그리고 영상처리부는 신호처리부를 통해 입력되는 영상신호를 처리하여 영상데이터를 획득하며, 획득된 영상데이터를 제어부(11)나 표시부(13)를 통해 출력하거나 저장부(17)에 저장한다. 즉, 센서부(14)은 사용자 눈동자의 변화를 추적하기 위해서 적어도 하나 이상의 이미지 센서로 구성되는 카메라를 포함할 수 있다. 이를 상세히 살펴보면, 센서부(14)는 제어부(11)의 제어에 따라 단말기 내부의 가상 스크린에 컨텐츠를 실행하는 중 사용자의 제스처에 의한 제어 명령을 인식하기 위하여 적외선 센서 및 카메라를 활성화 한다. 적외선 센서와 카메라의 기능이 활성화되면, 센서부(14)는 사용자의 제스처에 의해 감지되는 적외선을 분석하여 제어 명령을 획득한다. 또한, 센서부(14)는 사용자에 의해 입력되는 특정키 입력 및 음성 입력에 따른 제어 명령을 획득할 수 있다.In addition, the sensor unit 14 may detect a change in the pupil of the user. To this end, the sensor unit 14 may include a camera unit (not shown). That is, the camera unit performs a photographing function of the subject, and in particular, acquires an image of a user for processing a screen using eye recognition. In this case, the camera unit may include an image sensor, a signal processor, and an image processor. The image sensor converts the optical signal of the captured image into an analog signal. The signal processor converts an analog signal into a digital signal. The image processing unit processes the image signal input through the signal processing unit to obtain image data, and outputs the acquired image data through the control unit 11 or the display unit 13 or stores it in the storage unit 17. That is, the sensor unit 14 may include a camera composed of at least one image sensor to track the change of the user's eyes. In detail, the sensor unit 14 activates an infrared sensor and a camera to recognize a control command by a gesture of a user while executing content on a virtual screen inside the terminal under the control of the controller 11. When the functions of the infrared sensor and the camera are activated, the sensor unit 14 analyzes the infrared rays detected by the user's gesture to obtain a control command. In addition, the sensor unit 14 may obtain a control command according to a specific key input and a voice input input by the user.

렌즈부(15)는 본 발명의 실시 예에 따른 특정 컨텐츠를 사용자가 이용할 수 있도록 볼록 렌즈, 오목 렌즈 및 입체 렌즈 등의 렌즈로 구성될 수 있다. 특히, 렌즈부(15)는 HMD(Head Mounted Display) 기술과 Non-HMD 기술을 적용하여 사용자가 눈앞 정도의 거리에 초점이 형성된 가상 스크린을 보는 것과 같은 형태로 양쪽 눈의 근접한 위치에 설치된 1인치 이하의 LCD 또는 OLED 등의 마이크로 디스플레이에서 발생되는 이미지를 확대하여 대형 가상 스크린을 형성할 수 있도록 제어부(11)의 제어를 받는다. 이때, 렌즈부(15)는 사용자가 내부의 가상 스크린에 출력되는 컨텐츠를 볼 수 있도록 복수 개로 구성될 수 있다. 이를 상세하게 살펴보면, HMD는 광학 HMD 및 영상 HMD로 구분될 수 있다. 여기서, 광학 HMD는 사용자의 눈앞에 반투과성 광학 합성기가 부착되어 있으며, 사용자는 광학 합성기를 통해 실세계 환경을 직접 보면서, 광학 합성기로 투사되는 가상 영상을 동시에 볼 수 있다. 또한, 영상 HMD는 실세계 환경에 대한 영상을 획득하기 위하여 HMD에 1개 이상의 카메라가 별도로 설치되어 있다. 그리고, 비디오 합성기를 이용하여 카메라로부터 입력되는 실세계 영상과 컴퓨터에서 생성한 가상 영상을 합성하여 HMD에 부착된 LCD와 같은 디스플레이 장치에 보여주게 된다.The lens unit 15 may be configured of a lens such as a convex lens, a concave lens, and a three-dimensional lens so that a user may use a specific content according to an embodiment of the present invention. In particular, the lens unit 15 is a head mounted display (HMD) technology and Non-HMD technology by applying a 1-inch installed in the position close to both eyes in the form of a user looking at the virtual screen formed by focusing the distance in front of the eyes The control unit 11 is controlled to form a large virtual screen by enlarging an image generated from a micro display such as an LCD or an OLED. At this time, the lens unit 15 may be configured in plural so that the user can view the content output on the internal virtual screen. In detail, the HMD may be classified into an optical HMD and an image HMD. Here, the optical HMD is attached to the semi-transparent optical synthesizer in front of the user, the user can see the virtual image projected by the optical synthesizer at the same time while looking directly at the real world environment through the optical synthesizer. In addition, one or more cameras are separately installed in the HMD in order to acquire an image of the real world environment. Then, the real world image input from the camera and the virtual image generated by the computer are synthesized using the video synthesizer and displayed on a display device such as an LCD attached to the HMD.

Non-HMD는 소형 및 대형 디스플레이장치로 구분된다. 이때, 소형 디스플레이 장치는 의료 분야와 같이 좋은 해상도의 결과 영상이 필요하고, 무거운 HMD를 착용할 수 없는 특수한 환경에서 사용된다. 또한, 대형 디스플레이 장치는 1대 이상의 프로젝터 또는 CRT와 같은 모니터로 구성된 대형 스크린에 나타나는 3차원 오브젝트를 셔터 안경을 착용한 사용자가 보는 방법으로 구성될 수 있다.Non-HMD is divided into small and large display devices. In this case, the small display device requires a high resolution result image, such as a medical field, and is used in a special environment in which a heavy HMD cannot be worn. In addition, the large display device may be configured in such a manner that a user wearing shutter glasses views a three-dimensional object appearing on a large screen composed of one or more projectors or a monitor such as a CRT.

오디오처리부(16)는 오디오 신호를 재생하거나 또는 마이크(MIC)로부터 입력되는 오디오 신호를 제어부(11)에 전달하는 기능을 수행한다. 이때, 오디오 처리부(16)는 오디오 신호를 스피커(SPK)를 통해 가청음으로 변환하여 출력하고, 마이크(MIC)로부터 수신되는 음성 등의 아날로그 신호를 디지털 신호로 변환하여 출력한다. 특히, 오디오 처리부(15)는 사용자의 요청에 따라 실행되는 컨텐츠에 대한 오디오 데이터 및 단말기(10)의 기능 실행에 따른 경고음이나 효과음 등을 제공할 수 있다.The audio processor 16 reproduces an audio signal or transmits an audio signal input from a microphone MIC to the controller 11. At this time, the audio processor 16 converts the audio signal into an audible sound through the speaker SPK, and outputs an analog signal such as a voice received from the microphone MIC into a digital signal. In particular, the audio processor 15 may provide audio data for content executed according to a user's request and a warning sound or an effect sound according to the execution of the function of the terminal 10.

저장부(17)는 단말기(10)의 기능 동작에 필요한 응용 프로그램을 저장한다. 이러한 저장부(17)는 크게 프로그램 영역과 데이터 영역을 포함할 수 있다. 특히, 본 발명의 실시 예에 따른 프로그램 영역은 단말기(10)를 부팅시키는 운영체제(OS, Operating System), 사용자의 요청에 따라 컨텐츠를 실행하는 프로그램, 사용자의 눈동자 변화에 따른 근접 여부를 판단하는 프로그램 및 제스처 인식 프로그램 등을 저장한다. 여기서, 단말기(10)는 사용자의 요청에 상응하여 각 기능을 활성화하는 경우, 제어부(11)의 제어 하에 해당 응용 프로그램들을 이용하여 각 기능을 제공하게 된다. 또한, 데이터 영역은 단말기(10)의 사용에 따라 발생하는 데이터가 저장되는 영역이다. 특히, 본 발명의 실시 예에 따른 데이터 영역은 서버로부터 다운로드되는 컨텐츠 및 사용자의 제스처에 대한 데이터 등이 저장될 수 있다. 또한, 저장부(17)는 사용자의 제스처, 특정키 입력 및 음성 입력에 따른 제어 명령을 기 저장하고 있는 것이 바람직하다.The storage unit 17 stores an application program required for the functional operation of the terminal 10. The storage unit 17 may largely include a program area and a data area. In particular, the program area according to an embodiment of the present invention is an operating system (OS) for booting the terminal 10, a program for executing content according to a user's request, and a program for determining whether the user is close to the change of the pupil. And a gesture recognition program. In this case, when the terminal 10 activates each function in response to a user's request, the terminal 10 provides each function by using corresponding application programs under the control of the controller 11. The data area is an area where data generated according to use of the terminal 10 is stored. In particular, the data area according to an embodiment of the present invention may store content downloaded from a server and data on a user's gesture. In addition, the storage unit 17 preferably stores a control command according to a user's gesture, a specific key input, and a voice input.

제어부(11)는 단말기(10)의 각 구성을 초기화하고, 필요한 신호 제어를 수행할 수 있다. 특히, 본 발명의 실시 예에 따른 제어부(11)는 사용자의 요청에 따라 컨텐츠를 실행한다. 여기서, 제어부(11)는 컨텐츠를 선택하고, 선택된 컨텐츠를 표시부(13)에 표시한다.The controller 11 may initialize each configuration of the terminal 10 and perform necessary signal control. In particular, the control unit 11 according to an embodiment of the present invention executes the content at the request of the user. Here, the control unit 11 selects content and displays the selected content on the display unit 13.

제어부(11)는 컨텐츠의 실행 중 센서부(14)를 통해 사용자의 눈동자가 근접하는지 판단한다. 여기서, 제어부(11)는 눈동자를 인식하고, 인식된 눈동자의 변화를 감지하고, 감지된 눈동자의 변화에 따라 근접 여부를 결정할 수 있다. 이때, 눈동자가 근접하면, 제어부(11)는 표시부(13)에 출력되고 있는 컨텐츠의 실행을 오프(off)한다. The controller 11 determines whether the pupil of the user is close by the sensor unit 14 during the execution of the content. Here, the controller 11 may recognize the pupil, detect the change of the recognized pupil, and determine whether the pupil is close according to the detected pupil. At this time, if the pupil is close, the control unit 11 turns off execution of the content output to the display unit 13.

제어부(11)는 컨텐츠를 출력한다. 여기서, 제어부(11)는 컨텐츠의 영상을 확대하고, 확대된 영상을 내부의 가상 스크린에 출력할 수 있다.The control unit 11 outputs the content. Here, the controller 11 may enlarge an image of the content and output the enlarged image to an internal virtual screen.

제어부(11)는 내부의 가상 스크린에 컨텐츠를 출력하는 중 제어 명령을 감지한다. 이때, 제어 명령이 감지되면, 제어부(11)는 제어 명령을 분석하고, 분석된 제어 명령을 확인할 수 있다. 즉, 제어부(11)는 사용자의 손에 착용되는 모션 장치(20)로부터 발생하는 적외선을 감지하여 제어 명령을 확인한다. 또한, 제어부(11)는 특정 컨텐츠가 내부의 가상 스크린에 출력되는 중 입력되는 특정키에 대한 신호에 따른 제어 명령을 입력부(12)로부터 전달받을 수 있다. 또한, 제어부(11)는 특정 컨텐츠가 내부의 가상 스크린에 출력되는 중 입력되는 사용자의 음성을 감지하여 제어 명령을 인식할 수 있다.The controller 11 detects a control command while outputting content to an internal virtual screen. At this time, if a control command is detected, the controller 11 may analyze the control command and check the analyzed control command. That is, the controller 11 detects infrared rays generated from the motion device 20 worn on the user's hand and checks the control command. In addition, the controller 11 may receive a control command from the input unit 12 according to a signal for a specific key input while specific content is output on an internal virtual screen. In addition, the controller 11 may recognize a control command by detecting a voice of a user input while specific content is output on an internal virtual screen.

제어부(11)는 HMD 기술 또는 Non-HMD 기술이 적용되어, 사용자가 눈앞 정도의 거리에 초점이 형성된 가상 스크린을 보는 것과 같은 형태로 양쪽 눈의 근접한 위치에 설치된 1인치 이하의 LCD 또는 OLED 등의 마이크로 디스플레이에서 발생되는 이미지를 광학시스템을 통해 확대하여 대형 가상 스크린을 형성할 수 있도록 한다.The control unit 11 is applied to the HMD technology or Non-HMD technology, such as a user sees a virtual screen formed by focusing at a distance in front of the eyes, such as an LCD or OLED of 1 inch or less installed in a position close to both eyes, etc. The image generated from the micro display can be enlarged through the optical system to form a large virtual screen.

제어부(11)는 감지된 제스처에 따라 컨텐츠의 실행을 제어한다. 즉, 제어부(11)는 제어 명령에 따라 컨텐츠의 출력을 제어할 수 있다. 예를 들어, 제어부(11)는 사용자의 제어 명령이 원을 그리는 동작인 경우 컨텐츠의 재생을 정지, 제스처가 좌측에서 우측으로 이동하는 동작인 경우 컨텐츠를 빠르게 재생, 제어 명령이 우측에서 좌측으로 이동하는 동작인 경우 컨텐츠를 느리게 재생, 제어 명령이 아래에서 위로 이동하는 동작인 경우 컨텐츠의 볼륨을 증가 및 제어 명령이 위에서 아래로 이동하는 동작인 경우 컨텐츠의 볼륨을 감소 등과 같이 컨텐츠의 실행을 제어할 수 있다. 한편, 본 발명의 실시 예에 따른 제어 명령은 제시된 출력에 한정된 것이 아니고, 사용자는 제시된 출력 이외에 다양한 제어 명령에 의해 컨텐츠의 실행을 제어할 수 있다.The controller 11 controls the execution of the content according to the detected gesture. That is, the controller 11 may control the output of the content according to the control command. For example, the control unit 11 stops the playback of the content when the user's control command is a circular motion, and quickly plays the content when the gesture moves from left to right, and the control command moves from right to left. To control the execution of the content, such as playing the content slowly, increasing the volume of the content if the control command is moving from the bottom up, or decreasing the volume of the content if the control command is moving from the top to the bottom. Can be. On the other hand, the control command according to an embodiment of the present invention is not limited to the presented output, the user can control the execution of the content by various control commands in addition to the suggested output.

제어부(11)는 내부의 가상 스크린에 컨텐츠를 실행하는 중 사용자의 제스처에 의한 제어 명령을 인식하기 위하여 적외선 센서 및 카메라를 활성화 시킬 수 있다. 적외선 센서와 카메라의 기능이 활성화되면, 제어부(11)는 센서부(14)를 통해 제어 명령을 인식할 수 있다. 이때, 제어부(11)는 센서부(14)를 통해 감지되는 적외선의 분석을 통해 제어 명령을 인식하기 위하여 적외선을 스펙트럼 처리하거나 영상 처리할 수 있다.The controller 11 may activate an infrared sensor and a camera to recognize a control command by a user's gesture while executing content on an internal virtual screen. When the functions of the infrared sensor and the camera are activated, the controller 11 may recognize a control command through the sensor unit 14. In this case, the control unit 11 may spectrum-process or image-process infrared rays to recognize a control command through analysis of the infrared rays sensed by the sensor unit 14.

제어부(11)는 사용자 눈동자의 멀어짐이 감지되면, 가상 스크린에 출력되는 특정 컨텐츠를 오프하도록 제어할 수 있다. 즉, 제어부(11)는 센서부(14)로부터 눈동자의 근접여부가 판단되면, 판단된 결과에 따라 가상 스크린에 출력되고 있는 특정 컨텐츠의 실행을 오프하고, 특정 컨텐츠를 표시부(13)에 표시할 수 있다.The controller 11 may control to turn off specific content output to the virtual screen when the user's pupil is detected to be far away. That is, when it is determined whether the pupil is in proximity to the sensor unit 14, the control unit 11 turns off execution of specific content output on the virtual screen according to the determined result, and displays the specific content on the display unit 13. Can be.

도 4는 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이고, 도 5는 본 발명의 실시 예에 따른 단말기의 사용자 인터페이스 제공 방법 설명하기 위한 화면 예이다.4 is a flowchart illustrating a user interface providing method of a terminal according to an exemplary embodiment of the present invention, and FIG. 5 is a screen example illustrating a user interface providing method of a terminal according to an exemplary embodiment of the present invention.

도 1 내지 도 5를 참조하면, 본 발명의 실시 예에 따른 단말기(10)의 사용자 인터페이스 제공 방법에 있어서, 제어부(11)는 S11 단계에서 컨텐츠를 선택하여 실행한다. 이때, 제어부(11)는 컨텐츠를 표시부(13)에 실행할 수 있다.1 to 5, in the method of providing a user interface of the terminal 10 according to an exemplary embodiment of the present disclosure, the controller 11 selects and executes content in step S11. In this case, the controller 11 may execute the content on the display unit 13.

컨텐츠를 실행하는 중 제어부(11)는 S13 단계에서 컨텐츠를 출력한다. 이때, 제어부(11)는 사용자 눈동자의 변화에 따른 근접 여부를 판단하여 내부의 가상 스크린에 컨텐츠를 출력할 수 있다. 여기서, 제어부(11)는 표시부(13)에 출력되고 잇는 컨텐츠의 실행을 오프할 수 있다. 예를 들어, 도 5에 도시된 바와 같이 제어부(11)는 사용자에 의해 선택되는 컨텐츠를 내부의 가상 스크린에 출력할 수 있다. 즉, 사용자는 단말기(10)의 내부에 출력되는 컨텐츠를 렌즈부(15)를 통해 타인의 시선으로부터 보호하여 이용할 수 있다. 이에 대한 상세한 설명은 후술되는 도 6에서 설명하기로 한다.While executing the content, the control unit 11 outputs the content in step S13. In this case, the controller 11 may determine whether there is proximity according to the change of the user's eyes and output the content to the virtual screen inside. Herein, the controller 11 may turn off execution of the content output to the display unit 13. For example, as illustrated in FIG. 5, the controller 11 may output content selected by a user to an internal virtual screen. That is, the user may protect the content output inside the terminal 10 from the eyes of others through the lens unit 15 and use the same. Detailed description thereof will be described with reference to FIG. 6.

컨텐츠를 출력하는 중 제어부(11)는 S15 단계에서 모션 장치(20)로부터 제어 명령을 감지한다. 이때, 제어부(11)는 제어 명령의 입력이 감지되는지 판단할 수 있다. 그리고 나서, 제어부(11)는 제어 명령이 감지되면, 제어 명령을 분석하여 분석된 제어 명령을 확인한다. 이에 대한 상세한 설명은 후술되는 도 7에서 설명하기로 한다. 여기서, 본 발명의 실시 예에 따른 제어 명령은 사용자의 제스처, 특정키 입력 및 음성 입력 중 적어도 하나의 입력에 의해 감지될 수 있다.While outputting the content, the controller 11 detects a control command from the motion device 20 in step S15. In this case, the controller 11 may determine whether an input of a control command is detected. Then, when the control command is detected, the control unit 11 analyzes the control command and confirms the analyzed control command. Detailed description thereof will be described with reference to FIG. 7. Here, the control command according to an embodiment of the present invention may be detected by at least one input of a user's gesture, a specific key input, and a voice input.

제어 명령이 감지되면, 제어부(11)는 S17 단계에서 제어 명령에 따라 컨텐츠의 실행을 제어한다. 즉, 제어부(11)는 사용자의 손에 착용되는 모션 장치(20)에 따라 제어 명령을 구분하여 컨텐츠의 실행을 제어하여 출력할 수 있다. 또한, 제어부(11)는 사용자의 손동작에 따른 제어 명령을 감지하여 컨텐츠의 출력을 제어할 수 있다. 또한, 제어부(11)는 사용자의 음성 입력 또는 특정키 입력 신호에 따라 제어 명령을 감지하여 컨텐츠의 출력을 제어할 수 있다.If the control command is detected, the control unit 11 controls the execution of the content according to the control command in step S17. That is, the controller 11 may classify the control command according to the motion device 20 worn on the user's hand and control the output of the content. In addition, the controller 11 may detect a control command according to a user's hand gesture and control the output of the content. In addition, the controller 11 may control the output of the content by detecting a control command according to a user's voice input or a specific key input signal.

이를 통해 사용자는 공공 장소에서 개인의 사생활을 보호 받을 수 있고, 단말기의 내부의 가상 스크린을 통해 컨텐츠를 제공 받을 수 있기에 이에 따른 흥미를 유발할 수 있고, 사용자의 손에 착용되는 링을 통해 제어 명령을 센싱하는 다양한 입력수단으로 활용할 수 있다.This allows the user to protect his or her privacy in a public place, and can be provided with content through the virtual screen inside the terminal, which can induce interest, and control commands through a ring worn on the user's hand. It can be used as various input means for sensing.

도 6은 도 4의 프로젝트를 통해 컨텐츠를 출력하는 단계를 구체적으로 설명하기 위한 흐름도이다.FIG. 6 is a flowchart for describing in detail a step of outputting content through the project of FIG. 4.

도 1 내지 도 6을 참조하면, 본 발명의 실시 예에 따른 프로젝트를 통해 컨텐츠를 출력하는 단계를 구체적으로 살펴보면, 먼저, 제어부(11)는 S21 단계에서 사용자의 눈동자가 렌즈부(15)에 근접하는지 확인하기 위하여 센서부(14)를 활성화한다. 그리고 나서, 제어부(11)는 S23 단계에서 눈동자가 근접하는지 판단한다. 여기서, 제어부(11)는 사용자의 눈동자를 인식하고, 인식된 눈동자의 변화를 감지한다. 이후, 제어부(11)는 감지된 눈동자의 변화에 따라 근접 여부를 결정한다. 한편, 제어부(11)는 눈동자가 근접하지 않는 경우, 컨텐츠를 표시부(13)에 계속 표시할 수 있다.1 to 6, in detail, the step of outputting content through a project according to an embodiment of the present invention will be described in detail. First, the controller 11 closes the user's pupil to the lens unit 15 in step S21. In order to check whether the sensor unit 14 is activated. Then, the controller 11 determines whether the pupil is close in step S23. Here, the controller 11 recognizes the pupil of the user and detects the change of the recognized pupil. Thereafter, the controller 11 determines whether there is proximity according to the detected change of the pupil. In the meantime, when the pupils are not in close proximity, the controller 11 may continue to display the content on the display unit 13.

눈동자가 근접하는 경우, 제어부(11)는 S24 단계에서 표시부(13)에 출력되고 있는 컨텐츠의 실행을 오프한다. 또한, 제어부(11)는 S25 단계에서 컨텐츠의 영상을 확대한다. 그리고 나서, 제어부(11)는 S27 단계에서 확대된 영상을 내부의 가상 스크린에 출력할 수 있다. 한편, 제어부(11)는 눈동자가 근접하지 않는 경우, 컨텐츠를 표시부(13)에 계속 표시할 수 있다.If the pupil is close, the control unit 11 turns off execution of the content output to the display unit 13 in step S24. In addition, the control unit 11 enlarges the image of the content in step S25. Then, the controller 11 may output the enlarged image in the step S27 to the internal virtual screen. In the meantime, when the pupils are not in close proximity, the controller 11 may continue to display the content on the display unit 13.

도 7은 도 4의 제어 명령을 감지하는 단계를 구체적으로 설명하기 위한 흐름도이다.FIG. 7 is a flowchart for describing a step of detecting the control command of FIG. 4 in detail.

도 1 내지 도 7을 참조하면, 본 발명의 실시 예에 따른 제어 명령을 감지하는 단계를 구체적으로 살펴보면, 먼저, 제어부(11)는 S31 단계에서 센서부(14)를 통해 사용자가 착용한 모션 장치(20)로부터 발생하는 적외선을 감지한다. 이때, 적외선이 감지되면, 제어부(11)는 S33 단계에서 적외선이 변화하는지 판단한다. 즉, 제어부(11)는 사용자의 손에 착용되는 모션 장치(20)로부터 방출되는 적외선의 변화를 인식할 수 있다. 한편, 제어부(11)는 적외선 변화가 감지되지 않으면, 적외선이 감지되는지 계속 확인한다.Referring to FIGS. 1 to 7, the step of detecting a control command according to an embodiment of the present invention will be described in detail. First, the control unit 11 wears a motion device worn by a user through the sensor unit 14 in step S31. Infrared rays generated from 20 are sensed. In this case, when the infrared rays are detected, the controller 11 determines whether the infrared rays change in step S33. That is, the controller 11 may recognize a change in infrared rays emitted from the motion device 20 worn on the user's hand. On the other hand, if the infrared change is not detected, the controller 11 continuously checks whether infrared light is detected.

적외선 변화가 감지되면, 제어부(11)는 S35 단계에서 감지된 적외선을 분석한다. 예를 들어, 제어부(11)는 사용자의 제스처에 따른 제어 명령이 좌측에서 우측으로 이동, 우측에서 좌측으로 이동, 아래에서 위로 이동, 위에서 아래로 이동 및 원을 그리는 형태 등을 감지할 수 있다. 이때, 단말기(10)는 사용자의 동작에 따른 제어 명령을 저장부(17)에 저장하고 있는 것이 바람직하다. 또한, 본 발명의 실시 예에 따른 제어부(11)는 특정 컨텐츠가 내부의 가상 스크린에 출력되는 중 입력되는 특정키 또는 음성 입력에 대한 신호에 따라 제어 명령을 인식할 수도 있다.When the infrared change is detected, the controller 11 analyzes the infrared rays detected in step S35. For example, the controller 11 may detect a form in which a control command according to a gesture of a user moves from left to right, moves from right to left, moves from bottom to top, moves from top to bottom, and draws a circle. In this case, the terminal 10 preferably stores the control command according to the user's operation in the storage unit 17. In addition, the control unit 11 according to an embodiment of the present invention may recognize a control command according to a signal for a specific key or a voice input input while specific content is output on an internal virtual screen.

제스처가 분석되면, 제어부(11)는 S37 단계에서 분석된 제어 명령에 따라 컨텐츠의 실행을 제어하여 출력한다. 예를 들어, 제어부(11)는 사용자의 제스처에 따른 제어 명령이 원을 그리는 동작인 경우 컨텐츠의 재생을 정지, 제스처가 좌측에서 우측으로 이동하는 동작인 경우 컨텐츠를 빠르게 재생, 제어 명령이 우측에서 좌측으로 이동하는 동작인 경우 컨텐츠를 느리게 재생, 제어 명령이 아래에서 위로 이동하는 동작인 경우 컨텐츠의 볼륨을 증가 및 제어 명령이 위에서 아래로 이동하는 동작인 경우 컨텐츠의 볼륨을 감소 등과 같이 컨텐츠의 실행을 제어할 수 있다.If the gesture is analyzed, the control unit 11 controls the execution of the content according to the control command analyzed in step S37 and outputs. For example, the control unit 11 stops the playback of the content when the control command according to the gesture of the user draws a circle, quickly plays the content when the gesture moves from the left to the right, and the control command is on the right. If the action moves to the left, the content is played slowly. If the control command moves from the bottom up, the content volume increases. If the control command moves from the top to the bottom, the content volume decreases. Can be controlled.

또한, 본 발명의 실시 예에 따른 제어 명령을 감지하는 단계에 있어서, 단말기(10)는 사용자의 제스처에 의해 감지되는 적외선을 직접 센싱할 수 있다. 즉, 단말기(10)는 적외선을 발생하는 모션 장치(20)를 착용하지 않은 사용자의 제스처에 따른 제어 명령을 인식하여 컨텐츠 실행을 제어하여 출력할 수 있다. 이를 상세하게 설명하면, 단말기(10)는 내부의 가상 스크린에 컨텐츠를 실행 중 사용자의 제스처에 따른 제어 명령을 인식하기 위하여 적외선 센서 및 카메라를 활성화 시킬 수 있다. 적외선 센서와 카메라의 기능이 활성화되면, 단말기(10)는 제어 명령을 인식할 수 있다. 이후, 단말기(10)는 인식된 제어 명령에 따라 해당되는 컨텐츠의 실행을 제어할 수 있다.In addition, in the detecting of the control command according to an exemplary embodiment of the present disclosure, the terminal 10 may directly sense infrared rays detected by a user's gesture. That is, the terminal 10 may recognize a control command according to a gesture of a user who does not wear the motion device 20 generating infrared rays, and control and output content execution. In detail, the terminal 10 may activate an infrared sensor and a camera to recognize a control command according to a gesture of a user while executing content on a virtual screen therein. When the functions of the infrared sensor and the camera are activated, the terminal 10 may recognize a control command. Thereafter, the terminal 10 may control the execution of the corresponding content according to the recognized control command.

한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples for clarity and are not intended to limit the scope of the present invention. It is apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.

본 발명은 이동통신 단말기, PMP, PDA, 노트북 및 MP3 플레이어와 같은 다양한 종류의 사용자 장치에 적용되어, 단말기는 사용자의 요청에 따라 특정 컨텐츠를 실행하고, 컨텐츠를 내부의 가상스크린에 출력 중 제어 명령에 따라 컨텐츠의 실행을 제어함으로써, 사용자는 공공 장소에서 컨텐츠를 이용 중 타인의 시선으로부터 개인의 사생활을 보호 받을 수 있고, 단말기의 내부에 가상 스크린을 통해 컨텐츠를 제공 받을 수 있기에 이에 따른 흥미를 유발할 수 있고, 사용자의 제스처에 따라 발생하는 제어 명령을 감지하여 다양한 입력수단으로 활용할 수 있다.The present invention is applied to various types of user devices such as mobile communication terminals, PMPs, PDAs, notebook computers, and MP3 players, and the terminal executes specific contents according to a user's request, and outputs the contents to a virtual screen therein. By controlling the execution of the content according to the user, the user can protect his or her privacy from the eyes of others while using the content in a public place, and the content can be provided through a virtual screen inside the terminal, thereby causing interest. In addition, the control command generated according to the user's gesture can be detected and used as various input means.

10: 단말기
11: 제어부
12: 입력부
13: 표시부
14: 센서부
15: 렌즈부
16: 오디오처리부
17: 저장부
18: 통신부
20: 모션 장치
100: 사생활 보호 시스템
10: terminal
11: control unit
12: input unit
13: display
14: sensor unit
15: lens unit
16: audio processor
17: storage
18: communication unit
20: motion device
100: privacy system

Claims (15)

사용자가 특정 컨텐츠를 확인하는 렌즈부; 및
상기 특정 컨텐츠를 실행하고, 상기 실행된 특정 컨텐츠를 내부의 가상 스크린에 출력하는 제어부;
를 포함하는 것을 특징으로 하는 단말기.
A lens unit for checking a specific content by a user; And
A control unit which executes the specific content and outputs the executed specific content to an internal virtual screen;
And a second terminal.
제1항에 있어서,
상기 사용자의 눈동자가 근접하는지 감지하는 센서부;
를 더 포함하고,
상기 제어부는 상기 센서부를 통해 상기 눈동자의 근접이 확인되면, 상기 특정 컨텐츠를 상기 가상스크린에 출력하는 것을 특징으로 하는 단말기.
The method of claim 1,
A sensor unit which detects whether the pupil of the user is close;
Further comprising:
The controller, if the proximity of the pupil is confirmed through the sensor unit, characterized in that for outputting the specific content on the virtual screen.
제2항에 있어서,
상기 특정 컨텐츠를 표시하는 표시부;
를 더 포함하고,
상기 제어부는 상기 눈동자가 근접하는 경우, 상기 표시부를 제어하여 상기 특정 컨텐츠의 표시를 오프하는 것을 특징으로 하는 단말기.
The method of claim 2,
A display unit displaying the specific content;
Further comprising:
And the controller controls the display unit to turn off the display of the specific content when the pupils are in proximity.
제2항에 있어서, 상기 센서부는
상기 사용자의 제스처 입력을 더 감지하며,
상기 제어부는 상기 센서부를 통해 감지되는 상기 제스처 입력에 대응하는 제어 명령에 따라 상기 특정 컨텐츠의 실행을 제어하는 것을 특징으로 하는 단말기.
The method of claim 2, wherein the sensor unit
Further detecting a gesture input of the user,
And the controller controls execution of the specific content according to a control command corresponding to the gesture input detected through the sensor unit.
제4항에 있어서, 상기 센서부는
상기 사용자의 손에 착용되는 링 타입 또는 밴드 타입의 모션 장치로부터 발생하는 적외선을 감지하여 상기 제어부로 전달하는 것을 특징으로 하는 단말기.
The method of claim 4, wherein the sensor unit
And detecting infrared rays generated from a ring type or band type motion device worn on the user's hand and transmitting the detected infrared rays to the controller.
제1항에 있어서, 상기 렌즈부는
상기 특정 컨텐츠를 확인할 수 있는 오목렌즈, 볼록렌즈 및 입체렌즈 중 적어도 하나의 렌즈로 구성되는 것을 특징으로 하는 단말기.
The method of claim 1, wherein the lens unit
And at least one of a concave lens, a convex lens, and a three-dimensional lens for identifying the specific content.
단말기에서 특정 컨텐츠가 선택되는 단계;
상기 단말기가 상기 선택된 특정 컨텐츠를 실행하는 단계; 및
상기 단말기가 상기 특정 컨텐츠의 실행에 따라 상기 특정 컨텐츠를 내부의 가상 스크린에 출력하는 단계;
를 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.
Selecting specific content in the terminal;
Executing, by the terminal, the selected specific content; And
Outputting, by the terminal, the specific content to an internal virtual screen according to execution of the specific content;
User interface method of the terminal comprising a.
제7항에 있어서, 상기 실행하는 단계는
상기 단말기가 상기 특정 컨텐츠를 표시부에 표시하는 단계;
상기 단말기가 상기 특정 컨텐츠를 표시 중 사용자의 눈동자가 상기 단말기에 근접하는지 판단하는 단계; 및
상기 단말기가 상기 눈동자의 근접에 따라 상기 특정 컨텐츠의 표시를 오프하는 단계;
를 더 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.
8. The method of claim 7, wherein said executing is
Displaying, by the terminal, the specific content on a display unit;
Determining, by the terminal, whether a user's eyes are close to the terminal while displaying the specific content; And
The terminal turning off the display of the specific content according to the proximity of the pupil;
The user interface method of the terminal further comprising.
제8항에 있어서, 상기 판단하는 단계는
상기 단말기가 상기 눈동자를 인식하는 단계;
상기 단말기가 상기 인식된 눈동자의 근접 여부를 분석하는 단계; 및
상기 단말기가 상기 분석 결과에 따라 상기 근접 여부를 결정하는 단계;
를 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.
The method of claim 8, wherein the determining step
Recognizing the pupil by the terminal;
Analyzing, by the terminal, whether the recognized pupil is close; And
Determining, by the terminal, whether the proximity is based on the analysis result;
User interface method of the terminal comprising a.
제7항에 있어서, 상기 출력하는 단계는
상기 단말기가 상기 특정 컨텐츠의 영상을 확대하는 단계; 및
상기 단말기가 상기 확대된 영상을 상기 가상 스크린에 출력하는 단계;
를 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.
The method of claim 7, wherein the outputting step
Enlarging the image of the specific content by the terminal; And
Outputting, by the terminal, the enlarged image to the virtual screen;
User interface method of the terminal comprising a.
제7항에 있어서, 상기 출력하는 단계 이후에
상기 단말기가 제어 명령을 감지하는 단계; 및
상기 단말기가 상기 감지된 제어 명령에 따라 상기 특정 컨텐츠의 출력을 제어하는 단계;
를 더 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.
8. The method of claim 7, wherein after the outputting step
Detecting, by the terminal, a control command; And
Controlling, by the terminal, the output of the specific content according to the sensed control command;
The user interface method of the terminal further comprising.
제11항에 있어서, 상기 제어 명령은
제스처 입력, 특정키 입력 및 음성 입력 중 적어도 하나의 입력에 의해 감지되는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.
The method of claim 11, wherein the control command
The user interface method of the terminal, characterized in that detected by at least one input of the gesture input, a specific key input and a voice input.
제11항에 있어서, 상기 감지하는 단계는
상기 단말기가 상기 제어 명령이 입력되는지 판단하는 단계;
상기 제어 명령이 입력되면, 상기 단말기가 상기 제어 명령을 분석하는 단계; 및
상기 단말기가 상기 분석된 제어 명령을 확인하는 단계;
를 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.
The method of claim 11, wherein the detecting step
Determining, by the terminal, whether the control command is input;
Analyzing, by the terminal, the control command when the control command is input; And
Confirming, by the terminal, the analyzed control command;
User interface method of the terminal comprising a.
제11항에 있어서, 상기 제어하는 단계는
상기 단말기가 상기 제어 명령에 따라 상기 특정 컨텐츠를 빠르게 재생, 느리게 재생, 볼륨을 증가 및 볼륨을 감소 중 적어도 하나의 출력을 제어하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.
12. The method of claim 11 wherein the controlling step
And the terminal controls the output of at least one of playing the specific content quickly, playing slowly, increasing the volume, and decreasing the volume according to the control command.
제8항에 있어서, 상기 출력하는 단계 이후에
상기 단말기는 상기 눈동자가 상기 단말기에서 멀어짐을 감지하는 단계; 및
상기 눈동자가 멀어지면, 상기 단말기가 상기 가상 스크린에 출력되는 상기 특정 컨텐츠를 오프하는 단계;
를 더 포함하는 것을 특징으로 하는 단말기의 사용자 인터페이스 방법.
The method of claim 8, wherein after the outputting step
The terminal detecting that the pupil moves away from the terminal; And
If the pupil is far from the terminal, turning off the specific content output on the virtual screen;
The user interface method of the terminal further comprising.
KR1020100032139A 2010-04-08 2010-04-08 Method for providing contents user interface and terminal KR101250224B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100032139A KR101250224B1 (en) 2010-04-08 2010-04-08 Method for providing contents user interface and terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100032139A KR101250224B1 (en) 2010-04-08 2010-04-08 Method for providing contents user interface and terminal

Publications (2)

Publication Number Publication Date
KR20110112919A true KR20110112919A (en) 2011-10-14
KR101250224B1 KR101250224B1 (en) 2013-04-05

Family

ID=45028413

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100032139A KR101250224B1 (en) 2010-04-08 2010-04-08 Method for providing contents user interface and terminal

Country Status (1)

Country Link
KR (1) KR101250224B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190108466A (en) * 2018-10-18 2019-09-24 장명호 Display control device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101591089B1 (en) * 2009-04-08 2016-02-02 엘지전자 주식회사 Moblie terminal and method for controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190108466A (en) * 2018-10-18 2019-09-24 장명호 Display control device

Also Published As

Publication number Publication date
KR101250224B1 (en) 2013-04-05

Similar Documents

Publication Publication Date Title
US10495878B2 (en) Mobile terminal and controlling method thereof
EP3411780B1 (en) Intelligent electronic device and method of operating the same
US20190370525A1 (en) Fingerprint recognition method, electronic device, and storage medium
JP6557730B2 (en) Method and device for irradiating light for photographing iris
US11087116B2 (en) Method and apparatus for determining fingerprint collection region
KR20170110965A (en) Electronic device and method for provideing information in the electronic device
KR20170110967A (en) Electronic device and method for provideing information in the electronic device
CN104137118A (en) Enhanced face recognition in video
JP2014086063A (en) Electronic apparatus, sight line input program and sight line input method
US20120229509A1 (en) System and method for user interaction
KR102656528B1 (en) Electronic device, external electronic device and method for connecting between electronic device and external electronic device
CN112044065B (en) Virtual resource display method, device, equipment and storage medium
KR102452314B1 (en) Method fog playing content and electronic device thereof
JP2014142851A (en) Electronic apparatus, line-of-sight input program, and line-of-sight input method
JP5976787B2 (en) Laser diode mode
KR102271184B1 (en) Video projector and operating method thereof
CN109151176A (en) A kind of information acquisition method and terminal
US20210405773A1 (en) Method and apparatus for detecting orientation of electronic device, and storage medium
KR102077665B1 (en) Virtual movile device implementing system and control method for the same in mixed reality
KR20190134975A (en) Augmented realtity device for rendering a list of apps or skills of artificial intelligence system and method of operating the same
KR102656425B1 (en) Electronic apparatus and method for displaying an image
US11164024B2 (en) Method, apparatus and storage medium for controlling image acquisition component
KR101250224B1 (en) Method for providing contents user interface and terminal
CN113168257B (en) Method for locking touch operation and electronic equipment
KR101695695B1 (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160302

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170228

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee