KR102070281B1 - Head mount display device and control method thereof - Google Patents

Head mount display device and control method thereof Download PDF

Info

Publication number
KR102070281B1
KR102070281B1 KR1020130101366A KR20130101366A KR102070281B1 KR 102070281 B1 KR102070281 B1 KR 102070281B1 KR 1020130101366 A KR1020130101366 A KR 1020130101366A KR 20130101366 A KR20130101366 A KR 20130101366A KR 102070281 B1 KR102070281 B1 KR 102070281B1
Authority
KR
South Korea
Prior art keywords
head
movement
cursor image
image
mounted display
Prior art date
Application number
KR1020130101366A
Other languages
Korean (ko)
Other versions
KR20150024199A (en
Inventor
박운기
이정호
안수남
양원근
윤정석
백승민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020130101366A priority Critical patent/KR102070281B1/en
Publication of KR20150024199A publication Critical patent/KR20150024199A/en
Application granted granted Critical
Publication of KR102070281B1 publication Critical patent/KR102070281B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Abstract

본 발명은 두부 장착형 디스플레이 장치에 관한 것으로, 양안과 대응되는 위치에 배치되고, 커서(cursor) 이미지를 출력하는 디스플레이부, 두부의 움직임을 감지하는 감지부 및 상기 두부의 움직임이 감지되는 것에 응답하여, 상기 두부의 움직임과 대응되도록 상기 커서 이미지를 이동시키는 제어부를 포함하는 것을 특징으로 한다.The present invention relates to a head-mounted display device, which is disposed at a position corresponding to both eyes, and outputs a cursor image, a sensor for detecting the movement of the head, and in response to the movement of the head. And a controller for moving the cursor image to correspond to the movement of the head.

Description

두부 장착형 디스플레이 장치 및 이의 제어방법{HEAD MOUNT DISPLAY DEVICE AND CONTROL METHOD THEREOF}Head mounted display device and control method thereof {HEAD MOUNT DISPLAY DEVICE AND CONTROL METHOD THEREOF}

본 발명은 움직임의 감지가 가능한 두부 장착형 디스플레이 장치 및 이의 제어방법에 관한 것이다.The present invention relates to a head mounted display device capable of detecting a movement and a control method thereof.

정보화시대가 급속히 발전함에 따라 현실감 있는 화면을 구현하는 디스플레이 장치의 중요성이 강조되고 있으며, 일 예로서 두부 장착형 디스플레이 장치(head mounted display, HMD)가 있다.As the information age evolves rapidly, the importance of a display device that realizes a realistic screen is emphasized. An example is a head mounted display (HMD).

두부 장착형 디스플레이 장치는 주로 보안경이나 헬멧형 기기로 눈앞에 있는 스크린을 보도록 이루어지며, 가상 현실감을 실현하기 위해 개발되었다. 두부 장착형 디스플레이 장치는 양안(양쪽 눈)에 근접한 위치에 액정 등의 소형 디스플레이가 설치되어 영상을 투영하는 방식이 일반적이며, 현재는 우주 개발, 원자로, 군사 기관 및 의료 기관에서 사용하기 위한 것과 업무용이나 게임용 등에 대한 각종 개발이 진행되고 있다. The head mounted display device is mainly made of a safety glasses or a helmet type device to see the screen in front of the eyes, and was developed to realize a virtual reality. The head mounted display device is a method of projecting an image by installing a small display such as a liquid crystal in a position close to both eyes (both eyes), and is currently used for space development, nuclear reactors, military institutions, and medical institutions. Various developments for games and the like are in progress.

이러한 개량에 힘입어, 두부 장착형 디스플레이 장치의 일 실시 예로서, 스마트 안경(smart glasses), VR 헤드셋이 출시되고 있다. 착용 가능한 장치(Wearable device)로 구현된 두부 장착형 디스플레이 장치는 기존의 이동 단말기에서 실행되던 기능을 간편하게 실행할 수 있다. 뿐만 아니라, 두부에 간단하게 장착함으로써, 기존의 이동 단말기보다 휴대성이 증가될 수 있다. Thanks to this improvement, smart glasses and a VR headset have been released as one embodiment of the head mounted display device. The head mounted display device implemented as a wearable device may easily execute a function that was performed in a conventional mobile terminal. In addition, by simply mounting on the head, the portability can be increased than conventional mobile terminals.

두부 장착형 디스플레이 장치는 착용 가능한 특성상, 다양한 인체의 움직임을 감지할 수 있는 기능을 포함할 수 있다. 이때, 상기 움직임의 감지를 이용하여, 상기 두부 장착형 디스플레이 장치를 제어하는 방법의 개발이 필요하다.The head mounted display device may include a function of detecting various movements of a human body due to wearable characteristics. At this time, it is necessary to develop a method for controlling the head mounted display device using the detection of the movement.

본 발명의 일 목적은 두부의 움직임을 이용하여 두부 장착형 안경형 단말기를 제어하는 방법을 제공하는 것이다.One object of the present invention is to provide a method for controlling the head-mounted spectacles type terminal using the movement of the head.

본 발명은 움직임의 감지가 가능한 두부 장착형 디스플레이 장치 및 이의 제어방법에 관한 것이다.The present invention relates to a head mounted display device capable of detecting a movement and a control method thereof.

본 발명의 일 실시 예에 따른 두부 장착형 디스플레이 장치는 양안과 대응되는 위치에 배치되고, 커서(cursor) 이미지를 출력하는 디스플레이부와 두부의 움직임을 감지하는 감지부 및 상기 두부의 움직임이 감지되는 것에 응답하여, 상기 두부의 움직임과 대응되도록 상기 커서 이미지를 이동시키는 제어부를 포함하는 것을 특징으로 한다.Head mounted display device according to an embodiment of the present invention is disposed at a position corresponding to both eyes, the display unit for outputting a cursor (cursor) image, the sensing unit for detecting the movement of the head and the movement of the head is detected In response, the control unit for moving the cursor image to correspond to the movement of the head.

일 실시 예에 따른 두부 장착형 디스플레이 장치는 상기 커서 이미지가 이동되는 정도는 상기 두부의 움직임 속도, 거리 및 방향 중 적어도 하나에 근거하여 결정되는 것을 특징으로 한다.In the head mounted display device according to an exemplary embodiment, the degree to which the cursor image moves is determined based on at least one of a moving speed, a distance, and a direction of the head.

일 실시 예에 따른 두부 장착형 디스플레이 장치는 상기 커서 이미지는 상기 두부가 움직이지 않는 경우 이동을 정지하고, 상기 제어부는 상기 커서 이미지가 위치한 영역에 출력된 화면 정보와 관련된 기능을 실행시키는 것을 특징으로 한다.The head mounted display device according to an embodiment may stop the movement of the cursor image when the head does not move, and the controller may execute a function related to screen information output to an area where the cursor image is located. .

일 실시 예에 따른 두부 장착형 디스플레이 장치는 상기 두부의 움직임이 기 설정된 시간 동안 감지되지 않는 것에 대응하여 상기 기능이 실행될 수 있음을 사용자에게 알리기 위하여, 상기 커서 이미지의 색상, 크기 및 모양 중 적어도 하나를 변경시키는 것을 특징으로 한다The head mounted display device according to an embodiment may include at least one of a color, a size, and a shape of the cursor image in order to inform the user that the function may be executed in response to the movement of the head not detected for a preset time. It is characterized by changing

일 실시 예에 따른 두부 장착형 디스플레이 장치는 상기 기 설정된 시간은 제1시간 및 제2시간을 포함하고, 상기제어부는 상기 두부의 움직임이 정지한 상태로 t아기 제1시간이 경과되면, 상기 커서 이미지를 변경시키고, 상기 커서 이미지가 변경된 상태에서 상기 제2시간이 경과되면, 상기 기능을 실행시키는 것을 특징으로 한다.The head mounted display device according to an embodiment may include a first time and a second time, and the control unit may display the cursor image when the first baby time elapses while the movement of the head is stopped. Change the value, and execute the function if the second time elapses with the cursor image changed.

일 실시 예에 따른 두부 장착형 디스플레이 장치는 상기 제1시간이 경과되어 상기 커서 이미지가 변경된 후, 상기 제2시간 경과 전에 상기 두부의 움직임이 감지되는 경우, 상기 커서 이미지의 외관을 변경되기 전으로 복원시키는 것을 특징으로 한다.The head mounted display device according to an embodiment restores the appearance of the cursor image when the head image is changed after the first time elapses and when the movement of the head is detected before the second time elapses. It is characterized by.

일 실시 예에 따른 두부 장착형 디스플레이 장치는 복수의 가상의 키를 구비한 키보드 이미지가 출력되는 단계와 두부의 움직임을 감지하는 단계와 상기 두부의 움직임이 감지되는 것에 근거하여, 상기 두부의 움직임과 대응되도록 커서 이미지를 이동시키는 단계와 상기 두부의 움직임이 정지한 상태가 기 설정된 시간 이상 지속되는 경우, 상기 커서 이미지가 위치한 곳에 출력된 상기 가상의 키가 입력되는 단계를 포함하는 것을 특징으로 한다. According to an embodiment, the head mounted display apparatus may correspond to the movement of the head based on the step of outputting a keyboard image having a plurality of virtual keys, detecting the movement of the head, and detecting the movement of the head. And moving the cursor image so that the movement of the head stops for more than a preset time, and inputting the virtual key output where the cursor image is located.

본 발명은 두부의 움직임을 이용하여 디스플레이부에 출력된 그래픽 객체를 제어할 수 있다. 따라서, 사용자는 별도의 터치입력 없이, 두부 장착형 디스플레이 장치의 착용 상태만으로, 사용자가 현재 보고 있는 화면을 제어할 수 있다. The present invention can control the graphic object output to the display using the movement of the head. Accordingly, the user may control the screen currently viewed by the user only by wearing the head mounted display device without a separate touch input.

본 발명의 또 다른 효과는 두부의 움직임이 기 설정된 패턴에 대응되는 경우, 상기 기 설정된 패턴에 따라 서로 다른 기능이 실행될 수 있다. 이를 통하여, 사용자는 두부의 움직임만으로 다양한 기능을 실행시킬 수 있다. Another effect of the present invention is that when the movement of the head corresponds to a preset pattern, different functions may be executed according to the preset pattern. Through this, the user can execute various functions only by the movement of the head.

도 1은 본 명세서에 개시된 일 실시 예에 따른 두부 장착형 안경형 단말기를 나타내는 블록도이다.
도 2는 본 발명에 따른 두부 장착형 디스플레이 장치의 일 실시 예를 나타낸 개념도이다.
도 3은 본 발명에 따른 두부 장착형 디스플레이 장치에 있어서, 두부의 움직임을 이용하여 제어하는 방법을 나타낸 흐름도이다.
도 4는 도3의 제어방법을 설명하기 위한 개념도이다.
도 5는 두부의 움직임이 정지된 상태로 기 설정된 시간 이상 지속되는 경우, 커서 이미지가 변경되는 모습을 나타낸 개념도이다.
도 6은 두부의 움직임이 정지된 상태로 있다가 다시 움직이는 경우, 커서의 움직임을 나타낸 개념도이다.
도 7은 두부의 움직임에 따라 디스플레이부에 출력된 화면 정보가 이동되는 모습을 나타낸 개념도이다.
도 8은 두부의 움직임이 기 설정된 패턴에 대응되는 경우, 화면 정보를 이동시키는 모습을 나타낸 개념도이다.
도 9는 두부의 움직임이 기 설정된 패턴에 대응되는 경우, 화면 정보를 선택하는 모습을 나타낸 개념도이다.
1 is a block diagram illustrating a head-mounted spectacles-type terminal according to one embodiment disclosed herein.
2 is a conceptual diagram illustrating an embodiment of a head mounted display device according to the present invention.
3 is a flowchart illustrating a method of controlling by using the movement of the head in the head mounted display device according to the present invention.
4 is a conceptual diagram illustrating the control method of FIG. 3.
5 is a conceptual diagram illustrating a state in which the cursor image is changed when the movement of the head continues for a predetermined time in a stopped state.
6 is a conceptual diagram illustrating the movement of a cursor when the movement of the head is stopped and then moved again.
7 is a conceptual diagram illustrating a state in which screen information output to a display unit is moved in accordance with movement of the head.
8 is a conceptual diagram illustrating how screen information is moved when the movement of the head corresponds to a preset pattern.
FIG. 9 is a conceptual diagram illustrating selection of screen information when the movement of the head corresponds to a preset pattern.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, and the same or similar components will be given the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or mixed in consideration of ease of specification, and do not have distinct meanings or roles. In addition, in the following description of the embodiments disclosed herein, when it is determined that the detailed description of the related known technology may obscure the gist of the embodiments disclosed herein, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the exemplary embodiments disclosed herein and are not to be construed as limiting the technical spirit disclosed in the present specification by the accompanying drawings.

도 1은 본 명세서에 개시된 일 실시 예에 따른 두부 장착형 디스플레이 장치(100)를 나타내는 블록도이다.1 is a block diagram illustrating a head mounted display apparatus 100 according to an exemplary embodiment disclosed herein.

상기 두부 장착형 디스플레이 장치(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 감지부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The head mounted display apparatus 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a detection unit 140, an output unit 150, and a memory 160. , An interface unit 170, a controller 180, and a power supply unit 190 may be included. The components shown in FIG. 1 are not essential, so that a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in turn.

무선 통신부(110)는 두부 장착형 디스플레이 장치(100)와 무선 통신 시스템 사이 또는 두부 장착형 디스플레이 장치(100)와 두부 장착형 디스플레이 장치(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 includes one or more modules that enable wireless communication between the head mounted display apparatus 100 and a wireless communication system or between a network in which the head mounted display apparatus 100 and the head mounted display apparatus 100 are located. can do. For example, the wireless communication unit 110 may include at least one of the broadcast receiving module 111, the mobile communication module 112, the wireless internet module 113, the short range communication module 114, and the location information module 115. Can be.

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 두부 장착형 디스플레이 장치(100)에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information, or a server that receives a pre-generated broadcast signal and / or broadcast related information and transmits the same to the head mounted display apparatus 100. have. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다. The broadcast associated information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module 111 may include, for example, Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO), and Digital Video Broadcast (DVB-H). Digital broadcast signals may be received using digital broadcasting systems such as handheld and integrated services digital broadcast-terrestrial (ISDB-T). Of course, the broadcast receiving module 111 may be configured to be suitable for not only the above-described digital broadcasting system but also other broadcasting systems.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, or a text / multimedia message.

상기 이동통신 모듈(112)은 화상통화모드 및 음성통화모드를 구현하도록 이루어진다. 화상통화모드는 상대방의 영상을 보면서 통화하는 상태를 지칭하고, 음성통화모드는 상대방의 영상을 보지 않으면서 통화를 하는 상태를 지칭한다. 화상통화모드 및 음성통화모드를 구현하기 위하여 이동통신 모듈(112)은 음성 및 영상 중 적어도 하나를 송수신하도록 형성된다.The mobile communication module 112 is configured to implement a video call mode and a voice call mode. The video call mode refers to a state of making a call while viewing the other party's video, and the voice call mode refers to a state of making a call without viewing the other party's image. In order to implement the video call mode and the voice call mode, the mobile communication module 112 is configured to transmit and receive at least one of audio and video.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 두부 장착형 디스플레이 장치(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless internet module 113 refers to a module for wireless internet access and may be embedded or external to the head mounted display apparatus 100. Wireless Internet technologies include Wireless LAN (WLAN), Wireless Fidelity (WiFi) Direct, Digital Living Network Alliance (DLNA), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and more. This can be used.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. Short-range communication technologies include Bluetooth ™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). Can be.

위치정보 모듈(115)은 두부 장착형 디스플레이 장치(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.The location information module 115 is a module for acquiring the location of the head mounted display apparatus 100. Examples of the location information module 115 include a global position system (GPS) module or a wireless fidelity (WiFi) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 여기에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라는(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display unit 151.

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부 기기로 전송될 수 있다. 또한, 카메라(121)에서 획득되는 화상 프레임으로부터 사용자의 위치 정보 등이 산출될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to an external device through the wireless communication unit 110. In addition, the position information of the user may be calculated from the image frame acquired by the camera 121. Two or more cameras 121 may be provided according to the use environment.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. The processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 112 and output in the call mode. The microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.

사용자 입력부(130)는 사용자로부터 인가되는 두부 장착형 디스플레이 장치(100)의 동작을 제어하기 위한 제어명령에 따른 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.The user input unit 130 generates input data according to a control command for controlling the operation of the head mounted display apparatus 100 applied from the user. The user input unit 130 may include a key pad, a dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like.

감지부(또는 센싱부, 140)는 두부 장착형 디스플레이 장치(100)의 위치, 사용자 접촉 유무, 두부 장착형 디스플레이 장치(100)의 방위, 두부 장착형 디스플레이 장치(100)의 가속/감속 등과 같이 두부 장착형 디스플레이 장치(100)의 현 상태를 감지하여 두부 장착형 디스플레이 장치(100)의 동작을 제어하기 위한 감지 신호(또는 센싱 신호)를 발생시킨다. 또한, 감지부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 감지할 수도 있다. The sensing unit (or sensing unit) 140 may be a head mounted display such as a position of the head mounted display device 100, presence or absence of user contact, orientation of the head mounted display device 100, acceleration / deceleration of the head mounted display device 100, and the like. The current state of the device 100 is sensed to generate a detection signal (or a sensing signal) for controlling the operation of the head mounted display device 100. In addition, the detector 140 may detect whether the power supply unit 190 supplies power or whether the interface unit 170 is coupled to an external device.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(153), 알람부(154) 및 햅틱 모듈(155) 등이 포함될 수 있다.The output unit 150 is used to generate an output related to sight, hearing, or tactile sense, and may include a display unit 151, an audio output module 153, an alarm unit 154, and a haptic module 155. have.

디스플레이부(151)는 두부 장착형 디스플레이 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 두부 장착형 디스플레이 장치가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 두부 장착형 디스플레이 장치(100)가 화상 통화 모드 또는 촬영 모드인 경우에 디스플레이부(151)는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays (outputs) information processed by the head mounted display apparatus 100. For example, when the head mounted display device is in a call mode, the head mounted display device displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the head mounted display apparatus 100 is in a video call mode or a photographing mode, the display unit 151 displays a photographed and / or received image, a UI, and a GUI.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 is a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display (flexible) display, a 3D display, and an e-ink display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. Some of these displays may be configured to be transparent or light transmissive so that they can be seen through them. This may be referred to as a transparent display. A representative example of the transparent display is TOLED (Transparant OLED).

또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부(152)로서 구성될 수 있다.In addition, the display unit 151 may be configured as a stereoscopic display unit 152 for displaying a stereoscopic image.

여기서, 입체영상은 3차원 입체영상(3-dimensional stereoscopic image)을 나타내며, 3차원 입체 영상(3-dimensional stereoscopic image)은 모니터나 스크린 상에서 사물이 위치한 점진적 깊이(depth)와 실체(reality)를 현실 공간과 동일하게 느낄 수 있도록 한 영상이다. 3차원 입체 영상은 양안시차(binocular disparity)를 이용하여 구현된다. 양안시차란 떨어져 있는 두 눈의 위치에 의하여 이루어지는 시차를 의미하는 것으로, 두 눈이 서로 다른 2차원 화상을 보고 그 화상들이 망막을 통하여 뇌로 전달되어 융합되면 입체 영상의 깊이 및 실제감을 느낄 수 있게 된다.Here, the stereoscopic image represents a three-dimensional stereoscopic image, and the three-dimensional stereoscopic image represents a gradual depth and reality in which an object is placed on a monitor or a screen. This is a video that lets you feel the same as space. 3D stereoscopic images are implemented using binocular disparity. Binocular parallax means the parallax made by the position of two eyes that are separated. When two eyes see different two-dimensional images and the images are transferred to the brain through the retina and merged, the stereoscopic image can feel the depth and reality of the stereoscopic image. .

상기 입체 디스플레이부(152)에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. 가정용 텔레비전 수신기 등에 많이 이용되는 스테레오스코픽 방식에는 휘스톤 스테레오스코프 방식 등이 있다. The stereoscopic display unit 152 may be a three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glasses-free method), a projection method (holographic method). Stereoscopic methods commonly used in home television receivers include Wheatstone stereoscope.

상기 오토 스테레오스코픽 방식의 예로서, 패럴렉스 배리어(parallex barrier) 방식, 렌티큘러(lenticular) 방식, 집적영상(integral imaging) 방식, 스위츠블 렌즈(switchable lens) 등이 있다. 프로젝션 방식에는 반사형 홀로그래픽 방식, 투과형 홀로그래픽 방식 등이 있다.Examples of the auto stereoscopic method include a parallax barrier method, a lenticular method, an integrated imaging method, a switchable lens, and the like. Projection methods include reflective holographic methods and transmissive holographic methods.

일반적으로 3차원 입체 영상은 좌 영상(좌안용 영상)과 우 영상(우안용 영상)으로 구성된다. 좌 영상과 우 영상이 3차원 입체 영상으로 합쳐지는 방식에 따라, 좌 영상과 우 영상을 한 프레임 내 상하로 배치하는 탑-다운(top-down) 방식, 좌 영상과 우 영상을 한 프레임 내 좌우로 배치하는 L-to-R(left-to-right, side by side) 방식, 좌 영상과 우 영상의 조각들을 타일 형태로 배치하는 체커 보드(checker board) 방식, 좌 영상과 우 영상을 열 단위 또는 행 단위로 번갈아 배치하는 인터레이스드(interlaced) 방식, 그리고 좌 영상과 우 영상을 시간 별로 번갈아 표시하는 시분할(time sequential, frame by frame) 방식 등으로 나뉜다.Generally, a 3D stereoscopic image is composed of a left image (left eye image) and a right image (right eye image). A top-down method in which the left and right images are arranged up and down in one frame according to the way in which the left and right images are combined into a 3D stereoscopic image, and the left and right images are in the left and right in one frame. L-to-R (left-to-right, side by side) method that is arranged as a checker board method to arrange the pieces of the left and right images in the form of tiles, and the left and right images in columns Or an interlaced method of alternately arranging rows, and a time sequential (frame by frame) method of alternately displaying left and right images by time.

또한, 3차원 썸네일 영상은 원본 영상 프레임의 좌 영상 및 우 영상으로부터 각각 좌 영상 썸네일 및 우 영상 썸네일을 생성하고, 이를 합쳐서 하나의 3차원 썸네일 영상을 생성할 수 있다. 일반적으로 썸네일(thumbnail)은 축소된 화상 또는 축소된 정지영상을 의미한다. 이렇게 생성된 좌 영상 썸네일과 우 영상 썸네일은 좌 영상과 우 영상의 시차에 대응하는 깊이감(depth)만큼 화면 상에서 좌우 거리차를 두고 표시됨으로써 입체적인 공간감을 나타낼 수 있다.In addition, the 3D thumbnail image may generate a left image thumbnail and a right image thumbnail from the left image and the right image of the original image frame, respectively, and combine them to generate one 3D thumbnail image. In general, a thumbnail refers to a reduced image or a reduced still image. The left image thumbnail and the right image thumbnail generated as described above may be displayed with a three-dimensional space by displaying a left and right distance difference on the screen by a depth corresponding to the parallax of the left image and the right image.

3차원 입체영상의 구현에 필요한 좌 영상과 우 영상은 입체 처리부(미도시)에 의하여 입체 디스플레이부(152)에 표시될 수 있다. 입체 처리부는 3D 영상을 입력받아 이로부터 좌 영상과 우 영상을 추출하거나, 2D 영상을 입력받아 이를 좌 영상과 우 영상으로 전환하도록 이루어진다.The left image and the right image necessary for implementing the 3D stereoscopic image may be displayed on the stereoscopic display 152 by a stereoscopic processor (not shown). The stereo processing unit receives the 3D image and extracts the left and right images therefrom, or receives the 2D image and converts it to the left and right images.

한편, 디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.On the other hand, when the display unit 151 and a sensor for detecting a touch operation (hereinafter referred to as a touch sensor) form a mutual layer structure (hereinafter referred to as a touch screen), the display unit 151 outputs In addition to the device can also be used as an input device. The touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 대상체가 터치 센서 상에 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or capacitance generated at a specific portion of the display unit 151 into an electrical input signal. The touch sensor may be configured to detect not only the position and area where the touch object is touched on the touch sensor, but also the pressure at the touch. Here, the touch object is an object applying a touch to the touch sensor and may be, for example, a finger, a touch pen or a stylus pen, a pointer, or the like.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 180. As a result, the controller 180 can determine which area of the display unit 151 is touched.

도 1을 참조하면, 상기 터치 스크린에 의해 감싸지는 두부 장착형 디스플레이 장치의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 근접 센서(141)는 상기 센싱부(140)의 일 예로서 구비될 수 있다. 상기 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서(141)는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.Referring to FIG. 1, a proximity sensor 141 may be disposed in an inner region of the head mounted display device surrounded by the touch screen or near the touch screen. The proximity sensor 141 may be provided as an example of the sensing unit 140. The proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity thereof without a mechanical contact by using an electromagnetic force or infrared rays. The proximity sensor 141 has a longer life and higher utilization than a contact sensor.

상기 근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 전도성을 갖는 물체(이하, 포인터라 함)의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor 141 include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by a change in an electric field according to the proximity of a conductive object (hereinafter, referred to as a pointer). In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치 스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치 스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치 스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, an act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch". The position at which the proximity touch is performed by the pointer on the touch screen means a position where the pointer is perpendicular to the touch screen when the pointer is in proximity touch.

상기 근접센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor 141 detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

입체 디스플레이부(152)와 터치 센서가 상호 레이어 구조를 이루는 경우(이하, '입체 터치스크린'이라 함)나, 입체 디스플레이부(152)와 터치 동작을 감지하는 3차원 센서가 서로 조합되는 경우에는 상기 입체 디스플레이부(152)는 3차원의 입력 장치로도 사용될 수 있다.When the stereoscopic display unit 152 and the touch sensor form a mutual layer structure (hereinafter, referred to as a “stereoscopic touch screen”), or when the stereoscopic display unit 152 and the 3D sensor detecting a touch operation are combined with each other. The stereoscopic display unit 152 may also be used as a three-dimensional input device.

상기 3차원 센서의 예로서, 상기 센싱부(140)는 근접 센서(141), 입체 터치센싱부(142), 초음파 센싱부(143), 카메라 센싱부(144)를 포함할 수 있다.As an example of the 3D sensor, the sensing unit 140 may include a proximity sensor 141, a stereoscopic touch sensing unit 142, an ultrasonic sensing unit 143, and a camera sensing unit 144.

근접센서(141)는 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 터치를 가하는 감지대상(예를 들어, 사용자의 손가락이나 스타일러스 펜)와 검출면과의 거리를 측정한다. 두부 장착형 디스플레이 장치(100)는 이러한 거리를 이용하여 입체영상의 어느 부분이 터치되었는지를 인식하게 된다. 특히, 터치스크린이 정전식인 경우에는 상기 감지대상의 근접에 따른 전계의 변화로 상기 감지대상의 근접 정도를 검출하고, 이러한 근접 정도를 이용하여 3차원상의 터치를 인식하도록 구성된다. The proximity sensor 141 measures the distance between a sensing object (for example, a user's finger or a stylus pen) and a detection surface to which a touch is applied without mechanical contact by using an electromagnetic force or infrared rays. The head mounted display apparatus 100 recognizes which part of the stereoscopic image is touched using this distance. In particular, when the touch screen is capacitive, the proximity of the sensing object is detected by a change in the electric field according to the proximity of the sensing object, and the touch screen is configured to recognize a three-dimensional touch using the proximity.

입체 터치센싱부(142)는 터치 스크린상에 가해지는 터치의 세기나 지속시간을 감지하도록 이루어진다. 예를 들어, 입체 터치센싱부(142)는 터치를 가하는 압력을 감지하고, 가압력이 강하면 이를 단말기의 내부를 향하여 터치 스크린과 보다 멀리 위치한 객체에 대한 터치로 인식한다.The stereoscopic touch sensing unit 142 is configured to detect the strength or duration of the touch applied to the touch screen. For example, the three-dimensional touch sensing unit 142 detects a pressure to apply a touch, and recognizes that the touch is strong as the touch on an object located farther from the touch screen toward the inside of the terminal.

초음파 센싱부(143)는 초음파를 이용하여, 감지대상의 위치정보를 인식하도록 이루어진다.The ultrasonic sensing unit 143 uses ultrasonic waves to recognize position information of the sensing object.

초음파 센싱부(143)는, 예를 들어 광 센서와 복수의 초음파 센서로 이루어질 수 있다. 광 센서는 광을 감지하도록 형성되며, 초음파 센서는 초음파를 감지하도록 형성된다. 광이 초음파보다 매우 빠르기 때문에, 광이 광 센서에 도달하는 시간은 초음파가 초음파 센서에 도달하는 시간보다 매우 빠르다. 따라서, 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치를 산출할 수 있게 된다.The ultrasonic sensing unit 143 may be formed of, for example, an optical sensor and a plurality of ultrasonic sensors. The optical sensor is configured to sense light, and the ultrasonic sensor is configured to detect ultrasonic waves. Since light is much faster than ultrasonic waves, the time that light reaches the optical sensor is much faster than the time that ultrasonic waves reach the ultrasonic sensor. Therefore, the position of the wave generation source can be calculated using the time difference from the time when the ultrasonic wave reaches the light as the reference signal.

카메라 센싱부(144)는 카메라(121), 포토 센서, 레이저 센서 중 적어도 하나를 포함한다.The camera sensing unit 144 includes at least one of a camera 121, a photo sensor, and a laser sensor.

예를 들어, 카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지한다. 카메라에 의하여 촬영된 2차원 영상에 레이저 센서에 의하여 감지된 거리정보가 더해지면, 3차원 정보가 획득될 수 있다.For example, the camera 121 and the laser sensor are combined with each other to detect a touch of a sensing object with respect to a 3D stereoscopic image. When the distance information detected by the laser sensor is added to the two-dimensional image captured by the camera, three-dimensional information may be obtained.

또 다른 예로서, 포토 센서가 디스플레이 소자에 적층될 수 있다. 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보를 획득하게 된다.As another example, a photo sensor may be stacked on the display element. The photo sensor is configured to scan the movement of the sensing object in proximity to the touch screen. More specifically, the photo sensor mounts a photo diode and a transistor (TR) in a row / column and scans contents mounted on the photo sensor by using an electrical signal that varies according to the amount of light applied to the photo diode. That is, the photo sensor calculates the coordinates of the sensing object according to the amount of change of light, thereby obtaining the position information of the sensing object.

음향 출력 모듈(153)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(153)은 두부 장착형 디스플레이 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(153)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The sound output module 153 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output module 153 may also output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the head mounted display apparatus 100. The sound output module 153 may include a receiver, a speaker, a buzzer, and the like.

알람부(154)는 두부 장착형 디스플레이 장치(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 두부 장착형 디스플레이 장치(100)에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(154)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동을 이용하여, 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음향 출력 모듈(153)을 통해서도 출력될 수 있어서, 디스플레이부(151) 및 음향 출력 모듈(153)은 알람부(154)의 일부로 분류될 수도 있다.The alarm unit 154 outputs a signal for notifying occurrence of an event of the head mounted display apparatus 100. Examples of events generated in the head mounted display apparatus 100 include call signal reception, message reception, key signal input, and touch input. The alarm unit 154 may output a signal for notifying occurrence of an event by using a form other than a video signal or an audio signal, for example, vibration. The video signal or the audio signal may also be output through the display unit 151 or the sound output module 153, so that the display unit 151 and the sound output module 153 may be classified as part of the alarm unit 154. .

햅틱 모듈(haptic module)(155)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(155)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅택 모듈(155)이 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부(180)의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(155)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 155 generates various tactile effects that a user can feel. A representative example of the tactile effect generated by the haptic module 155 may be vibration. The intensity and pattern of vibration generated by the haptic module 155 may be controlled by a user's selection or setting of the controller 180. For example, the haptic module 155 may synthesize different vibrations and output them or sequentially output them.

햅틱 모듈(155)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to the vibration, the haptic module 155 may be configured to apply a pin array that vertically moves with respect to the contact skin surface, a jetting force or suction force of air through the jetting or inlet, a grazing to the skin surface, contact of the electrode, electrostatic force, and the like. Various tactile effects can be generated, such as the effects of the heat-absorption and the reproduction of the sense of cold using the element capable of generating heat.

햅틱 모듈(155)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(155)은 두부 장착형 디스플레이 장치(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 155 may not only deliver the haptic effect through direct contact, but may also be implemented to allow the user to feel the haptic effect through a muscle sense such as a finger or an arm. Two or more haptic modules 155 may be provided according to a configuration aspect of the head mounted display apparatus 100.

메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 160 may store a program for the operation of the controller 180 and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.). The memory 160 may store data relating to various patterns of vibration and sound output when a touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 두부 장착형 디스플레이 장치(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 160 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, magnetic It may include a storage medium of at least one type of a disk and an optical disk. The head mounted display apparatus 100 may be operated in connection with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 두부 장착형 디스플레이 장치(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 두부 장착형 디스플레이 장치(100) 내부의 각 구성요소에 전달하거나, 두부 장착형 디스플레이 장치(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(170)에 포함될 수 있다.The interface unit 170 serves as a path to all external devices connected to the head mounted display apparatus 100. The interface unit 170 receives data from an external device, receives power, and transmits the data to each component inside the head mounted display apparatus 100, or transmits data inside the head mounted display apparatus 100 to an external device. do. For example, a port for connecting a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, and an identification module. The audio input / output (I / O) port, video input / output (I / O) port, earphone port, and the like may be included in the interface unit 170.

한편, 식별 모듈은 두부 장착형 디스플레이 장치(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(170)를 통하여 두부 장착형 디스플레이 장치(100)와 연결될 수 있다.On the other hand, the identification module is a chip that stores a variety of information for authenticating the use authority of the head-mounted display device 100, a user identification module (UIM), subscriber identity module (SIM), general purpose It may include a universal subscriber identity module (USIM). A device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in the form of a smart card. Therefore, the identification device may be connected to the head mounted display device 100 through the interface unit 170.

또한, 상기 인터페이스부(170)는 두부 장착형 디스플레이 장치(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 두부 장착형 디스플레이 장치(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 두부 장착형 디스플레이 장치(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 두부 장착형 디스플레이 장치(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.In addition, the interface unit 170 may be a passage for supplying power from the cradle to the head mounted display apparatus 100 when the head mounted display apparatus 100 is connected to an external cradle, or may be provided by the user. Various command signals input from the cradle may be a passage through which the head mounted display apparatus 100 is transmitted. Various command signals or power input from the cradle may be operated as signals for recognizing that the head mounted display apparatus 100 is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 두부 장착형 디스플레이 장치(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the head mounted display apparatus 100. For example, control and processing related to voice call, data communication, video call and the like are performed. The controller 180 may include a multimedia module 181 for playing multimedia. The multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.

또한, 상기 제어부(180)는 상기 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.In addition, the controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.

또한, 상기 제어부(180)는 상기 두부 장착형 디스플레이 장치(100)의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행할 수 있다. 또한, 상기 제어부(180)는 상기 잠금 상태에서 상기 디스플레이부(151)를 통해 감지되는 터치 입력에 근거하여 상기 잠금 상태에서 표시되는 잠금화면을 제어할 수 있다.In addition, when the state of the head mounted display apparatus 100 satisfies a set condition, the controller 180 may execute a lock state for restricting input of a user's control command to applications. In addition, the controller 180 may control the lock screen displayed in the locked state based on the touch input sensed by the display unit 151 in the locked state.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들은 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. In some cases, the embodiments described herein may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.

소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 애플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.The software code may be implemented as a software application written in a suitable programming language. The software code may be stored in the memory 160 and executed by the controller 180.

이하, 상기 도 1에서 살펴본 본 발명의 일 실시 예에 따른 두부 장착형 디스플레이 장치(100) 또는 두부 장착형 디스플레이 장치(100)의 구성요소들이 배치된 두부 장착형 디스플레이 장치(100) 또는 두부 장착형 디스플레이 장치(100)의 구조를 살펴본다.Hereinafter, the head mounted display device 100 or the head mounted display device 100 in which the components of the head mounted display device 100 or the head mounted display device 100 are disposed according to an embodiment of the present invention described with reference to FIG. 1. Look at the structure of).

도 2은 본 발명에 따른 두부 장착형 디스플레이 장치(100)의 일 실시 예를 나타낸 개념도이다. 2 is a conceptual diagram illustrating an embodiment of a head mounted display device 100 according to the present invention.

도 2을 참조하면, 본 발명에 따른 두부 장착형 디스플레이 장치(100)는 본체(310), 디스플레이부(151) 및 제어부(180)를 포함한다. Referring to FIG. 2, the head mounted display apparatus 100 according to the present invention includes a main body 310, a display unit 151, and a controller 180.

또한 본 발명에 따른 두부 장착형 디스플레이 장치(100)는 동작 감지부를 더 포함할 수 있다.In addition, the head mounted display apparatus 100 according to the present invention may further include a motion detection unit.

본 발명에 따른 두부 장착형 디스플레이 장치(100)는 두부 장착형 디스플레이(head mounted display, HMD)로 구현될 수 있다. 구체적인 실시 예로, 스마트 안경(smart glasses), VR 헤드셋 등 다양한 형태로 두부에 장착 가능하도록 구현될 수 있다. The head mounted display apparatus 100 according to the present invention may be implemented as a head mounted display (HMD). As a specific example, the present invention may be implemented to be mounted on the head in various forms such as smart glasses and a VR headset.

본체(310)는 두부에 장착가능하도록 형성된다. 예를 들면, 스마트 안경에서의 프레임과 다리 부분으로 구현될 수 있다. The main body 310 is formed to be mountable on the head. For example, the frame and the leg portion of the smart glasses may be implemented.

디스플레이부(151)는 본체(310)와 결합하여 양안에 대응되는 위치에 배치될 수 있다. 또한 상기 디스플레이부(151)는 광투과성을 가지며, 시각 정보를 출력할 수 있다. The display unit 151 may be combined with the main body 310 and disposed at positions corresponding to both eyes. In addition, the display unit 151 may have light transparency and output visual information.

상기 시각 정보는 두부 장착형 디스플레이 장치(100)에서 생성하거나 또는 외부 기기로부터 입력받은 가상의 객체를 의미한다. 예를 들면, 상기 가상의 객체는 어플리케이션이나 이에 대응하는 아이콘, 콘텐츠, 통화모드의 UI 등을 의미할 수 있다. 이는 제어부(180)에 의해 생성되거나 스마트 폰과 같은 이동 단말기로부터 입력받을 수 있다.The visual information refers to a virtual object generated by the head mounted display apparatus 100 or received from an external device. For example, the virtual object may mean an application, an icon corresponding to the icon, content, or a UI in a call mode. This may be generated by the controller 180 or received from a mobile terminal such as a smart phone.

또한, 디스플레이부(151)는 광투과성을 갖기 때문에, 사용자는 상기 디스플레이부(151)를 통하여 외부 환경을 볼 수 있다.In addition, since the display unit 151 is light transmissive, the user can see the external environment through the display unit 151.

또한, 일 실시 예로, 디스플레이부(151)는 외부 환경이 보이는 동시에 상기 외부 환경을 구성하는 임의의 외부 물체에 대한 정보가 출력될 수 있다. 예를 들어, 외부 물체는 나무, 건물 등 사용자의 시야를 통하여 볼 수 있는 모든 물체를 의미할 수 있다. In addition, as an example, the display unit 151 may display an external environment and output information on any external object constituting the external environment. For example, the external object may mean any object that can be seen through the user's field of view, such as a tree or a building.

앞서 설명한 바와 같이, 제어부(180)는 두부 장착형 디스플레이 장치(100)를 제어할 수 있다. 구체적으로, 제어부(180)는 두부의 움직임을 감지하여, 디스플레이부(151)에 출력된 그래픽 객체를 제어할 수 있다. 예를 들어, 제어부(180)는 두부의 움직임의 궤적과 디스플레이부(151)에 출력된 그래픽 객체의 이동 궤적이 대응되도록 그래픽 객체를 제어할 수 있다.As described above, the controller 180 may control the head mounted display apparatus 100. In detail, the controller 180 may detect the movement of the head and control the graphic object output to the display unit 151. For example, the controller 180 may control the graphic object to correspond to the movement trajectory of the head and the movement trajectory of the graphic object output to the display unit 151.

또한, 제어부(180)는 두부 장착형 디스플레이 장치(100)의 본체(310)에 장착되거나, 본체(310)와 일체로 형성될 수 있다. 또 다른 실시 예로, 본체(310)와 떨어져 배치될 수 있다.In addition, the controller 180 may be mounted on the main body 310 of the head mounted display apparatus 100 or may be integrally formed with the main body 310. In another embodiment, it may be disposed away from the main body 310.

카메라(121)는 좌안 및 우안 디스플레이부(151) 중 적어도 하나의 전면에 배치될 수 있다. 또는, 프레임(310) 한쪽 또는 양쪽에 배치되어 착용자의 시야 이외의 공간도 촬영할 수 있다.The camera 121 may be disposed in front of at least one of the left eye and right eye display units 151. Alternatively, the frame 310 may be disposed on one or both sides of the frame 310 to capture a space other than the wearer's view.

사용자 입력부(130)는 프레임(310) 한쪽 또는 양쪽에 별도의 터치 패널로 구현될 수 있다. 또는, 물리적인 키로 구현될 수 있다. 예를 들면, 전원의 ON/OFF 스위치가 프레임(310)의 한쪽에 구현될 수 있다.The user input unit 130 may be implemented as a separate touch panel on one or both sides of the frame 310. Or it may be implemented as a physical key. For example, an ON / OFF switch of the power supply may be implemented on one side of the frame 310.

감지부(140)는 본체와 일체로 형성될 수 있다. 예를 들어, 감지부(140)는 프레임 안에 형성될 수 있다. The sensing unit 140 may be integrally formed with the main body. For example, the sensing unit 140 may be formed in a frame.

또 다른 실시 예로, 본체(310)와 연결된 별도의 외부 기기 장치로 구현될 수 있다. 이에 따라, 사용자는 별도의 외부 기기 장치에 특정 명령을 입력할 수 있다. 또는, 디스플레이부(151)가 터치 스크린으로 구현되어 사용자로부터의 제어 명령을 직접 입력받을 수 있다. In another embodiment, it may be implemented as a separate external device device connected to the main body 310. Accordingly, the user may input a specific command to a separate external device device. Alternatively, the display unit 151 may be implemented as a touch screen to directly receive a control command from the user.

또 다른 실시 예로, 사용자의 음성 명령을 인식하는 모듈로 구현될 수 있다. 이를 통해, 사용자는 음성을 통하여 본체(310)에 특정 명령을 입력할 수 있다.In another embodiment, the present invention may be implemented as a module that recognizes a voice command of a user. In this way, the user may input a specific command to the main body 310 through voice.

한편, 두부 장착형 디스플레이 장치의 일 실시 예로서, 스마트 안경(smart glasses)이 출시되고 있다. 착용 가능한 장치(Wearable device)로 구현된 스마트 안경은 기존의 이동 단말기에서 실행되던 기능을 간편하게 실행할 수 있다. Meanwhile, as an embodiment of the head mounted display device, smart glasses have been released. Smart glasses implemented as a wearable device can easily execute functions that were previously executed in a mobile terminal.

상기 스마트 안경의 디스플레이부(151)는 사용자의 양안에 배치되어 있어, 터치입력 이외의 다양한 제어방법을 이용할 필요가 있다. 이에 두부 장착형 디스플레이 장치의 특성을 이용할 수 있도록, 두부의 움직임을 이용하는 방법을 생각해 볼 수 있다.The display unit 151 of the smart glasses is disposed in both eyes of the user, and it is necessary to use various control methods other than touch input. Thus, to use the characteristics of the head-mounted display device, a method of using the movement of the head can be considered.

이하에서는 두부의 움직임을 이용하여 두부 장착형 디스플레이 장치(100)를 제어하는 방법을 설명한다. 도 3은 두부의 움직임을 이용하여, 디스플레이부(151)에 출력된 커서 이미지를 제어하는 방법을 나타낸 흐름도이고, 도 4는 도 3의 제어방법을 설명한 개념도이다. Hereinafter, a method of controlling the head mounted display apparatus 100 using the movement of the head will be described. 3 is a flowchart illustrating a method of controlling a cursor image output to the display unit 151 using movement of the head, and FIG. 4 is a conceptual diagram illustrating the control method of FIG. 3.

본 발명의 일 실시 예에 따른 두부 장착형 디스플레이 장치는 두부의 움직임을 감지하는 단계를 진행할 수 있다(S310).The head mounted display device according to an embodiment of the present disclosure may proceed to detect a movement of the head (S310).

상기 두부(頭部)는 사용자의 머리가 되는 부분을 의미한다. 감지부(140)는 두부에 장착되어 있는 본체(100)의 움직임을 감지함으로써, 상기 두부의 움직임을 감지할 수 있다. The head means a portion that becomes the head of the user. The sensing unit 140 may detect the movement of the head by detecting the movement of the main body 100 mounted on the head.

상기 감지부(140)는 움직임을 감지할 수 있는 센서로 구성될 수 있다. 상기 움직임을 감지하는 센서는 지자기 센서, 가속도 센서 등 움직임 감지가 가능한 다양한 센서로 구성될 수 있다. 상기 가속도 센서는 물체의 가속도, 진동 등을 측정하여 동작을 감지하는 센서이다. 또한, 상기 지자기 센서는 자지기를 검출하여 동작을 감지하는 센서이다.The detector 140 may be configured as a sensor capable of detecting a movement. The sensor for detecting the movement may be configured with various sensors capable of detecting the movement, such as a geomagnetic sensor and an acceleration sensor. The acceleration sensor is a sensor that detects motion by measuring acceleration and vibration of an object. In addition, the geomagnetic sensor is a sensor for detecting the motion by detecting the magnetic field.

상기 두부의 움직임은 움직임 속도, 가속도, 움직임의 방향, 움직인 거리, 회전 등 다양한 변수로 정의될 수 있다. 예를 들어, 두부의 움직임은 두부를 상하로 흔드는 움직임일 수 있다. 또한, 두부를 좌우로 흔드는 움직임도 될 수 있다. 또한, 상기 상하, 또는 좌우로 흔드는 움직임은 속도에 따라 서로 다른 움직임이 될 수 있다. The movement of the head may be defined by various variables such as movement speed, acceleration, direction of movement, distance moved, and rotation. For example, the movement of the head may be a movement of shaking the head up and down. It may also be a movement to shake the head from side to side. In addition, the shaking up and down, or left and right may be different movements according to the speed.

이때, 상기 두부 장착형 디스플레이 장치는 사용자의 기 설정된 제어명령에 의하여, 두부의 움직임을 감지하는 단계를 진행할 수 있다. 상기 사용자의 기 설정된 제어명령은 음성 명령, 버튼 명령, 터치 명령 등 다양한 방식의 제어 명령에 의하여 구현될 수 있다. 또한, 상기 두부 장착형 디스플레이 장치는 두부에 착용된 상태이면, 실시간으로 두부의 움직임을 감지할 수도 있다. In this case, the head mounted display apparatus may proceed to detect the movement of the head by a preset control command of the user. The preset control command of the user may be implemented by various types of control commands such as a voice command, a button command, and a touch command. In addition, when the head mounted display device is worn on the head, the head mounted display device may detect the movement of the head in real time.

상기 두부의 움직임이 감지되는 것에 응답하여, 본 발명의 일 실시 예에 따른 두부 장착형 디스플레이 장치는 두부의 움직임에 대응되도록 커서(cursor) 이미지를 이동시키는 단계를 진행할 수 있다(S320).In response to the movement of the head, the head mounted display device according to an embodiment of the present invention may move the cursor image to correspond to the movement of the head (S320).

상기 커서(cursor)는 컴퓨터 등 전자 기기의 표시 장치 화면에서 문자나 도형 등 제어가 될 대상을 가리키는 기호를 의미한다. 예를 들어, 컴퓨터의 경우, 모니터에 출력되고 있는 화살표 모양의 이미지를 의미할 수 있다. 상기 화살표 모양의 커서 이미지는 외부 입력, 예를 들어, 마우스 입력에 의하여, 상기 커서 이미지가 가리키는 기능을 실행시키는 역할을 할 수 있다. The cursor refers to a symbol indicating an object to be controlled, such as a character or a figure, on a display device screen of an electronic device such as a computer. For example, in the case of a computer, it may mean an arrow-shaped image being output to a monitor. The arrow-shaped cursor image may serve to execute a function indicated by the cursor image by an external input, for example, a mouse input.

상기 커서 이미지는 다양한 모양, 색, 크기를 가질 수 있다. 예를 들어, 상기 커서 이미지는 윈도우즈(windows) 운영체제의 기본 형태인 화살표 모양을 가질 수 있다. 또한, 상기 커서 이미지는 원형일 수 있다. The cursor image may have various shapes, colors, and sizes. For example, the cursor image may have an arrow shape which is a basic form of a Windows operating system. In addition, the cursor image may be circular.

상기 커서 이미지는 상기 두부의 움직임이 감지되는 것에 근거하여, 모양, 크기 및 색 중 적어도 하나가 변경될 수 있다. 즉, 상기 커서 이미지는 정적인 이미지 또는 동적인 이미지일 수 있다. 상기 커서 이미지의 변경은 사용자의 선택에 의하여 변경되거나, 제어부(180)가 기 설정된 조건이 만족되면 자동으로 변경시킬 수 있다. 예를 들어, 상기 커서 이미지는 두부의 움직임을 이용하여 임의의 기능을 실행시킬 수 있고, 상기 임의의 기능이 실행 중에 있음을 나타내기 위하여 크기가 점차적으로 커지도록 변경될 수 있다. The cursor image may change at least one of a shape, a size, and a color based on the movement of the head. That is, the cursor image may be a static image or a dynamic image. The cursor image may be changed by the user's selection or may be automatically changed by the controller 180 when a preset condition is satisfied. For example, the cursor image may execute an arbitrary function using the movement of the head, and may be changed to gradually increase in size to indicate that the arbitrary function is being executed.

상기 두부의 움직임이 감지되면, 제어부(180)는 디스플레이부(151)에 출력된 커서 이미지를 이동시킬 수 있다. 상기 커서 이미지는 상기 두부의 움직임에 대응되도록 이동될 수 있다. When the movement of the head is detected, the controller 180 can move the cursor image output to the display unit 151. The cursor image may be moved to correspond to the movement of the head.

예를 들어, 상기 두부가 오른쪽으로 이동한 후, 아래로 한번 더 이동하는 경우, 디스플레이부(151)에 출력된 커서 이미지는 현재 출력된 위치에서 오른쪽으로 이동 후, 아래로 한번 더 이동하는 모습을 볼 수 있다. 즉, 제어부(180)는 상기 두부의 움직임 궤적에 대응되도록, 상기 커서 이미지를 이동시킬 수 있다. For example, when the head is moved to the right side and then moved further downward, the cursor image output to the display unit 151 is moved to the right side again after moving to the right side from the current output position. can see. That is, the controller 180 can move the cursor image to correspond to the movement trajectory of the head.

또한, 상기 제어부(180)는 상기 두부의 움직임의 속도, 방향 및 거리 중 적어도 하나에 근거하여, 상기 커서 이미지가 이동되는 정도를 결정할 수 있다. 예를 들어, 상기 두부의 움직임 속도가 빠른 경우, 상기 제어부(180)는 상기 커서 이미지를 상기 두부의 움직임 속도에 대응되도록 빠르게 이동시킬 수 있다.In addition, the controller 180 may determine the degree to which the cursor image is moved based on at least one of a speed, a direction, and a distance of the movement of the head. For example, when the movement speed of the head is fast, the controller 180 can quickly move the cursor image to correspond to the movement speed of the head.

상기 두부의 움직임이 더 이상 감지되지 않는 경우, 본 발명의 일 실시 예에 따른 두부 장착형 디스플레이 장치는 상기 두부의 움직임이 정지된 상태로 기 설정된 시간이 경과된 경우, 상기 커서 이미지가 위치한 영역에 출력된 화면 정보와 관련된 기능을 실행하는 단계를 진행할 수 있다(S330).When the movement of the head is no longer detected, the head-mounted display device according to an embodiment of the present invention outputs to the area where the cursor image is located when a predetermined time elapses while the movement of the head is stopped. The execution of a function related to the displayed screen information may be performed (S330).

상기 두부의 움직임이 더 이상 감지되지 않는 경우, 즉 두부의 정지 상태가 지속되는 경우, 제어부(180)는 두부가 움직이지 않는 상태라고 판단할 수 있다. When the movement of the head is no longer detected, that is, when the stationary state of the head continues, the controller 180 may determine that the head is not moving.

상기 감지부(140)에서 두부의 움직임이 감지되지 않으면, 제어부(180)는 상기 커서 이미지를 더 이상 이동시키지 않을 수 있다. 또한, 상기 제어부(180)는 상기 정지 상태가 기 설정된 조건을 만족하는지 판단할 수 있다. 상기 기 설정된 조건은 상기 정지 상태로 기 설정된 시간이 경과하였는지 여부일 수 있다. 상기 제어부(180)는 상기 기 설정된 시간이 경과하였는지 여부에 따라, 상기 커서 이미지가 위치한 영역에 출력된 화면정보를 선택할지 여부를 판단할 수 있다. If the movement of the head is not detected by the detector 140, the controller 180 may not move the cursor image any more. In addition, the controller 180 may determine whether the stop state satisfies a preset condition. The preset condition may be whether or not a preset time has elapsed to the stop state. The controller 180 may determine whether to select screen information output in an area where the cursor image is located, according to whether the preset time has elapsed.

예를 들어, 상기 제어부(180)가 두부의 움직임이 감지되지 않은 상태로 기 설정된 시간이 경과하였다고 판단하는 경우, 상기 제어부(180)는 상기 커서 이미지가 위치한 영역에 출력된 화면 정보와 관련된 기능을 실행시킬 수 있다. For example, when the controller 180 determines that a predetermined time has elapsed while the movement of the head is not detected, the controller 180 provides a function related to the screen information output in the area where the cursor image is located. Can be run.

상기 기능을 실행시키는 일 예에 대하여 보다 구체적으로 살펴보면, 본 발명에 따른 두부 장착형 디스플레이 장치의 디스플레이부(151)는 복수의 가상의 키를 구비한 키보드 이미지가 출력되는 영역(400)과 상기 키보드의 입력에 따라 메시지를 출력하는 영역(410)을 포함할 수 있다. 이때, 상기 커서 이미지(420)는 상기 키보드 이미지(400) 위에 출력되고 있을 수 있다. 그 후, 상기 커서 이미지(420)가 기 설정된 시간 동안 이동되지 않는 경우, 제어부(180)는 상기 커서 이미지(420)가 위치한 영역에 출력된 가상의 키를 선택할 수 있다. 즉, 상기 제어부(180)는 상기 선택된 가상의 키 입력을 수신할 수 있다.An example of executing the above function will be described in detail. The display unit 151 of the head mounted display device according to the present invention includes an area 400 where a keyboard image having a plurality of virtual keys is output and the keyboard 400. It may include an area 410 for outputting a message according to the input. In this case, the cursor image 420 may be output on the keyboard image 400. Thereafter, when the cursor image 420 is not moved for a preset time, the controller 180 may select a virtual key output in an area where the cursor image 420 is located. That is, the controller 180 can receive the selected virtual key input.

또 다른 예로, 디스플레이부(151)는 복수의 애플리케이션의 아이콘을 출력시킬 수 있다. 이때, 제어부(180)는 두부의 움직임이 정지된 상태로 기 설정된 시간이 경과되었는지 여부를 판단할 수 있다. 이 경우, 상기 커서 이미지 또한 이동되지 않고, 기 설정된 시간 동안 정지한 상태로 출력될 수 있다. 상기 커서 이미지가 이동되지 않고, 기 설정된 시간 동안 정지하여 있는 경우, 상기 복수의 애플리케이션의 아이콘 중 상기 커서 이미지가 위치한 영역에 출력된 아이콘이 선택되고, 상기 선택된 아이콘에 대응되는 애플리케이션이 실행될 수 있다. As another example, the display unit 151 may output icons of a plurality of applications. In this case, the controller 180 may determine whether a preset time has elapsed while the movement of the head is stopped. In this case, the cursor image may not be moved but may be output in a state of being stopped for a preset time. When the cursor image is not moved and is stopped for a preset time, an icon output in an area where the cursor image is located among icons of the plurality of applications is selected, and an application corresponding to the selected icon may be executed.

도 4의 (a)를 참조하면, 사용자는 두부 장착형 디스플레이 장치를 착용하고 있을 수 있다. 이때, 사용자는 상기 두부 장착형 디스플레이 장치의 디스플레이부(151)에 화면 정보가 출력되고 있는 것을 볼 수 있다. 예를 들어, 상기 화면 정보는 키보드(400) 입력을 받을 수 있는 화면과 상기 키보드(400) 입력을 받은 정보를 출력하는 화면(410)일 수 있다. 이때, 커서 이미지(420)는 상기 키보드(400)를 구성하는 복수의 키 중 어느 하나의 키(401)가 위치한 영역에 위치해 있을 수 있다. Referring to FIG. 4A, a user may be wearing a head mounted display device. In this case, the user may see that screen information is output to the display unit 151 of the head mounted display device. For example, the screen information may be a screen capable of receiving input of the keyboard 400 and a screen 410 of outputting received information of the input of the keyboard 400. In this case, the cursor image 420 may be located in an area in which any one key 401 of the plurality of keys constituting the keyboard 400 is located.

이때, 도 4의 (b)를 참조하면, 사용자는 두부를 움직일 수 있다. 이 경우, 감지부(140)는 상기 두부의 움직임을 감지할 수 있다. 예를 들어, 상기 두부의 움직임은 왼쪽으로 두부를 이동시키는 움직임일 수 있다. 이 경우, 상기 제어부(180)는 상기 두부의 움직임 궤적에 대응하여 디스플레이부(151)에 출력된 커서 이미지를 이동시킬 수 있다. 따라서, 상기 커서 이미지 또한, 현재 위치에서 왼쪽으로 이동될 수 있다. 예를 들어, 도 4의 (b)에 도시된 바와 같이, 커서 이미지(420)는 상기 어느 하나의 키(401)의 왼쪽 영역에 위치한 다른 하나의 키(402)의 영역으로 이동될 수 있다. At this time, referring to Figure 4 (b), the user can move the head. In this case, the sensing unit 140 may detect the movement of the head. For example, the movement of the head may be a movement of the head to the left. In this case, the controller 180 may move the cursor image output to the display unit 151 in response to the movement trajectory of the head. Thus, the cursor image may also be shifted left from the current position. For example, as shown in FIG. 4B, the cursor image 420 may be moved to an area of the other key 402 located in the left area of the one key 401.

도 4의 (c)를 참조하면, 상기 커서 이미지를 이동시킨 후, 사용자는 두부를 움직이지 않고, 정지시킬 수 있다. 이 경우, 감지부(140)는 상기 두부의 움직임을 더 이상 감지하지 못할 수 있다. 상기 감지부(140)에서 상기 두부의 움직임이 더이상 감지되지 않으면, 상기 제어부(180)는 상기 두부가 정지한 상태라고 판단할 수 있다. 이때, 제어부(180)는 상기 두부가 정지한 상태로 기 설정된 시간이 경과하였는지 여부를 판단할 수 있다.Referring to FIG. 4C, after moving the cursor image, the user may stop the head without moving the head. In this case, the sensing unit 140 may no longer detect the movement of the head. If the movement of the head is no longer detected by the detector 140, the controller 180 may determine that the head is stopped. In this case, the controller 180 may determine whether a preset time has elapsed while the head is stopped.

상기 제어부(180)는 상기 두부가 정지한 상태로 상기 기 설정된 시간이 경과하였다고 판단되면, 도 4의 (c)에 도시된 바와 같이, 상기 커서 이미지(430)가 위치한 영역에 출력된 상기 다른 하나의 키(402)가 선택될 수 있다. 이 경우, 상기 다른 하나의 키(402)가 선택될 수 있음을 알리기 위하여, 상기 제어부(180)는 커서 이미지(430)를 변경시킬 수 있다.  If the controller 180 determines that the predetermined time has elapsed while the head is stopped, the controller 180 outputs the other one to the area where the cursor image 430 is located, as shown in FIG. The key 402 of may be selected. In this case, the controller 180 may change the cursor image 430 to inform that the other key 402 may be selected.

예를 들어, 상기 제어부(180)는 두부가 정지한 상태가 감지되면, 정지 후, 두부의 정지상태가 유지되는 시간에 대응하여, 커서 이미지를 점점 크게 변경(430)시킬 수 있다. 예를 들어, 도 4의 (c)를 참조하면, 상기 커서 이미지는 가상의 키보드의 "f" 키에 위치할 수 있다. 이때 상기 가상의 "f"키 위에 위치한 커서 이미지(430)가 기 설정된 시간 동안 정지하여 있는 경우, 상기 "f"키가 선택될 수 있다. 이때, 제어부(180)는 상기 가상의 "f"키가 선택될 수 있음을 알리기 위하여 상기 커서 이미지(430)의 크기를 크게 변경시킬 수 있다. 따라서, 디스플레이부(151)의 일 영역 중 메시지가 출력되는 영역(410)에는 상기 "f"가 입력될 수 있다. For example, when the state where the head is stopped is detected, the controller 180 may gradually change the cursor image (430) gradually after the stop, in response to the time for which the head is held. For example, referring to FIG. 4C, the cursor image may be located on the “f” key of the virtual keyboard. In this case, when the cursor image 430 positioned on the virtual “f” key is stopped for a preset time, the “f” key may be selected. In this case, the controller 180 can greatly change the size of the cursor image 430 to inform that the virtual "f" key can be selected. Therefore, the “f” may be input to an area 410 in which a message is output among one areas of the display unit 151.

또한, 상기 가상의 키가 입력된 후, 커서 이미지는 다시 변경되기 전의 상태로 복원될 수 있다. 예를 들어, 상기 가상의 키의 입력이 가해진 후, 상기 커서 이미지의 크기는 변경되기 전의 크기로 되돌아 갈 수 있다. 이 경우, 상기 제어부(180)는 다시 상기 감지부(140)에서 두부의 움직임이 감지되는 것에 근거하여, 두부의 움직임에 대응되도록 다시 커서 이미지를 이동시킬 수 있다. In addition, after the virtual key is input, the cursor image may be restored to a state before being changed again. For example, after the virtual key is input, the size of the cursor image may be returned to the size before the change. In this case, the controller 180 may again move the cursor image to correspond to the movement of the head based on the detection of the movement of the head by the sensing unit 140.

이상에서는 두부의 움직임을 이용하여, 커서 이미지를 이동시키는 방법에 관하여 설명하였다. 이를 통하여, 사용자는 두부 장착형 디스플레이 장치에 있어서, 별도의 터치 입력 없이, 간단한 두부의 움직임 만으로 커서 이미지를 이동시킬 수 있어 편리성이 증대될 수 있다. In the above, the method of moving the cursor image using the movement of the head has been described. Through this, in the head mounted display device, the user can move the cursor image only by simple movement of the head without a separate touch input, thereby increasing convenience.

이하에서는, 두부의 움직임에 대응하여, 커서 이미지가 변경되는 모습을 보다 구체적으로 살펴본다. 도 5는 두부의 움직임이 감지되지 않는 경우, 커서 이미지가 변경되는 것을 나타낸 개념도이다. Hereinafter, the state in which the cursor image is changed in response to the movement of the head will be described in more detail. 5 is a conceptual diagram illustrating that the cursor image is changed when the movement of the head is not detected.

도 5의 (a)와 (b)를 참조하면, 두부 장착형 디스플레이 장치를 사용하는 사용자는 상기 두부 장착형 디스플레이 장치를 착용한 상태에서, 두부를 움직일 수 있다. Referring to FIGS. 5A and 5B, a user who uses the head mounted display apparatus may move the head while wearing the head mounted display apparatus.

이 경우, 감지부(140)는 상기 두부의 움직임을 감지할 수 있다. 상기 감지부(140)에서 상기 두부의 움직임을 감지하면, 제어부(180)는 상기 두부의 움직임 궤적에 대응되도록 커서 이미지를 이동시킬 수 있다. 예를 들어, 사용자가 두부를 왼쪽으로 회전시키는 경우, 감지부(140)는 상기 왼쪽으로 회전하는 움직임을 감지할 수 있다. 또한, 상기 감지부(140)에서 왼쪽으로 회전하는 움직임을 감지하는 경우, 제어부(180)는 커서 이미지를 왼쪽으로 이동시킬 수 있다. In this case, the sensing unit 140 may detect the movement of the head. When the sensing unit 140 detects the movement of the head, the controller 180 may move a cursor image to correspond to the movement trajectory of the head. For example, when the user rotates the head to the left, the detector 140 may detect the movement of rotating the left side. In addition, when the sensing unit 140 detects a movement to rotate to the left, the controller 180 can move the cursor image to the left.

그 후, 도 5의 (c)를 참조하면, 사용자는 두부를 더 이상 움직이지 않을 수 있다. 이 경우, 상기 감지부(140)는 상기 두부의 움직임을 감지하지 않을 수 있다. 상기 감지부(140)에서 두부의 움직임이 감지되지 않으면, 제어부(180)는 두부가 정지하여 있다고 판단할 수 있다. Thereafter, referring to FIG. 5C, the user may no longer move the head. In this case, the detector 140 may not detect the movement of the head. If the movement of the head is not detected by the detector 140, the controller 180 may determine that the head is stationary.

그 후, 제어부(180)는 상기 정지 상태가 기 설정된 시간 동안 지속되고 있는지 판단할 수 있다. 상기 기 설정된 시간은 제1시간 및 제2시간을 포함할 수 있다. 예를 들어, 상기 기 설정된 시간을 절반으로 나누는 경우, 전반부의 절반의 시간을 제1시간, 후반부의 절반의 시간을 제2시간으로 정의할 수 있다.Thereafter, the controller 180 can determine whether the stop state lasts for a preset time. The preset time may include a first time and a second time. For example, when dividing the predetermined time in half, the first half time may be defined as the first time, and the second half time may be defined as the second time.

상기 제어부(180)는 상기 제1시간이 경과한 경우, 커서 이미지의 모양, 크기 및 색 중 적어도 하나를 변경시킬 수 있다. 예를 들어, 도 5의 (b)에 도시된 바와 같이, 상기 커서 이미지가 원형인 경우, 상기 원형의 크기를 변경시킬 수 있다. 예를 들어, 상기 커서 이미지(520, 530)의 크기는 시간이 경과함에 대응되어 점차적으로 커질 수 있다. 이를 통하여, 사용자는 현재 커서 이미지가 위치한 영역에 출력된 화면 정보와 관련된 기능이 선택될 수 있음을 알 수 있다.The controller 180 may change at least one of a shape, a size, and a color of a cursor image when the first time elapses. For example, as shown in (b) of FIG. 5, when the cursor image is circular, the size of the circular shape may be changed. For example, the size of the cursor images 520 and 530 may gradually increase in response to the passage of time. Through this, the user may know that a function related to the screen information output in the area where the current cursor image is located may be selected.

그 후, 상기 커서 이미지가 점차적으로 커지다가, 도 5의 (c)에 도시된 바와 같이, 상기 커서 이미지가 정지한 상태로 상기 제2시간이 경과된 경우, 상기 커서 이미지(530)가 위치한 영역에 출력된 화면 정보가 선택될 수 있다. 이때, 상기 커서 이미지는 제2시간에 도달한 경우, 최대로 크기 변경될 수 있다. 예를 들어, 상기 커서 이미지(530)는 "f" 키의 위치에 출력되어 있을 수 있으며, 상기 제2시간이 경과한 경우, 상기 "f"키가 선택될 수 있다. 상기 "f"가 선택된 경우, 메시지 출력 영역(410)에는 "f"가 출력될 수 있다. Thereafter, the cursor image gradually increases, and as shown in (c) of FIG. 5, when the second time elapses while the cursor image is stopped, an area where the cursor image 530 is located The screen information output on the screen may be selected. In this case, when the cursor image reaches the second time, the cursor image may be resized maximum. For example, the cursor image 530 may be output at the position of the "f" key, and when the second time elapses, the "f" key may be selected. When "f" is selected, "f" may be output to the message output area 410.

상기 커서 이미지가 위치한 영역에 출력된 화면 정보와 관련된 기능이 선택된 후, 본 발명에 따른 두부 장착형 디스플레이 장치는 상기 커서 이미지를 변경 전 이미지로 복원시키고, 다시 다른 기능을 선택할 수 있는 상태로 되돌아 갈 수 있다. 예를 들어, 상기 복수의 가상의 키 중 어느 하나의 키가 선택된 후, 상기 커서 이미지는 변경 전 크기로 되돌아가고, 다시 다른 키를 선택하기 위한 상태로 되돌아 갈 수 있다. 이 경우, 디스플레이부(151)에 출력되고 있던 가상의 키보드 이미지는 계속하여 출력되고 있을 수 있다.After the function related to the screen information output in the area where the cursor image is located is selected, the head mounted display device according to the present invention can restore the cursor image to the image before the change and return to a state where another function can be selected again. have. For example, after any one of the plurality of virtual keys is selected, the cursor image can be returned to its pre-change size and back to a state for selecting another key. In this case, the virtual keyboard image output to the display unit 151 may be continuously output.

이상에서는 두부의 움직임에 따라, 커서 이미지가 변경되는 모습을 설명하였다. 이를 통하여, 사용자는 디스플레이부에 현재 어떠한 정보가 선택되고 있는지 여부를 확인할 수 있다. In the above, the cursor image is changed according to the movement of the head. In this way, the user can check what information is currently selected on the display unit.

이하에서는 두부의 움직임에 이용하여, 커서 이미지가 변경된 후, 다시 두부의 움직임이 감지되는 경우의 제어방법을 설명한다. 도 6은 두부의 움직임이 정지되었다가, 다시 두부의 움직임이 감지된 경우, 커서 이미지가 변경되는 것을 나타낸 개념도이다. Hereinafter, a control method when the movement of the head is detected again after the cursor image is changed using the movement of the head. 6 is a conceptual diagram illustrating that the cursor image is changed when the movement of the head is stopped and the movement of the head is detected again.

도 6의 (a) 및 (b)를 참조하면, 사용자는 두부의 움직임을 이용하여, 커서 이미지를 이동시킬 수 있다. 이때, 커서 이미지는 두부의 움직임 궤적에 대응되도록 이동된다. 예를 들어, 사용자의 두부가 왼쪽으로 이동한 경우, 커서 이미지 또한, 현재 위치에서 왼쪽으로 이동될 수 있다. Referring to (a) and (b) of FIG. 6, the user may move the cursor image by using the movement of the head. At this time, the cursor image is moved to correspond to the movement trajectory of the head. For example, when the head of the user is moved to the left, the cursor image may also be moved to the left from the current position.

그 후, 도 6의 (b)에 도시된 바와 같이, 상기 두부의 움직임이 더 이상 감지되지 않는 경우, 제어부(180)는 커서 이미지를 변경시킬 수 있다. 이때, 커서 이미지의 변경(520)은 현재 커서가 위치한 영역에 출력되고 있는 화면 정보와 관련된 기능이 선택되고 있음을 나타낼 수 있다. Thereafter, as illustrated in FIG. 6B, when the movement of the head is no longer detected, the controller 180 may change the cursor image. In this case, the change 520 of the cursor image may represent that a function related to screen information currently being output in the region where the cursor is located is selected.

상기 제어부(180)는 상기 두부의 움직임이 기 설정된 시간 동안 감지되지 않는 것에 대응하여, 상기 기능이 선택되고 있음을 나타낼 수 있도록 커서 이미지를 변경시킬 수 있다. 이때, 상기 기 설정된 시간은 제1시간 및 제2시간을 포함할 수 있다. 예를 들어, 상기 제1시간은 상기 기 설정된 시간의 시작부터 절반까지의 시간을 의미할 수 있고, 상기 제2시간은 상기 기 설정된 시간의 나머지 절반의 시간을 의미할 수 있다. The controller 180 may change the cursor image to indicate that the function is being selected in response to the movement of the head not being detected for a preset time. In this case, the preset time may include a first time and a second time. For example, the first time may mean a time from the start of the preset time to half, and the second time may mean a time of the other half of the preset time.

이때, 두부의 움직임이 감지되지 않은 상태로 상기 제1시간이 경과하면, 제어부(180)는 상기 커서 이미지(520)를 변경시킬 수 있다. 그 후, 도 6의 (c)에 도시된 바와 같이, 상기 커서 이미지(520)가 변경된 상태에서, 상기 제2시간이 경과하기 전, 감지부(140)는 두부의 움직임을 감지할 수 있다. 이 경우, 제어부(180)는 상기 두부가 다시 움직이고 있음을 판단하고, 현재 선택되고 있는 기능이 선택되지 않는다고 판단할 수 있다. 따라서, 상기 제어부(180)는 현재 선택되고 있음을 나타내는 커서 이미지(520)를 변경 전의 이미지(610)로 복원시킬 수 있다. In this case, when the first time elapses without the movement of the head being detected, the controller 180 may change the cursor image 520. Thereafter, as shown in (c) of FIG. 6, in the state where the cursor image 520 is changed, before the second time elapses, the detector 140 may detect the movement of the head. In this case, the controller 180 may determine that the head is moving again, and determine that a function that is currently selected is not selected. Accordingly, the controller 180 may restore the cursor image 520 indicating that the selection is currently made to the image 610 before the change.

또한, 상기 제어부(180)는 상기 커서 이미지를 상기 두부의 움직임 궤적에 대응되도록 이동시킬 수 있다. 예를 들어, 사용자가 정지한 상태에서 다시 왼쪽으로 머리를 돌리는 움직임이 감지되면, 커서 이미지는 변경 전 이미지(610)로 복원되고, 상기 복원된 커서 이미지(610)는 두부의 움직임 궤적에 대응되도록 현재 위치에서 왼쪽 영역으로 이동될 수 있다. In addition, the controller 180 may move the cursor image to correspond to the movement trajectory of the head. For example, when the user detects a motion of turning his head to the left again while the user is stationary, the cursor image is restored to the pre-change image 610, and the restored cursor image 610 corresponds to the movement trajectory of the head. It can be moved from the current position to the left area.

이상에서는 두부의 움직임이 정지한 상태에서 기 설정된 시간 동안에 다시 두부의 움직임이 감지된 경우, 커서 이미지를 제어하는 방법을 설명하였다. 사용자는 상기 기 설정된 시간이 경과하기 전에 다시 두부를 움직임으로써, 현재 선택되고 있는 기능을 선택하지 않을 수 있다. 또한, 사용자는 커서 이미지가 다시 변경 전의 이미지로 복원되어, 상기 선택되고 있는 기능이 선택되지 않음을 알 수 있다. In the above, the method of controlling the cursor image when the movement of the head is detected again for a predetermined time while the movement of the head is stopped has been described. The user may not select the currently selected function by moving the head again before the preset time elapses. In addition, the user can recognize that the cursor image is restored to the image before the change again, so that the selected function is not selected.

이하에서는 두부의 움직임을 이용하여, 화면을 변경(또는 이동)시키는 것을 설명한다. 도 7은 두부의 움직임을 이용하여, 화면이 변경(또는 이동)되는 모습을 설명한 개념도이다. The following describes changing (or moving) the screen using the movement of the head. 7 is a conceptual diagram illustrating a state in which a screen is changed (or moved) by using the movement of the head.

도 7의 (a)에 도시된 바와 같이, 본 발명에 따른 두부 장착형 디스플레이 장치는 두부의 움직임을 감지할 수 있다. 상기 두부의 움직임은 감지부(140)에서 감지될 수 있다. As shown in FIG. 7A, the head mounted display device according to the present invention may detect the movement of the head. The movement of the head may be detected by the detector 140.

상기 감지부(140)에서 두부의 움직임이 감지된 경우, 제어부(180)는 상기 두부의 움직임이 감지되는 것에 근거하여, 디스플레이부(151)에 출력되고 있는 화면 정보 및 커서 이미지 중 적어도 하나를 변경할 수 있다. 예를 들어, 상기 제어부(180)는 화면 정보를 변경시킬 수 있다. 이때, 변경되는 화면 정보는 디스플레이부(151)의 일 영역 또는 전체 영역에 표시된 화면 정보 일 수 있다. 이 경우, 상기 두부의 움직임에 의하여 화면 정보가 변경될 뿐, 커서 이미지는 고정된 위치에 있을 수 있다. 또한, 상기 제어부(180)는 화면 정보와 커서 이미지를 동시에 변경시킬 수 있다. When the movement of the head is detected by the sensor 140, the controller 180 changes at least one of screen information and a cursor image output to the display unit 151 based on the movement of the head. Can be. For example, the controller 180 may change screen information. In this case, the changed screen information may be screen information displayed on one area or the entire area of the display unit 151. In this case, only the screen information is changed by the movement of the head, and the cursor image may be at a fixed position. In addition, the controller 180 may simultaneously change the screen information and the cursor image.

예를 들어, 상기 제어부(180)는 디스플레이부(151)에 출력되고 있는 일 영역의 화면 정보를 상기 두부의 움직임에 대응되도록 변경(또는 이동)시킬 수 있다. 이때, 커서 이미지는 화면의 중앙에 고정되어 있을 수 있다. 즉, 상기 제어부(180)는 상기 화면이 사용자의 눈에는 이동되는 것처럼 보일 수 있도록 화면을 변경시킬 수 있다. For example, the controller 180 may change (or move) screen information of one region output to the display unit 151 to correspond to the movement of the head. In this case, the cursor image may be fixed at the center of the screen. That is, the controller 180 may change the screen so that the screen may appear to be moved to the eyes of the user.

도 7의 (b)를 참고하면, 상기 두부의 움직임은 오른쪽으로 이동하는 움직임 일 수 있다. 이때, 디스플레이부(151)에는 문자 출력부와 가상의 키를 포함하는 키보드부(410)가 출력되어 있을 수 있다. 상기 제어부(180)는 상기 두부가 오른쪽으로 움직이는 경우, 상기 디스플레이부(151)에 출력된 화면 정보를 전체적으로 오른쪽으로 이동시킬 수 있다. 또한, 도 7의 (b)와 같이, 상기 제어부(180)는 디스플레이부(151)의 일 영역만을 오른쪽으로 이동시킬 수 있다. 예를 들어, 상기 제어부(180)는 상기 키보드부만을 오른쪽으로 이동(710)시킬 수 있다. Referring to FIG. 7B, the movement of the head may be a movement to the right. In this case, the display unit 151 may output a keyboard unit 410 including a character output unit and a virtual key. When the head moves to the right, the controller 180 can move the screen information output to the display unit 151 to the right as a whole. In addition, as illustrated in FIG. 7B, the controller 180 may move only one region of the display unit 151 to the right. For example, the controller 180 may move only the keyboard unit 710 to the right.

또 다른 예로, 도 7의 (c)를 참고하면, 사용자는 두부를 왼쪽으로 움직일 수 있다. 이 경우, 상기 디스플레이부(151)에 출력된 키보드부는 두부의 움직임에 대응되도록 왼쪽으로 이동(720)될 수 있다. As another example, referring to FIG. 7C, the user may move the head to the left. In this case, the keyboard unit output to the display unit 151 may be moved 720 to the left to correspond to the movement of the head.

이상에서는 두부의 움직임에 대응되어, 디스플레이부(151)에 출력된 화면 정보가 이동되는 것을 나타내었다. 이를 이용하여, 사용자는 두부의 움직임만으로 사용자가 원하는 위치의 화면 정보를 선택할 수 있다. In the above, the screen information output to the display unit 151 is moved corresponding to the movement of the head. Using this, the user can select the screen information of the desired position by the movement of the head only.

상기 두부의 움직임에 대응되어 디스플레이부의 화면 정보가 이동될 뿐만 아니라, 상기 두부의 움직임은 기 설정된 패턴과 일치할 수 있다. 이 경우, 상기 기 설정된 패턴에 미리 매칭시켜 놓은 기능이 실행될 수 있다. In addition to moving the screen information of the display unit corresponding to the movement of the head, the movement of the head may coincide with a preset pattern. In this case, a function previously matched to the predetermined pattern may be executed.

이하에서는 두부의 움직임이 기 설정된 패턴과 일치하는 경우, 상기 패턴에 매칭된 기능이 실행되는 것을 설명한다. 도 8은 두부의 움직임이 기 설정된 패턴에 대응되는 경우, 미리 매칭시켜 놓은 기능이 실행되는 것을 나타낸 개념도이다.Hereinafter, when the movement of the head coincides with the preset pattern, the function matching the pattern will be described. FIG. 8 is a conceptual diagram illustrating that a function previously matched is executed when the movement of the head corresponds to a preset pattern.

상기 기 설정된 패턴은 두부를 상하 또는 좌우로 흔드는 움직임, 두부를 기울이는 움직임 등 다양한 패턴이 있을 수 있다. 또한, 제어부(180)는 상기 기 설정된 패턴에 미리 임의의 기능을 매칭시켜 놓을 수 있다. 예를 들어, 상기 제어부(180)는 두부를 좌우로 흔드는 움직임에 현재 실행되고 있는 애플리케이션을 종료하는 기능을 매칭시켜 놓을 수 있다. The preset pattern may have various patterns such as a movement of shaking the head up and down or left and right, a movement of tilting the head, and the like. In addition, the controller 180 may match an arbitrary function with the preset pattern in advance. For example, the controller 180 may match a function of terminating an application currently being executed with a movement of shaking the head from side to side.

예를 들어, 도 8의 (a)에 도시된 바와 같이, 본 발명에 따른 두부 장착형 디스플레이 장치에는 현재 웹브라우저 애플리케이션을 실행되고 있을 수 있다. 이때, 디스플레이부(151)에는 웹브라우저 페이지(810)가 출력되어 있을 수 있다. 상기 웹브라우저 페이지(810)가 출력된 상태에서, 감지부(140)는 두부의 움직임을 감지할 수 있다. 이때, 상기 두부가 오른쪽으로 움직이는 경우, 상기 두부의 움직임에 매칭된 기능이 실행될 수 있다. 예를 들어, 도 8의 (b)를 참조하면, 상기 오른쪽으로 움직이는 움직임에 매칭된 기능은 현재 출력되고 있는 웹브라우저 페이지(810)에서 이전 웹브라우저 페이지(820)로 이동되는 기능일 수 있다. For example, as shown in FIG. 8A, the head mounted display device according to the present invention may be currently executing a web browser application. In this case, the web browser page 810 may be output to the display unit 151. In the state where the web browser page 810 is output, the detector 140 may detect the movement of the head. In this case, when the head moves to the right, a function matched to the movement of the head may be executed. For example, referring to FIG. 8B, the function matched to the movement to the right may be a function of moving from the currently output web browser page 810 to the previous web browser page 820.

또 다른 예로, 감지부(140)는 상기 웹브라우저 페이지(810)가 출력된 상태에서 두부가 왼쪽으로 이동하는 움직임을 감지할 수 있다. 이 경우, 상기 왼쪽으로 이동하는 움직임에는 현재 출력되고 있는 웹브라우저 페이지(810)의 다음 웹브라우저 페이지(830)가 출력되도록 하는 기능이 매칭되어 있을 수 있다. As another example, the sensing unit 140 may detect a movement of the head moving to the left while the web browser page 810 is output. In this case, the movement to the left may be matched with a function for outputting the next web browser page 830 of the currently output web browser page 810.

이상에서는 임의의 애플리케이션의 기능이 실행되고 있는 중, 두부의 움직임에 근거하여, 상기 실행되고 있는 애플리케이션과 관련된 기능이 실행되는 것을 설명하였다. 이를 통하여, 사용자는 간단한 두부의 움직임만으로 애플리케이션의 기능을 제어할 수 있다. In the above, while the function of an arbitrary application is being executed, it demonstrated that the function related to the said running application is executed based on the movement of a head. Through this, the user can control the function of the application with only a simple head movement.

이하에서는 두부의 움직임에 근거하여, 기 설정된 기능이 실행되는 것을 설명한다. 도 9은 두부의 움직임에 근거하여, 기 설정된 기능이 실행되는 것을 나타낸 개념도이다. Hereinafter, it will be described that the preset function is executed based on the movement of the head. 9 is a conceptual diagram illustrating that a preset function is executed based on the movement of the head.

도 9의 (a) 및 (b)에 도시된 바와 같이, 사용자는 두부의 움직임을 이용하여 커서 이미지를 이동시킬 수 있다. 예를 들어, 사용자가 두부를 왼쪽으로 움직이는 경우, 커서 이미지 또한, 왼쪽으로 이동될 수 있다. As shown in (a) and (b) of FIG. 9, the user may move the cursor image by using the movement of the head. For example, if the user moves the head to the left, the cursor image may also be moved to the left.

그 후, 도 9의 (c)에 도시된 바와 같이, 사용자는 상기 커서 이미지가 이동된 위치에 출력된 화면 정보와 관련된 기능을 실행시키기 위하여, 두부의 움직임을 이용할 수 있다. 이때, 상기 두부의 움직임이 기 설정된 패턴에 대응되면, 상기 패턴에 매칭되어 있는 기능이 실행될 수 있다. 예를 들어, 상기 기 설정된 패턴에는 두부를 상하로 움직이는 것, 또는 좌우로 움직이는 것, 또는 두부의 회전하는 움직임 등 다양한 패턴이 있을 수 있다. 이때, 상기 제어부(180)는 각 기 설정된 패턴에 미리 기능을 매칭시켜 놓을 수 있다. 예를 들어, 상기 제어부(180)는 상기 두부를 상하로 움직이는 패턴에 현재 커서 이미지가 출력되고 있는 영역에 표시된 기능이 실행되도록 매칭시켜 놓을 수 있다. Thereafter, as illustrated in FIG. 9C, the user may use the movement of the head to execute a function related to the screen information output at the position where the cursor image is moved. In this case, when the movement of the head corresponds to a preset pattern, a function matching the pattern may be executed. For example, the preset pattern may include various patterns such as moving the head up and down, moving the left and right, or rotating the head. In this case, the controller 180 may match a function with a preset pattern in advance. For example, the controller 180 may match the pattern of moving the head up and down to execute a function displayed in a region where a cursor image is currently output.

예를 들어, 도 9의 (c)를 참조하면, 사용자는 두부를 상하로 움직일 수 있다. 이 경우, 상기 커서 이미지가 위치한 영역에 출력된 화면 정보와 관련된 기능이 실행될 수 있다. 도 9의 (c)에서는 가상의 키인 "f"가 입력될 수 있다. For example, referring to FIG. 9C, the user may move the head up and down. In this case, a function related to screen information output in the area where the cursor image is located may be executed. In FIG. 9C, a virtual key “f” may be input.

비록 도시되지는 않았지만, 또한, 도 9과는 달리, 현재 디스플레이부(151)에 애플리케이션과 관련된 아이콘이 출력되고 있을 수 있다. 이 경우, 상기 아이콘 위에 커서 이미지가 위치한 경우, 상기 두부의 상하 움직임에 의하여 상기 아이콘과 관련된 애플리케이션이 실행될 수 있다. Although not shown, unlike FIG. 9, an icon related to an application may be currently displayed on the display unit 151. In this case, when the cursor image is located on the icon, an application related to the icon may be executed by the vertical movement of the head.

또한, 그 밖에도 두부의 다양한 움직임 패턴에는 다양한 기능이 매칭되어 있을 수 있다. 예를 들어, 두부를 좌우로 회전하는 움직임은 현재 실행되고 있는 프로그램을 종료시키는 기능을 매칭시킬 수 있다. In addition, various functions may be matched to various movement patterns of the head. For example, the movement of the head to the left or right may match the function of terminating the program currently being executed.

이상에서는 두부의 움직임이 기 설정된 패턴과 대응되는 경우, 상기 패턴에 매칭된 기능을 실행시키는 것을 설명하였다. 사용자는 다양한 두부의 움직임을 이용하여 다양한 기능을 실행시킬 수 있다.In the above, when the movement of the head corresponds to the preset pattern, the function matching the pattern has been described. The user can execute various functions using various head movements.

본 발명은 두부의 움직임을 이용하여 디스플레이부에 출력된 그래픽 객체를 제어할 수 있다. 따라서, 사용자는 별도의 터치입력 없이, 두부 장착형 디스플레이 장치의 착용 상태만으로, 사용자가 현재 보고 있는 화면을 제어할 수 있다. The present invention can control the graphic object output to the display using the movement of the head. Accordingly, the user may control the screen currently viewed by the user only by wearing the head mounted display device without a separate touch input.

본 발명의 또 다른 효과는 두부의 움직임이 기 설정된 패턴에 대응되는 경우, 상기 기 설정된 패턴에 따라 서로 다른 기능이 실행될 수 있다. 이를 통하여, 사용자는 두부의 움직임만으로 다양한 기능을 실행시킬 수 있다. Another effect of the present invention is that when the movement of the head corresponds to a preset pattern, different functions may be executed according to the preset pattern. Through this, the user can execute various functions only by the movement of the head.

또한, 본 명세서에 개시된 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.In addition, according to one embodiment disclosed herein, the above-described method may be implemented as code that can be read by a processor in a medium in which a program is recorded. Examples of processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.

상기와 같이 설명된 이동 단말기는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described mobile terminal is not limited to the configuration and method of the above-described embodiments, but the embodiments may be configured by selectively combining all or some of the embodiments so that various modifications can be made. It may be.

Claims (7)

두부 장착형 디스플레이 장치에 있어서,
양안과 대응되는 위치에 배치되는 화면을 출력하고, 상기 화면의 제1영역은 복수의 가상의 키를 구비한 키보드 이미지를 출력하고, 상기 화면의 제2영역은 상기 키보드 이미지로부터 입력 받은 정보를 출력하고, 상기 화면의 제1영역의 어느 하나에 커서(cursor) 이미지가 위치하도록 출력하는 디스플레이부;
두부의 움직임을 감지하는 감지부; 및
상기 두부의 움직임이 감지되는 것에 응답하여, 상기 화면 내에서 상기 두부의 움직임과 대응되도록 상기 커서 이미지를 이동시키는 제어부를 포함하고,
상기 제어부는,
상기 두부의 움직임이 기 설정된 시간 동안 감지되지 않는 것에 대응하여, 상기 커서 이미지의 크기가 점차적으로 증가되도록 변경하고,
상기 커서 이미지는 기 설정된 크기에 대응되는 경우, 상기 커서 이미지가 위치한 영역에 대응하는 기능을 실행하는 것을 특징으로 하는 두부 장착형 디스플레이 장치.
In the head mounted display device,
Outputs a screen disposed at a position corresponding to both eyes, a first area of the screen outputs a keyboard image having a plurality of virtual keys, and a second area of the screen outputs information received from the keyboard image A display unit configured to output a cursor image on one of the first areas of the screen;
A detector for detecting a movement of the head; And
And a controller for moving the cursor image to correspond to the movement of the head in the screen in response to the movement of the head being detected.
The control unit,
In response to the movement of the head not detected for a preset time, the size of the cursor image is changed to increase gradually,
And when the cursor image corresponds to a preset size, execute the function corresponding to the area where the cursor image is located.
제1항에 있어서,
상기 커서 이미지가 이동되는 정도는 상기 두부의 움직임 속도, 거리 및 방향 중 적어도 하나에 근거하여 결정되는 것을 특징으로 하는 두부 장착형 디스플레이 장치.
The method of claim 1,
And the degree of movement of the cursor image is determined based on at least one of a movement speed, a distance, and a direction of the head.
제1항에 있어서,
상기 커서 이미지는 상기 두부가 움직이지 않는 경우, 이동을 정지하고,
상기 제어부는,
상기 두부의 움직임이 기 설정된 패턴에 대응되는 경우, 상기 패턴에 매칭되는 기능을 실행시키는 것을 특징으로 하는 두부 장착형 디스플레이 장치.
The method of claim 1,
The cursor image stops movement when the head is not moving,
The control unit,
And when the movement of the head corresponds to a preset pattern, executing the function matching the pattern.
제3항에 있어서, 상기 제어부는
상기 두부의 움직임이 기 설정된 시간 동안 감지되지 않는 것에 대응하여 상기 기능이 실행될 수 있음을 사용자에게 알리기 위하여, 상기 커서 이미지의 색상 및 모양 중 적어도 하나를 변경시키는 것을 특징으로 하는 두부 장착형 디스플레이 장치.
The method of claim 3, wherein the control unit
And at least one of a color and a shape of the cursor image to notify the user that the function can be executed in response to the movement of the head not detected for a preset time.
제3항에 있어서,
상기 기 설정된 시간은 제1시간 및 제2시간을 포함하고,
상기 제어부는
상기 두부의 움직임이 정지한 상태로 상기 제1시간이 경과되면, 상기 커서 이미지를 변경시키고,
상기 커서 이미지가 변경된 상태에서 상기 제2시간이 경과되면, 상기 기능을 실행시키는 것을 특징으로 하는 두부 장착형 디스플레이 장치.
The method of claim 3,
The preset time includes a first time and a second time,
The control unit
When the first time elapses with the movement of the head stopped, the cursor image is changed,
And executing the function when the second time elapses in the state where the cursor image is changed.
제5항에 있어서,
상기 제어부는
상기 제1시간이 경과되어 상기 커서 이미지가 변경된 후, 상기 제2시간이 경과 전에 상기 두부의 움직임이 감지되는 경우, 상기 커서 이미지의 외관을 변경되기 전으로 복원시키는 것을 특징으로 하는 두부 장착형 디스플레이 장치.
The method of claim 5,
The control unit
After the first time has elapsed and the cursor image is changed, when the movement of the head is detected before the second time has elapsed, the head-mounted display device may restore the appearance of the cursor image to before the change. .
디스플레이부에 양안과 대응되는 위치에 배치되는 화면을 출력하고, 상기 화면은 복수의 가상의 키를 구비한 키보드 이미지 및 상기 키보드 이미지로부터 입력 받은 정보가 출력되는 단계;
두부의 움직임을 감지하는 단계;
상기 두부의 움직임이 감지되는 것에 근거하여, 상기 화면 내에서 상기 두부의 움직임과 대응되도록 커서 이미지를 이동시키는 단계; 및
상기 두부의 움직임이 정지한 상태가 기 설정된 시간 동안 감지되지 않는 것에 대응하여 상기 커서 이미지를 점차적으로 커지도록 변경하는 단계; 및
상기 커서 이미지가 기 설정된 크기에 대응되는 경우, 상기 커서 이미지가 위치한 영역에 대응하는 기능을 실행하는 단계를 포함하는 두부 장착형 디스플레이 장치의 제어방법.
Outputting a screen disposed at a position corresponding to both eyes on the display unit, wherein the screen outputs a keyboard image having a plurality of virtual keys and information received from the keyboard image;
Detecting movement of the head;
Moving a cursor image to correspond to the movement of the head in the screen based on the movement of the head being detected; And
Changing the cursor image to gradually increase in response to a state in which the movement of the head stops is not detected for a preset time; And
And executing a function corresponding to an area in which the cursor image is located when the cursor image corresponds to a preset size.
KR1020130101366A 2013-08-26 2013-08-26 Head mount display device and control method thereof KR102070281B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130101366A KR102070281B1 (en) 2013-08-26 2013-08-26 Head mount display device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130101366A KR102070281B1 (en) 2013-08-26 2013-08-26 Head mount display device and control method thereof

Publications (2)

Publication Number Publication Date
KR20150024199A KR20150024199A (en) 2015-03-06
KR102070281B1 true KR102070281B1 (en) 2020-01-28

Family

ID=53020958

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130101366A KR102070281B1 (en) 2013-08-26 2013-08-26 Head mount display device and control method thereof

Country Status (1)

Country Link
KR (1) KR102070281B1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160128119A (en) 2015-04-28 2016-11-07 엘지전자 주식회사 Mobile terminal and controlling metohd thereof
KR20170046415A (en) 2015-10-21 2017-05-02 엘지전자 주식회사 Mobile terminal and method for controlling the same
WO2017069381A1 (en) * 2015-10-21 2017-04-27 Lg Electronics Inc. Mobile terminal and method for controlling the same
CN106933349A (en) * 2017-02-06 2017-07-07 歌尔科技有限公司 Unlocking method, device and virtual reality device for virtual reality device
CN108572719A (en) * 2017-03-13 2018-09-25 北京杜朗自动化系统技术有限公司 The intelligent helmet control method and system identified using figure
CN111465912A (en) * 2017-10-11 2020-07-28 凯菲森有限公司 Augmented reality glasses with motion detection function
KR102133219B1 (en) * 2017-10-11 2020-07-14 주식회사 카이비전 Augmented reality glasses detecting movements
KR102270170B1 (en) * 2018-11-14 2021-06-25 임승준 Surgery supporting instrument using augmented reality
KR102367492B1 (en) * 2019-11-29 2022-02-25 주식회사 카이비전 Head motion recognition augmented reality glass
WO2021107527A1 (en) * 2019-11-29 2021-06-03 주식회사 카이비전 Multifunctional augmented reality glasses, modularized augmented reality glasses, and head motion detection augmented reality glasses

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187553A (en) * 1991-06-20 2000-07-04 Fuji Xerox Co Ltd Input device and head mount display for input device
JP2009294372A (en) * 2008-06-04 2009-12-17 Nikon Corp Head-mounted display device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2011220382A1 (en) * 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187553A (en) * 1991-06-20 2000-07-04 Fuji Xerox Co Ltd Input device and head mount display for input device
JP2009294372A (en) * 2008-06-04 2009-12-17 Nikon Corp Head-mounted display device

Also Published As

Publication number Publication date
KR20150024199A (en) 2015-03-06

Similar Documents

Publication Publication Date Title
KR102070281B1 (en) Head mount display device and control method thereof
USRE48677E1 (en) Mobile terminal and control method thereof
US20160291327A1 (en) Glass-type image display device and method for controlling same
KR102014775B1 (en) Mobile terminal and method for controlling the same
US9459785B2 (en) Electronic device and contents generation method thereof
US9367128B2 (en) Glass-type device and control method thereof
US9319655B2 (en) Electronic device and corresponding method for displaying a stereoscopic image
KR102195773B1 (en) Wearable glass-type device and method of controlling the device
KR20120034303A (en) Mobile terminal and method for controlling thereof
US20130147928A1 (en) Electronic device and payment method thereof
US8941648B2 (en) Mobile terminal and control method thereof
KR102058371B1 (en) Wearable glass-type device and control method thereof
KR20150004192A (en) Display device and control method thereof
KR20150033431A (en) Wearable glass-type device and control method thereof
KR20130064257A (en) Mobile terminal and controlling method thereof
KR20120130394A (en) Mobile terminal and method for controlling the same
KR20130053476A (en) Mobile terminal and method for controlling the same
KR20150032056A (en) Wearable glass-type device and metohd of coltrolling the device
KR20150068819A (en) Display device and control method thereof
KR20110136132A (en) Electronic device and control method for electronic device
KR20120060371A (en) Mobile terminal and method for controlling thereof
KR20130058203A (en) Mobile terminal and method for controlling thereof
KR20150041448A (en) Wearable glass-type device and control method thereof
KR20150064563A (en) Mobile terminal and control method for the mobile terminal
KR20130087117A (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant