KR20190070899A - Method for providing user with virtual image in head-mounted display device, machine-readable storage medium and head-mounted display device - Google Patents

Method for providing user with virtual image in head-mounted display device, machine-readable storage medium and head-mounted display device Download PDF

Info

Publication number
KR20190070899A
KR20190070899A KR1020190067342A KR20190067342A KR20190070899A KR 20190070899 A KR20190070899 A KR 20190070899A KR 1020190067342 A KR1020190067342 A KR 1020190067342A KR 20190067342 A KR20190067342 A KR 20190067342A KR 20190070899 A KR20190070899 A KR 20190070899A
Authority
KR
South Korea
Prior art keywords
light
transmittance
glass
display device
head
Prior art date
Application number
KR1020190067342A
Other languages
Korean (ko)
Inventor
한순섭
김상태
이두웅
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190067342A priority Critical patent/KR20190070899A/en
Publication of KR20190070899A publication Critical patent/KR20190070899A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B27/22
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

According to one aspect of the present invention, provided is a method for providing a virtual image to a user in a head-mounted display device, which comprises the steps of: detecting ambient illuminance; calculating a target transmittance of a window provided in the head-mounted display device corresponding to the ambient illuminance; adjusting the transmittance of the window in accordance with the target transmittance; and projecting light to the window using a projector, thereby providing a virtual image formed by the light reflected by the window to the user.

Description

헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 헤드-마운티드 디스플레이 장치{METHOD FOR PROVIDING USER WITH VIRTUAL IMAGE IN HEAD-MOUNTED DISPLAY DEVICE, MACHINE-READABLE STORAGE MEDIUM AND HEAD-MOUNTED DISPLAY DEVICE}Technical Field [0001] The present invention relates to a method for providing a virtual image to a user in a head-mounted display device, a machine-readable storage medium, and a head-mounted display device. -MOUNTED DISPLAY DEVICE}

본 발명은 착용식 디스플레이(wearable display) 장치에 관한 것으로서, 특히 헤드-마운티드 디스플레이(Head Mounted Display: HMD) 장치에 관한 것이다. The present invention relates to a wearable display device, and more particularly to a head-mounted display (HMD) device.

종래의 HMD 장치로서, 비디오 시스루(see-through) HMD 장치는 실제 주변 환경에 대한 이미지를 획득하기 위하여 1~2대의 카메라를 구비한다. 비디오 시스루 HMD 장치는, 비디오 합성기를 이용하여 카메라로부터 입력되는 실제 이미지와 컴퓨터에서 생성한 가상 이미지를 합성하고, 합성된 이미지를 HMD 장치에 부착된 LCD와 같은 디스플레이 장치를 통해 사용자에게 보여 준다.As a conventional HMD device, a video see-through HMD device has one or two cameras to acquire an image of an actual surrounding environment. The video-see-through HMD device combines a real image input from a camera with a virtual image generated by a computer using a video synthesizer, and displays the synthesized image to a user through a display device such as an LCD attached to the HMD device.

비디오 시스루 HMD 장치는 컴퓨터 비전 기술을 이용하여 가상 객체를 원하는 위치에 정확히 표시할 수 있다는 이점이 있다. 그러나, 디스플레이 장치의 작은 화면으로 인하여, 실제 환경과 가상 환경의 해상도가 모두 제한적이다.The video-see-through HMD device has the advantage that the virtual object can be accurately displayed at a desired position using computer vision technology. However, due to the small screen of the display device, both the resolution of the real environment and the resolution of the virtual environment are limited.

본 발명의 특정 실시 예들의 목적은 종래기술과 관련된 문제점들 및/또는 단점들 중의 적어도 하나를 적어도 부분적으로 해결, 경감 또는 제거하는 것이다.It is an object of certain embodiments of the present invention to at least partially solve, alleviate or eliminate at least one of the problems and / or disadvantages associated with the prior art.

본 발명은 가상의 이미지와 실제 이미지를 동시에 제공하고, HMD 장치의 무게와 크기를 소형화할 수 있으며. 가상 이미지의 야외 시인성을 개선하고, 저전력, 저발열인 HMD 장치를 제공함을 일 목적으로 한다. The present invention can simultaneously provide a virtual image and an actual image, and can reduce the weight and size of the HMD device. The object of the present invention is to improve the outdoor visibility of a virtual image and to provide an HMD device with low power and low heat.

본 발명의 일 측면에 따른 헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법은, 주변 조도를 검출하는 단계와; 상기 주변 조도에 대응하는 상기 헤드-마운티드 디스플레이 장치에 구비된 윈도우의 목표 투과율을 산출하는 단계와; 상기 목표 투과율에 따라 상기 윈도우의 투과율을 조절하는 단계와; 프로젝터를 이용하여 상기 윈도우에 광을 투사함으로써, 상기 윈도우에 의해 반사된 광에 의해 형성된 가상 이미지를 상기 사용자에게 제공하는 단계를 포함한다.A method of providing a virtual image to a user in a head-mounted display device according to an aspect of the present invention includes: detecting ambient illuminance; Calculating a target transmittance of a window provided in the head-mounted display device corresponding to the ambient illuminance; Adjusting a transmittance of the window according to the target transmittance; And projecting light to the window using a projector, thereby providing a virtual image formed by the light reflected by the window to the user.

본 발명의 다른 측면에 따라, 헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체 및 이러한 저장 매체를 구비한 헤드-마운티드 디스플레이 장치가 제공된다.According to another aspect of the present invention, there is provided a machine-readable storage medium having recorded thereon a program for executing a method of providing a virtual image to a user in a head-mounted display apparatus, and a head-mounted display apparatus having such a storage medium do.

본 발명의 또 다른 측면에 따른 사용자에게 가상 이미지를 제공하는 헤드-마운티드 디스플레이 장치는, 주변 조도를 검출하는 센서부와; 광을 투사하는 프로젝터와; 상기 프로젝터에 의해 투사된 광을 집속 및 반사함으로써, 상기 반사된 광에 의해 형성된 가상 이미지를 상기 사용자에게 제공하는 윈도우와; 상기 주변 조도에 대응하는 상기 윈도우의 목표 투과율을 산출하고, 상기 목표 투과율에 따라 상기 윈도우의 투과율을 조절하는 제어부를 포함한다.A head-mounted display device for providing a virtual image to a user according to another aspect of the present invention includes a sensor unit for detecting an ambient illuminance; A projector for projecting light; A window for focusing and reflecting light projected by the projector to provide a virtual image formed by the reflected light to the user; And a control unit for calculating a target transmittance of the window corresponding to the ambient illuminance and adjusting the transmittance of the window according to the target transmittance.

본 발명은 HOE 기반의 결합기인 윈도우를 사용하여 가상의 이미지와 실제 이미지를 동시에 제공할 수 있으며, 글래스 및 홀로그래픽 광소자를 일체형으로 형성함으로써, HMD 장치의 무게와 크기를 소형화할 수 있다. 또한, 본 발명은 광의 투과율을 전기적 신호에 의해 조절할 수 있도록 윈도우를 구현함으로써, 가상 이미지의 야외 시인성을 개선하고, 저전력으로 윈도우를 구동할 수 있으므로, 발열을 감소시키고 배터리 사용 시간을 증가시킬 수 있다. 또한, 본 발명의 윈도우는 넓은 화각(Field of View: FoV) 및 양호한 화질을 제공할 수 있다. The present invention can simultaneously provide a virtual image and an actual image using a window as a HOE-based coupler, and the weight and size of the HMD device can be miniaturized by integrally forming glass and holographic optical devices. In addition, the present invention can improve the outdoor visibility of a virtual image and drive a window with low power by implementing a window so that the light transmittance can be controlled by an electrical signal, thereby reducing heat generation and increasing battery usage time . Further, the window of the present invention can provide a wide field of view (FoV) and a good image quality.

도 1은 본 발명의 바람직한 실시 예에 따른 헤드-마운티드 디스플레이 장치를 외측에서 본 사시도,
도 2는 HMD 장치를 내측에서 본 사시도,
도 3은 HMD 회로의 구성을 나타내는 도면,
도 4는 제1 프로젝터의 개략적인 구성을 나타내는 도면,
도 5는 제1 윈도우의 구성 및 기능을 설명하기 위한 도면,
도 6은 제1 글래스의 구성을 나타내는 도면,
도 7은 제1 홀로그래픽 광소자의 홀로그래픽 패턴을 나타내는 도면,
도 8 및 도 9는 HMD 장치의 투과율 제어를 설명하기 위한 도면들,
도 10은 본 발명의 바람직한 실시 예에 따른 가상 이미지 제공 방법을 나타내는 흐름도,
도 11 내지 도 13은 가상 이미지 제공 방법의 제1 예를 설명하기 위한 도면들,
도 14는 가상 이미지 제공 방법의 제2 예를 설명하기 위한 도면,
도 15는 가상 이미지 제공 방법의 제3 예를 설명하기 위한 도면,
도 16은 가상 이미지 제공 방법의 제4 예를 설명하기 위한 도면,
도 17은 가상 이미지 제공 방법의 제5 예를 설명하기 위한 도면.
1 is a perspective view of a head-mounted display device according to a preferred embodiment of the present invention,
2 is a perspective view of the HMD device as seen from the inside,
3 is a diagram showing a configuration of an HMD circuit,
4 is a diagram showing a schematic configuration of a first projector,
5 is a view for explaining the configuration and functions of the first window,
6 is a view showing a configuration of a first glass,
7 is a diagram showing a holographic pattern of a first holographic optical element,
8 and 9 are views for explaining the control of the transmittance of the HMD device,
10 is a flowchart illustrating a method for providing a virtual image according to a preferred embodiment of the present invention.
11 to 13 are views for explaining a first example of a virtual image providing method,
14 is a diagram for explaining a second example of the virtual image providing method,
15 is a diagram for explaining a third example of the virtual image providing method,
16 is a diagram for explaining a fourth example of the virtual image providing method,
17 is a diagram for explaining a fifth example of the virtual image providing method.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하여 상세하게 설명한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention can be variously modified and may have various embodiments, and specific embodiments will be described in detail with reference to the drawings. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

도 1은 본 발명의 바람직한 실시 예에 따른 헤드-마운티드 디스플레이(Head Mounted Display: HMD) 장치를 외측에서 본 사시도이고, 도 2는 HMD 장치를 내측에서 본 사시도이다. FIG. 1 is a perspective view of a head-mounted display (HMD) device according to a preferred embodiment of the present invention, and FIG. 2 is a perspective view of the HMD device as seen from the inside.

HMD 장치(100)는 전체적으로 안경의 외관을 가지며, 휴대 가능한 단말(또는 휴대 통신 단말)이며, HMD 하우징(110)과, HMD 하우징(110) 내에 실장된 HMD 회로(101)를 포함한다. The HMD device 100 includes a HMD housing 110 and an HMD circuit 101 mounted in the HMD housing 110. The HMD device 100 is a portable terminal (or a mobile communication terminal) having an overall appearance of glasses.

HMD 하우징(110)은 좌측 눈 및 우측 눈에 각각 대응되는 제1 및 제2 윈도우(280, 285)가 고정되는 프론트 프레임(115)과, 제1 및 제2 힌지(122, 123)에 의해 내측으로 접거나 외측으로 펼칠 수 있는 제1 및 제2 템플 프레임(120, 121)을 포함한다. 이하, 좌측 눈 및 우측 눈은 제1 눈 및 제2 눈으로 칭할 수도 있다. 본 발명에서, 제1 및 제2 윈도우(280, 285)는 제1 및 제2 윈도우 패널이라고 칭할 수도 있다. The HMD housing 110 includes a front frame 115 to which first and second windows 280 and 285 corresponding to the left eye and the right eye are fixed and a front frame 115 fixed to the inside by the first and second hinges 122 and 123. [ And first and second temple frames 120 and 121 that can be folded out or outwardly. Hereinafter, the left eye and the right eye may be referred to as a first eye and a second eye. In the present invention, the first and second windows 280 and 285 may be referred to as first and second window panels.

프론트 프레임(115)의 외측면에는 카메라(260)가 배치되어 있고, 카메라(260)는 제1 및 제2 윈도우(280, 285) 사이의 프론트 프레임(115)의 부분(즉, 통상의 안경에서 브릿지에 해당)에 배치된다. A camera 260 is disposed on an outer surface of the front frame 115 and a camera 260 is disposed on a portion of the front frame 115 between the first and second windows 280 and 285 Bridge).

또한, 프론트 프레임(115)의 외측면에는 마이크(212)가 배치되어 있고, 또한 프론트 프레임(115)의 외측면에 터치 센서(250)가 배치되어 있다. A microphone 212 is disposed on the outer surface of the front frame 115 and a touch sensor 250 is disposed on the outer surface of the front frame 115.

프론트 프레임(115)의 내측면에는 프론트 프레임(115) 내에 배치된 제1 프로젝터(270)로부터 출력되는 제1 투사 광(310)이 프론트 프레임(115)의 외부로 출력되는 통로가 되는 제1 개구(111)가 배치되어 있다. 또한, 프론트 프레임(115)의 내측면에는 프론트 프레임(115) 내에 배치된 제2 프로젝터(275)로부터 출력되는 제2 투사 광(320)이 프론트 프레임(115)의 외부로 출력되는 통로가 되는 제2 개구(112)가 배치되어 있다. 이때, 각 개구(111, 112)에는 외부로부터의 먼지가 프론트 프레임(115)의 내부로 유입되는 것을 차단하기 위한 투명한 보호 유리가 설치될 수 있다. A first projection light 310 output from the first projector 270 disposed in the front frame 115 is projected to the outside of the front frame 115, (Not shown). A second projecting light 320 output from the second projector 275 disposed in the front frame 115 is projected onto the inner surface of the front frame 115 as a passage through which the second projection light 320 is output to the outside of the front frame 115 Two openings 112 are disposed. At this time, the openings 111 and 112 may be provided with a transparent protective glass for preventing the dust from the outside from flowing into the inside of the front frame 115.

제1 템플 프레임(120)의 외측면에는 적어도 하나의 버튼(213)이 배치된다. At least one button 213 is disposed on the outer surface of the first temple frame 120.

제1 및 제2 템플 프레임(120, 121)의 내측면에는 적어도 하나의 스피커(211)가 배치된다. At least one speaker 211 is disposed on the inner surface of the first and second temple frames 120 and 121.

제1 프로젝터(270)는 제1 가상 이미지를 형성하기 위한 제1 투사 광(310)을 출력하고, 제1 프로젝터(270)로부터 출력되는 제1 투사 광(310)은 제1 윈도우(280)에 의해 집속 및 반사되고, 집속 및 반사된 제1 투사 광(312)은 사용자의 좌측 눈(330)의 망막에 제1 가상 이미지를 형성한다. 이때, 집속은 광을 모으는 것을 말하고, 광을 한 점에 모으는 수렴이나, 광의 빔 스팟을 감소시키는 것 등을 포함하는 의미이다. 바람직하게는, 반사된 제1 투사 광(312)은 좌측 눈(330)의 수정체 또는 동공에 수렴한다. The first projector 270 outputs the first projection light 310 for forming the first virtual image and the first projection light 310 outputted from the first projector 270 is reflected by the first window 280 And the focused first reflected light 312 forms a first virtual image in the retina of the user's left eye 330. At this time, focusing refers to collecting light, including convergence to collect light at one point, reduction of beam spot of light, and the like. Preferably, the reflected first projected light 312 converges on the lens or pupil of the left eye 330.

제2 프로젝터(275)는 제2 가상 이미지를 형성하기 위한 제2 투사 광(320)을 출력하고, 제2 프로젝터(275)로부터 출력되는 제2 투사 광(320)은 제2 윈도우(285)에 의해 집속 및 반사되고, 집속 및 반사된 제2 투사 광(322)은 사용자의 우측 눈(335)의 망막에 제2 가상 이미지를 형성한다. 바람직하게는, 집속 및 반사된 제2 투사 광(322)은 우측 눈(335)의 수정체 또는 동공에 수렴한다. 본 예에서, 2개의 프로젝터를 사용하는 것을 예시하고 있으나, 하나의 프로젝터만을 사용할 수도 있다. The second projector 275 outputs the second projection light 320 for forming the second virtual image and the second projection light 320 outputted from the second projector 275 is outputted to the second window 285 And the focused and reflected second projection light 322 forms a second virtual image in the retina of the user's right eye 335. [ Preferably, the focused and reflected second projection light 322 converges on the lens or pupil of the right eye 335. In this example, the use of two projectors is illustrated, but only one projector may be used.

이하의 설명에서, 제1 가상 이미지와 제2 가상 이미지는 좌측 눈 및 우측 눈에 각각 표시된다는 점을 제외하고는 서로 동일하나, 본 발명은 이에 한정되지 않고, 제1 가상 이미지와 제2 가상 이미지 중의 하나만을 표시할 수도 있다.In the following description, the first virtual image and the second virtual image are identical to each other except that they are displayed in the left eye and the right eye, respectively. However, the present invention is not limited to this, Only one of them may be displayed.

도 3은 HMD 회로의 구성을 나타내는 도면이다.3 is a diagram showing a configuration of an HMD circuit.

HMD 회로(101)는 입/출력 모듈(210)과, 메모리(220)와, 센서부(225)와, 배터리(230)와, 전력 관리부(235)와, 통신부(240)와, 터치 센서(250)와, 카메라(260)와, 제1 및 제2 프로젝터(270, 275)와, 제1 및 제2 윈도우(280, 285)와, 제어부(290)를 포함한다. The HMD circuit 101 includes an input / output module 210, a memory 220, a sensor unit 225, a battery 230, a power management unit 235, a communication unit 240, a touch sensor 250, a camera 260, first and second projectors 270 and 275, first and second windows 280 and 285, and a control unit 290.

입/출력 모듈(210)은 사용자 입력을 수신하거나, 사용자에게 정보를 알리거나, 외부로부터 데이터를 수신하거나, 외부로 데이터를 출력하기 위한 수단으로서, 적어도 하나의 스피커(211), 적어도 하나의 마이크(212), 적어도 하나의 버튼(213), 커넥터, 키패드 또는 이들의 조합을 포함할 수 있다.The input / output module 210 includes at least one speaker 211, at least one microphone 211, and at least one microphone 211. The input / A keyboard 212, at least one button 213, a connector, a keypad, or a combination thereof.

스피커(211)는 제어부(290)의 제어에 따라 다양한 데이터(예, 무선 데이터, 방송 데이터, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 HMD 장치(100)의 외부로 출력할 수 있다. 스피커(211)는 HMD 장치(100)가 수행하는 기능에 대응되는 사운드를 출력할 수 있다. 스피커(211)는 HMD 하우징(110)의 적절한 위치 또는 위치들에 하나 또는 복수로 배치될 수 있다. 본 예에서는, 2개의 스피커(211)가 제1 및 제2 템플 프레임(120, 121)의 단부들에 각각 하나씩 배치된 것을 예시하고 있다. The speaker 211 outputs a sound corresponding to various data (e.g., wireless data, broadcast data, digital audio file, digital moving picture file, or picture photographing) to the outside of the HMD device 100 under the control of the controller 290 can do. The speaker 211 can output sound corresponding to the function performed by the HMD device 100. [ The speaker 211 may be disposed in one or more positions at appropriate positions or positions of the HMD housing 110. In this example, two speakers 211 are disposed at the ends of the first and second temple frames 120 and 121, respectively.

마이크(212)는 HMD 장치(100)의 외부로부터 음성(voice) 또는 사운드(sound)를 수신하여 전기적인 신호를 생성하고, 생성된 전기 신호를 제어부(290)로 출력한다. 마이크(212)는 HMD 하우징(110)의 적절한 위치 또는 위치들에 하나 또는 복수로 배치될 수 있다. 본 예에서는, 하나의 마이크(212)가 프론트 프레임(115)의 외측면에 배치된 것을 예시하고 있다. 본 명세서에서, 신호는 데이터로 대체 표기될 수 있으며, 또한 데이터는 데이터 신호로도 표기할 수 있다. The microphone 212 receives voice or sound from the outside of the HMD device 100 to generate an electric signal and outputs the generated electric signal to the controller 290. The microphone 212 may be disposed in one or more positions at appropriate positions or positions of the HMD housing 110. In this example, one microphone 212 is disposed on the outer surface of the front frame 115. As shown in Fig. In this specification, a signal can be represented as data, and the data can also be represented as a data signal.

버튼(213)은 사용자 입력을 수신하기 위해 제공되며, HMD 회로(101)의 온/오프, 메뉴 항목 또는 아이템의 선택 및/또는 검색 등을 위해 사용된다. 버튼(213)은 전원 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button), 검색 버튼(좌측 이동 버튼, 우측 이동 버튼, 상측 이동 버튼, 하측 이동 버튼 등), 또는 이들의 조합을 포함할 수 있다. 버튼(213)은 HMD 하우징(110)의 적절한 위치 또는 위치들에 하나 또는 복수로 배치될 수 있다. 본 예에서는, 버튼(213)이 제1 템플 프레임(120)의 외측면에 배치된 것을 예시하고 있다. A button 213 is provided for receiving a user input, and is used for on / off of the HMD circuit 101, selection and / or retrieval of a menu item or item, and the like. The button 213 may include a power button, a volume button, a menu button, a home button, a back button, a search button (a left movement button, a right movement button, a left movement button, . ≪ / RTI > The buttons 213 may be arranged in one or more positions at appropriate positions or positions of the HMD housing 110. In this example, it is illustrated that the button 213 is disposed on the outer surface of the first temple frame 120.

커넥터는 HMD 장치(100)와 외부의 전자 장치 또는 전원 소스를 연결하기 위한 인터페이스로 이용될 수 있다. 커넥터는 전자 장치의 커넥터와 직접 또는 유선 케이블을 이용하여 연결될 수 있으며, 이러한 커넥터 연결을 통해, 제어부(290)는 메모리(220)에 저장된 데이터를 전자 장치로 전송하거나 또는 전자 장치로부터 데이터를 수신할 수 있다. 또한, HMD 장치(100)는 커넥터에 연결된 유선 케이블을 통해 전원 소스로부터 전력을 수신하여 배터리(230)를 충전할 수 있다.The connector can be used as an interface for connecting the HMD device 100 to an external electronic device or a power source. The connector can be connected to the connector of the electronic device either directly or via a wired cable, through which the control unit 290 can send the data stored in the memory 220 to the electronic device or receive data from the electronic device . In addition, the HMD device 100 can receive power from the power source via the wired cable connected to the connector to charge the battery 230. [

키패드는 HMD 장치(100)의 제어를 위한 사용자로부터의 키 입력을 수신할 수 있다. 키패드는 HMD 장치(100)에 배치되는 물리적인 키패드, 제1 및/또는 제2 프로젝터(270, 275)에 의해 표시되는 가상의 키패드, 또는 이들의 조합을 포함한다.The keypad may receive a key input from the user for control of the HMD device 100. The keypad includes a physical keypad disposed on the HMD device 100, a virtual keypad represented by the first and / or second projectors 270 and 275, or a combination thereof.

센서부(225)는 HMD 장치(100)의 상태 또는 주변 환경 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서부(225)는 사용자의 HMD 장치(100)에 대한 접근 여부를 검출하는 근접 센서, 또는 HMD 장치(100)의 동작(예를 들어, HMD 장치(100)의 회전, 가속, 감속, 진동 등)을 검출하는 모션/방위 센서, 주변 조도를 검출하는 조도 센서, 또는 이들의 조합을 포함할 수 있다. 또한, 모션/방위 센서는 가속도 센서, 중력센서, 지자기 센서, 자이로(gyro) 센서, 충격센서, GPS, 나침반 센서(compass sensor) 및 가속도 센서 중의 적어도 하나를 포함할 수 있다. 센서부(225)는 HMD 장치(100)의 상태를 검출하고, HMD 장치(100)의 상태를 나타내는 신호를 제어부(290)로 전송할 수 있다. 예를 들어, GPS 모듈은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 HMD 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 HMD 장치(100)의 위치를 산출할 수 있다. 나침반 센서는 HMD 장치(100)의 자세 또는 방위를 산출한다.The sensor unit 225 includes at least one sensor for detecting the state of the HMD device 100 or the environmental condition. For example, the sensor unit 225 may be a proximity sensor that detects whether or not the user accesses the HMD device 100, or a proximity sensor that detects whether the operation of the HMD device 100 (e.g., rotation, acceleration, Acceleration / deceleration, vibration, etc.), an illuminance sensor for detecting ambient illuminance, or a combination thereof. In addition, the motion / orientation sensor may include at least one of an acceleration sensor, a gravity sensor, a geomagnetic sensor, a gyro sensor, a shock sensor, a GPS, a compass sensor, and an acceleration sensor. The sensor unit 225 may detect the state of the HMD device 100 and may transmit a signal indicating the state of the HMD device 100 to the control unit 290. For example, the GPS module receives a radio wave from a plurality of GPS satellites (not shown) on the earth orbit and calculates a time of arrival (Time of Arrival) from the GPS satellite (not shown) to the HMD device 100 The position of the HMD device 100 can be calculated. The compass sensor calculates the posture or orientation of the HMD device 100.

전력 관리부(235)는 제어부(290)의 제어에 따라 HMD 장치(100)에 전력을 공급할 수 있다. 전력 관리부(235)는 하나 또는 복수의 배터리(230)와 연결될 수 있다. 또한, 전력 관리부(235)는 커넥터와 연결된 유선 케이블을 통해 외부의 전원 소스(도시되지 아니함)로부터 입력되는 전원을 HMD 장치(100)로 공급할 수 있다.The power management unit 235 may supply power to the HMD device 100 under the control of the control unit 290. [ The power management unit 235 may be connected to one or a plurality of batteries 230. Also, the power management unit 235 can supply power to the HMD device 100 from an external power source (not shown) via a cable connected to the connector.

통신부(240)는 유선, 무선 또는 유/무선 통신부일 수 있으며, 제어부(290)로부터의 데이터를 유선 또는 무선으로 외부 통신망 또는 대기를 통해 전자 장치로 전송하거나, 외부 통신망 또는 대기를 통해 전자 장치로부터 데이터를 유선 또는 무선으로 수신하여 제어부(290)로 전달한다. The communication unit 240 may be a wire, wireless, or wire / wireless communication unit. The communication unit 240 may transmit data from the control unit 290 by wire or wirelessly to an electronic device through an external communication network or the air, And transmits the data to the control unit 290.

통신부(240)는 성능에 따라 이동 통신 모듈, 무선 랜 모듈 및 근거리 통신 모듈 중 적어도 하나를 포함할 수 있다.The communication unit 240 may include at least one of a mobile communication module, a wireless LAN module, and a local communication module according to performance.

이동 통신 모듈은 제어부(290)의 제어에 따라 적어도 하나의 안테나(도시되지 아니함)를 이용하여 이동 통신망을 통해 HMD 장치(100)가 전자 장치와 통신하도록 한다. 이동 통신 모듈은 IP 등의 네트워크 주소 또는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿 PC 또는 다른 통신 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송신 또는 수신한다. The mobile communication module allows the HMD device 100 to communicate with the electronic device through the mobile communication network using at least one antenna (not shown) under the control of the controller 290. The mobile communication module may communicate with a mobile phone (not shown) having a network address or telephone number, such as an IP, a smart phone (not shown), a tablet PC or other communication device SMS) or a multimedia message (MMS).

무선 랜 모듈은 제어부(290)의 제어에 따라 무선 AP(access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선 랜 모듈은 미국전기전자학회(IEEE)의 무선 랜 규격(IEEE802.11x)을 지원한다. The wireless LAN module may be connected to the Internet at a place where a wireless access point (not shown) is installed under the control of the controller 290. [ The wireless LAN module supports the IEEE 802.11x standard of the Institute of Electrical and Electronics Engineers (IEEE).

근거리 통신 모듈은 제어부(290)의 제어에 따라 외부의 근거리 통신 장치와 무선으로 근거리 통신을 할 수 있다. 근거리 통신 방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication), 또는 이들의 조합이 될 수 있다.The short-range communication module can perform short-range communication with an external short-range communication device wirelessly under the control of the controller 290. The local area communication method may be Bluetooth, infrared data association (IrDA), WiFi-Direct communication, NFC (Near Field Communication), or a combination thereof.

터치 센서(250)는 적어도 하나의 터치 입력에 대응되는 신호를 제어부(290)로 전송할 수 있다. 사용자는 신체의 일부(예를 들어, 손가락) 또는 다른 터치 입력 수단을 통해 터치 센서(250)를 터치할 수 있고, 터치 센서(250)는 이러한 사용자의 터치 입력을 수신할 수 있다. 또한, 터치 센서(250)는 터치의 연속적인 움직임에 따른 입력(즉, 드래그 입력)을 수신할 수 있다. 터치 입력 정보는 터치 좌표 및/또는 터치 상태를 포함할 수 있다. 터치 상태는 터치 센서(250)를 누르는 마우스 다운 상태, 터치 센서(250)로부터 손가락을 떼는 마우스 업 상태, 터치 센서(250)를 누르는 상태로 슬라이딩하는 드래그 상태 등일 수 있다. 제어부(290)는 이러한 터치 입력 정보로부터 메뉴 항목 또는 아이템의 선택 또는 이동이나, 필기 입력 등의 사용자 입력 정보를 파악하고, 이러한 사용자 입력 정보에 대응하는 기능(전화 연결, 카메라 촬영, 메시지 작성/보기, 데이터 전송 등)을 수행한다. The touch sensor 250 may transmit a signal corresponding to at least one touch input to the controller 290. [ The user can touch the touch sensor 250 through a part of the body (e.g., a finger) or another touch input means, and the touch sensor 250 can receive the touch input of the user. In addition, the touch sensor 250 can receive an input (i.e., a drag input) in accordance with the continuous movement of the touch. The touch input information may include touch coordinates and / or touch states. The touch state may be a mouse down state in which the touch sensor 250 is depressed, a mouse up state in which a finger is released from the touch sensor 250, a drag state in which the touch sensor 250 is slid in a state of pressing the touch sensor 250, and the like. The control unit 290 grasps user input information such as selection or movement of a menu item or an item or handwriting input from the touch input information, and displays a function corresponding to the user input information (telephone connection, camera shooting, , Data transmission, etc.).

본 발명에서 터치는 터치 센서(250)와 터치 입력 수단의 접촉에 한정되지 않고, 비접촉(예를 들어, 터치 센서(250)와 터치 입력 수단이 서로 이격된 경우)을 포함할 수 있다. 이러한 비접촉 터치 입력은 호버링 입력이라고 칭할 수도 있다. 터치 센서(250)는 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식, 초음파(acoustic wave) 방식, 전자기 공진(Electromagnetic resonance: EMR) 방식 또는 이들의 조합 등으로 구현될 수도 있다.In the present invention, the touch is not limited to the contact between the touch sensor 250 and the touch input means, and may include non-contact (e.g., when the touch sensor 250 and the touch input means are spaced from each other). Such a contactless touch input may also be referred to as a hovering input. The touch sensor 250 may be implemented by a resistive method, a capacitive method, an infrared method, an acoustic wave method, an electromagnetic resonance (EMR) method, or a combination thereof It is possible.

카메라(260)는 렌즈계 및 이미지 센서를 포함하고, 플래쉬 등을 더 포함할 수 있다. 카메라(260)는 렌즈계를 통해 입력되는(또는 촬영되는) 광을 전기적인 이미지 신호로 변환하여 제어부(290)로 출력하고, 사용자는 이러한 카메라(260)를 통해 동영상 또는 정지 이미지를 촬영할 수 있다. 또한, 카메라(260)는 사용자의 모션 또는 제스쳐에 의한 사용자 입력을 수신하기 위해 제공될 수도 있다. The camera 260 includes a lens system and an image sensor, and may further include a flashlight. The camera 260 converts the light inputted (or photographed) through the lens system into an electrical image signal and outputs the electrical image signal to the control unit 290. The user can take a moving image or a still image through the camera 260. [ The camera 260 may also be provided to receive user input by a user's motion or gesture.

렌즈계는 외부로부터 입력된 광을 수렴시킴으로써 피사체의 이미지를 형성한다. 렌즈계는 적어도 하나의 렌즈를 포함하며, 각 렌즈는 볼록 렌즈, 비구면 렌즈 등일 수 있다. 렌즈계는 그 중심을 지나는 광축(optical axis)에 대해 대칭성을 가지며, 광축은 이러한 중심 축으로 정의된다, 이미지 센서는 렌즈계를 통해 입력된 외부 광에 의해 형성된 광학적 이미지를 전기적 이미지 신호로 검출한다. 이미지 센서는 M×N 행렬(matrix) 구조로 배치된 복수의 화소(pixel) 유닛을 구비하며, 화소 유닛은 포토다이오드 및 복수의 트랜지스터들을 포함할 수 있다. 화소 유닛은 입력된 광에 의해 생성된 전하를 축적하고, 축적된 전하에 의한 전압은 입력된 광의 조도를 나타낸다. 정지 이미지 또는 동영상을 구성하는 한 이미지를 처리하는 경우에 있어서, 이미지 센서로부터 출력되는 이미지 신호는 화소 유닛들로부터 출력되는 전압들(즉, 화소 값들)의 집합으로 구성되고, 이미지 신호는 하나의 프레임(즉, 정지 이미지)을 나타낸다. 또한, 프레임은 M×N 화소로 구성된다. 이미지 센서로는 CCD(charge-coupled device) 이미지 센서, CMOS(complementary metal-oxide semiconductor) 이미지 센서 등을 사용할 수 있다. The lens system forms an image of a subject by converging light input from the outside. The lens system includes at least one lens, and each lens may be a convex lens, an aspherical lens, or the like. The lens system has symmetry with respect to an optical axis passing through its center, and the optical axis is defined as such a central axis. The image sensor detects an optical image formed by the external light input through the lens system as an electrical image signal. The image sensor has a plurality of pixel units arranged in an M x N matrix structure, and the pixel unit may include a photodiode and a plurality of transistors. The pixel unit accumulates the charge generated by the input light, and the voltage due to the accumulated charge represents the illuminance of the input light. In the case of processing an image constituting a still image or a moving image, an image signal outputted from the image sensor is composed of a set of voltages (i.e., pixel values) output from the pixel units, (I.e., a still image). Further, the frame is composed of M x N pixels. The image sensor may be a charge-coupled device (CCD) image sensor, a complementary metal-oxide semiconductor (CMOS) image sensor, or the like.

이미지 센서는 제어부(290)로부터 수신한 제어 신호에 따라 이미지 센서의 전체 화소들 또는 전체 화소 중에서 관심 영역의 화소들만을 작동할 수 있고, 화소들로부터 출력되는 이미지 데이터는 제어부(200)로 출력된다. According to the control signal received from the controller 290, the image sensor can operate only the pixels of the ROI among all the pixels of the image sensor or all of the pixels of the image sensor, and the image data output from the pixels is output to the controller 200 .

제어부(290)는 카메라(260)로부터 입력되는 이미지, 메모리(220)에 저장된 이미지, 또는 메모리(220)에 저장된 데이터를 이용하여 제어부(290)에 의해 구성된 그래픽 사용자 인터페이스(GUI)를 프레임(frame) 단위로 처리하며, 제1 및/또는 제2 프로젝터(270, 275)의 화면 출력 특성(크기, 화질, 해상도 등)에 맞도록 변환된 이미지 프레임을 제1 및/또는 제2 프로젝터(275)를 통해 외부로 출력하거나 메모리(220)에 저장할 수 있다. 이하, 본 발명에서 제1 및/또는 제2 프로젝터(270, 275)에 의해 형성된 가상 이미지의 한 예로서 그래픽 사용자 인터페이스(GUI)를 특정하고 있으나, GUI 대신에 가상 이미지라는 표현을 사용할 수도 있고, 가상 이미지는 GUI 또는 정지 이미지 등의 컨텐츠 등과 같이 실물이 아닌 가상 객체를 포함하는 의미로 사용된다. The control unit 290 controls a graphic user interface (GUI) configured by the control unit 290 using a frame (frame) by using the image input from the camera 260, the image stored in the memory 220, ) And processes the converted image frame to match the screen output characteristics (size, picture quality, resolution, etc.) of the first and / or second projectors 270 and 275 to the first and / or second projector 275, Or may be stored in the memory 220. Hereinafter, a graphical user interface (GUI) is specified as an example of a virtual image formed by the first and / or second projectors 270 and 275 in the present invention, but a virtual image may be used instead of the GUI, The virtual image is used to include a non-real virtual object such as a content such as a GUI or a still image.

제어부(290)는 제1 및/또는 제2 프로젝터(270, 275)를 통해 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영 등)에 대응되는 GUI를 제공할 수 있다. 또한, 제어부(290)는 이러한 GUI를 통해 정지 이미지 또는 동영상을 사용자에게 제공할 수 있다. 즉, 본 발명에서 GUI는 정지 이미지 또는 동영상으로 표현되는 화면을 나타낼 수 있다. The control unit 290 can provide a GUI corresponding to various services (e.g., call, data transmission, broadcasting, photographing, etc.) to the user through the first and / or the second projectors 270 and 275. Also, the control unit 290 can provide a still image or a moving image to the user via the GUI. That is, in the present invention, the GUI may represent a still image or a screen represented by a moving image.

제1 및 제2 프로젝터(270, 275)는 서로 동일한 구성을 가지며, 각 프로젝터(270, 275)는 제어부(290)에 의해 제공된 가상 이미지를 형성하는 광을 해당 윈도우(280, 285)를 통해 사용자의 눈에 투사한다. 이하 제1 프로젝터(270)의 구성을 대표적으로 기술하자면 아래와 같다. The first and second projectors 270 and 275 have the same configuration and each of the projectors 270 and 275 transmits light forming the virtual image provided by the control unit 290 through the corresponding windows 280 and 285 Of-sight. Hereinafter, the configuration of the first projector 270 will be described.

도 4는 제1 프로젝터의 개략적인 구성을 나타내는 도면이다. 4 is a diagram showing a schematic configuration of the first projector.

상기 제1 프로젝터(270)는 광을 출력하는 광원(410)과, 상기 광원(410)으로부터 출력된 광으로 표시 소자(440)를 조명하는 조명 광학계(420)와, 조명 광학계(420)를 투과한 광을 반사하는 미러(430)와, 미러(430)에 의해 반사된 광을 다시 픽셀 단위로 반사하여 가상 이미지를 형성하는 표시 소자(440)와, 표시 소자(440)로부터 반사된 광을 외부로 투사하는 투사 광학계(450)를 포함한다.The first projector 270 includes a light source 410 that outputs light, an illumination optical system 420 that illuminates the display element 440 with the light output from the light source 410, A display element 440 that reflects light reflected by the mirror 430 on a pixel-by-pixel basis to form a virtual image; and a light- As shown in FIG.

조명 광학계(420)는 X축과 평행한 제1 광축(271)을 갖고, 적어도 하나의 시준화 렌즈, 적어도 하나의 필터, 적어도 하나의 등화 렌즈, 집광 렌즈, 또는 이들의 조합을 포함할 수 있다. The illumination optical system 420 may have a first optical axis 271 parallel to the X axis and may include at least one collimating lens, at least one filter, at least one equalization lens, a condensing lens, or a combination thereof .

상기 조명 광학계(420)의 광학 소자들(렌즈, 프리즘, 필터 등)은 제1 광축(271)에 정렬된다. 통상적으로 광축은 이를 중심으로 해당 광학계를 회전시켜도 광학적으로 변동이 없는 축을 말한다. 광축에 정렬된다는 것은 해당 광학계를 구성하는 광학 소자의 곡률 중심이 광축에 위치하거나, 광학 소자의 대칭점(즉, 대칭 중심) 또는 중심점이 광축에 위치하는 것을 의미한다. The optical elements (lens, prism, filter, etc.) of the illumination optical system 420 are aligned with the first optical axis 271. Generally, an optical axis refers to an axis having no optical fluctuation even if the optical system is rotated around the optical axis. Alignment on the optical axis means that the center of curvature of the optical element constituting the optical system is located on the optical axis, or the symmetry point (i.e., the center of symmetry) of the optical element or the center point is located on the optical axis.

광원(410)은 제1 광축(271)을 따라 진행하는 광을 출력한다. 예를 들어, 광원(410)으로는 백색광, 원색광(예를 들어, 청색광, 녹색광 등), 또는 원색광들의 조합을 출력하는 적어도 하나의 LED를 사용할 수 있다. The light source 410 outputs light traveling along the first optical axis 271. For example, the light source 410 may use at least one LED that outputs a combination of white light, primary light (e.g., blue light, green light, etc.), or primary light.

조명 광학계(420)는 광원(410)으로부터 입력된 광을 시준화, 필터링 및/또는 집속 처리하고, 처리된 광을 미러(430)로 출력한다. The illumination optical system 420 collimates, filters, and / or focuses the light input from the light source 410, and outputs the processed light to the mirror 430.

미러(430)는 조명 광학계(420)를 투과하여 입력된 광을 표시 소자(440) 측으로 반사한다. 미러(430)는 기판 상에 반사도가 높은 유전체 층 또는 금속 층을 증착한 구조를 가질 수 있다. The mirror 430 reflects the input light transmitted through the illumination optical system 420 toward the display element 440 side. The mirror 430 may have a structure in which a highly reflective dielectric layer or a metal layer is deposited on the substrate.

표시 소자(440)는 제어부(290)로부터 입력된 데이터에 따라 픽셀 단위로 이미지를 표시하며, 표시 소자(440)는 기설정된 해상도에 대응하는 픽셀 소자들을 구비하고, 픽셀 소자들의 온/오프 구동을 통해 이미지를 표시한다. 예를 들어, 표시 소자(440)로서 MxN(예를 들어, 1280x720, 854x480 등) 행렬 구조로 배열된 마이크로 미러들을 포함하는 DMD(Digital Micro-Mirror Device)를 사용할 수 있다. 각 마이크로 미러는 구동 신호에 따라 온 상태에 대응하는 위치와 오프 상태에 대응하는 위치로 회전하며, 온 상태일 때 외부에 표시될 수 있는 각도로 입사한 광을 반사하고, 오프 상태일 때 외부에 표시되지 않는 각도로 입사한 광을 반사한다. The display element 440 displays an image on a pixel-by-pixel basis in accordance with the data input from the controller 290. The display element 440 includes pixel elements corresponding to a predetermined resolution, and performs on / off driving of the pixel elements To display the image. For example, a DMD (Digital Micro-Mirror Device) including micromirrors arranged in a MxN (e.g., 1280x720, 854x480, etc.) matrix structure may be used as the display device 440. [ Each micromirror rotates to a position corresponding to the on state and a position corresponding to the on state according to the driving signal, reflects the incident light at an angle that can be displayed outside when the on state, And reflects light incident at an angle that is not displayed.

투사 광학계(450)는 Z축과 평행한 제2 광축(272)을 갖고, 릴레이 렌즈(relay lens, 460)와, 투사 렌즈(projection lens, 470)를 포함한다. 릴레이 렌즈(460) 및 투사 렌즈(470)는 제2 광축(272)에 정렬된다. The projection optical system 450 has a second optical axis 272 parallel to the Z axis and includes a relay lens 460 and a projection lens 470. The relay lens 460 and the projection lens 470 are aligned with the second optical axis 272.

릴레이 렌즈(relay lens, 460)는 오버필(overfill)을 감안하여 미러(430)로부터 반사된 광이 표시 소자(440)로 정합되도록 한다. 즉, 릴레이 렌즈(460)는 상기 표시 소자(440)의 픽셀 소자들이 차지하는 면적보다 큰 면적에 미러(430)로부터 반사된 광이 입사되도록 한다.The relay lens 460 allows light reflected from the mirror 430 to be matched to the display element 440 in consideration of overfill. That is, the relay lens 460 allows light reflected from the mirror 430 to be incident on an area larger than the area occupied by the pixel elements of the display device 440.

또한, 릴레이 렌즈(460)는 표시 소자(440)로부터 반사된 광을 수신하고, 상기 광의 빔 면적을 감소시켜서 출력한다. 표시 소자(440)로부터 반사된 광은 그 빔 면적(beam spot size)이 크기 때문에, 상기 투사 렌즈(470)로 전달되지 못하는 광으로 인한 광손실이 클 수 있다. 상기 릴레이 렌즈(460)는 표시 소자(440)로부터 반사된 광을 집광하여 그 빔 면적을 줄임으로써, 투사 렌즈(470)에 최대한 많은 양의 광이 전달되도록 한다. Further, the relay lens 460 receives the light reflected from the display element 440, reduces the beam area of the light, and outputs the light. Since the light reflected from the display element 440 has a large beam spot size, light loss due to light not transmitted to the projection lens 470 may be large. The relay lens 460 condenses the light reflected from the display element 440 and reduces the beam area so that a maximum amount of light is transmitted to the projection lens 470.

상기 투사 렌즈(470)는 릴레이 렌즈(460)로부터 빔 면적이 조절된 광을 수신하고, 상기 수신된 광을 시준화 또는 집속하여 외부로 투사한다. The projection lens 470 receives light whose beam area is adjusted from the relay lens 460, and collimates or focuses the received light to project the light to the outside.

다시 도 3을 참조하면, 제1 및 제2 윈도우(280, 285)는 서로 동일한 구성을 가지며, 각 윈도우(280, 285)는 제어부(290)의 제어에 따라 그 투과율이 변화하며, 오목 거울로서 기능하는 홀로그램 패턴을 구비한다. 이하 제1 윈도우(280)의 구성을 대표적으로 기술하자면 아래와 같다. Referring to FIG. 3 again, the first and second windows 280 and 285 have the same configuration. The transmissivity of each of the windows 280 and 285 varies according to the control of the controller 290, And has a functioning holographic pattern. Hereinafter, the configuration of the first window 280 will be described.

도 5는 제1 윈도우의 구성 및 기능을 설명하기 위한 도면이다. 5 is a diagram for explaining the configuration and functions of the first window.

제1 윈도우(280)는 투과율 제어가 가능한, 즉 인가 신호에 따라 투과율이 변화하는 제1 글래스(281) 및 오목 거울로서 기능하는 제1 홀로그래픽 광소자(holographic optical element: HOE, 282)를 포함한다. 이와 마찬가지로, 제2 윈도우(285)는 투과율 제어가 가능한 제2 글래스 및 오목 거울로서 기능하는 제2 홀로그래픽 광소자를 포함한다. The first window 280 includes a first glass 281 capable of controlling the transmittance, that is, a transmittance varying according to an applied signal, and a first holographic optical element (HOE) 282 serving as a concave mirror do. Likewise, the second window 285 includes a second glass that can control the transmittance and a second holographic optical element that functions as a concave mirror.

제1 윈도우(280)는 외부로부터 입력된 주변 광(511)을 투과시키고, 제1 프로젝터(270)로부터 입력된 제1 투사 광(521)을 반사 및 집속한다. The first window 280 transmits the ambient light 511 input from the outside and reflects and concentrates the first projection light 521 input from the first projector 270.

투과된 주변 광(512) 및 제1 윈도우(280)에 의해 반사된 제1 투사 광(522)은 좌측 눈(330)에 입력되고, 좌측 눈(330)의 망막(333)에는 주변 광(512)에 의한 주변 풍경 이미지(510)와 반사광에 의한 GUI(520)가 중첩되어 형성된다. 즉, 사용자는 주변 풍경 이미지(510)와 GUI(520)가 중첩된 이미지를 보게 되며, 사용자에게 이러한 GUI(520)는 주변 풍경 위에 투명한 층(즉, GUI)이 겹쳐진 것처럼 보여질 수 있다. GUI(520)는 전화, 연락처, 메시지, 메인 메뉴 등과 같은 메뉴 항목들(또는 아이콘들)을 포함한다. 도 5에서는, GUI(520)가 불투명하게 표시되어 있으나, GUI(520)는 그 밑에 위치하는 주변 이미지(510)가 비치도록 일부 또는 전체 투명하게 표시될 수 있다. The transmitted light 512 and the first projection light 522 reflected by the first window 280 are input to the left eye 330 and the retina 333 of the left eye 330 receives ambient light 512 And the GUI 520 based on the reflected light are superposed on each other. That is, the user sees an image in which the surrounding landscape image 510 and the GUI 520 are superimposed, and the GUI 520 can be viewed as a superimposed transparent layer (i.e., GUI) on the surrounding landscape. The GUI 520 includes menu items (or icons) such as a phone call, a contact, a message, a main menu, and the like. 5, the GUI 520 is displayed opaque, but the GUI 520 may be partially or wholly transparent so that the surrounding image 510 located below it is displayed.

제1 프로젝터(270)로부터 출력된 제1 투사 광(521)은 특정 파장(λ)을 갖는 평행광(즉, 시준화된 광)일 수 있고, 제1 투사 광(521)은 제1 홀로그래픽 광소자(282)의 법선과 특정 각도(θ)를 이루면서 제1 홀로그래픽 광소자(282)에 입사될 수 있다. 제1 홀로그래픽 광소자(282)는 파장 선택성을 갖는 소자로서, 특정 파장(λ)의 광(즉, 본 예에서 제1 투사 광(521))은 반사 및 집속하며, 특정 파장(λ)과 다른 파장의 광(즉, 본 예에서 주변 광(511))은 수렴시키지 않고 그대로 투과시킨다. The first projection light 521 output from the first projector 270 may be parallel light having a specific wavelength lambda and the first projection light 521 may be a first light May be incident on the first holographic optical element 282 at a certain angle? With the normal of the optical element 282. The first holographic optical element 282 is a device having wavelength selectivity and reflects and focuses light of a specific wavelength lambda (i.e., the first projection light 521 in this example) The light of another wavelength (i.e., ambient light 511 in this example) is transmitted without convergence.

제1 홀로그래픽 광소자(282)는 입력된 제1 투사 광(521)을 반사 및 집속하며, 제1 홀로그래픽 광소자(282)로부터 반사된 제1 투사 광(522)은 제1 홀로그래픽 광소자(282)로부터 특정 거리, 즉 아이 릴리프(eye relief) 만큼 떨어져 위치한 좌측 눈(330) 위치, 바람직하게는 좌측 눈(330)의 동공(331) 또는 수정체(332) 위치에 수렴될 수 있다. 이때, 수렴되는 제1 투사 광(522)은 특정 수렴각 또는 시야각(φ)을 가질 수 있다. 수정체(332)는 눈에 입사하는 광의 초점을 조절하는 기능을 하며, 투과된 주변 광(512)은 이러한 수정체(332)에 의해 안구(334) 내에서 수렴됨으로써 망막(333)에 주변 풍경 이미지(510)를 형성한다. 반면에, 반사된 제1 투사 광(522)은 동공(331) 또는 수정체(332) 위치에 수렴하므로, 수정체(332)에 의해 수렴되지 않고 망막(333)에 투사되어 GUI(520)를 형성한다. The first holographic optical element 282 reflects and focuses the input first projection light 521 and the first projection light 522 reflected from the first holographic optical element 282 is incident on the first holographic optical element 282, The pupil 331 or the lens 332 position of the left eye 330 located at a specific distance from the element 282, i.e., away from the eye relief by an eye relief. At this time, the first projected light 522 to be converged may have a specific convergence angle or a viewing angle?. The lens 332 functions to adjust the focus of light incident on the eye and the transmitted ambient light 512 is converged in the eyeball 334 by the lens 332, 510). On the other hand, the reflected first projection light 522 converges at the position of the pupil 331 or the lens 332, and is projected on the retina 333 without being converged by the lens 332 to form the GUI 520 .

바람직하게는, 제1 홀로그래픽 광소자(282)에 입사하는 제1 투사 광(521)이 평행 광인 것으로 예시하고 있으나, 본 발명은 이에 한정되지 않고, 제1 홀로그래픽 광소자(282)에 의해 반사된 제1 투사 광(522)이 동공(331) 또는 수정체(332) 위치에 수렴하는 조건에서 제1 투사 광(521)은 평행 광이 아닌 발산 광 또는 수렴 광일 수 있다.Preferably, the first projection light 521 incident on the first holographic optical element 282 is parallel light. However, the present invention is not limited to this, and the first holographic optical element 282 The first projection light 521 may be a diverging light or a converging light other than the parallel light under the condition that the reflected first projected light 522 converges to the pupil 331 or the lens 332. [

통상의 HMD 장치를 착용한 사용자가 주변 풍경의 실제 물체를 보기 위하여 눈의 초점을 맞추는 경우, 통상의 HMD 장치에 의해 투사되는 GUI와 같은 가상 이미지의 가상 물체(또는 객체)는 사용자의 망막에 선명하게 맺히지 못하는 문제가 발생할 수 있다. 이러한 상황에서 사용자는 실제 물체와 가상 물체를 동시에 선명하게 보지 못하여, 의도한 증강 현실을 인지하지 못하게 된다. 실제 물체와 가상 물체 사이의 초점 불일치 문제는 양안의 시선 수렴과 단안의 초점 조절 사이의 불일치에서 기인하여 관찰자인 사용자의 피로감을 증가시키는 문제가 발생한다. When a user wearing a normal HMD device focuses the eyes to see an actual object in a surrounding landscape, a virtual object (or object) of a virtual image, such as a GUI projected by a conventional HMD device, A problem that can not be achieved can arise. In this situation, the user can not see the real object and the virtual object at the same time, so that the user can not recognize the intended augmented reality. The problem of the focus mismatch between the real object and the virtual object arises from the inconsistency between the binocular eye convergence and the monocular focus control, thereby increasing the fatigue of the observer.

본 발명의 HMD 장치(100)는 가상 이미지를 형성하는 투사 광을 동공 또는 수정체 위치에 수렴시킴으로써 이러한 종래의 문제점을 해결한다. 즉, 본 발명은 투사 광이 수정체 위치 또는 그 근접 위치에 수렴하도록 함으로써, 수정체에 의한 투사 광의 초점 변화량을 최소화한다. The HMD device 100 of the present invention solves this conventional problem by converging the projection light forming the virtual image to the pupil or lens position. That is, the present invention minimizes the focal variation amount of the projected light by the lens by allowing the projection light to converge at or near the position of the lens.

이렇게 투사 광이 동공 또는 수정체의 위치에 수렴하게 되는 경우에, 투사 광은 눈의 수정체의 작용에 상관없이 망막에 직접 투사된다. 망막에 투사된 가상 이미지는 수정체의 초점 조절과 수정체 등에 의한 수차에 상관없이 선명한 이미지로 사용자에 의해 인지된다. When the projection light converges to the position of the pupil or the lens, the projection light is projected directly onto the retina irrespective of the action of the lens of the eye. The virtual image projected on the retina is perceived by the user as a sharp image regardless of the focus of the lens and the aberration caused by the lens or the like.

제1 홀로그래픽 광소자(282)는 동공(331) 또는 수정체(332)와 제1 홀로그래픽 광소자(282) 사이의 거리에 해당하는 초점거리를 가질 수 있으며, 이러한 경우에 눈의 초점 조절과는 무관하게 가상 이미지가 눈의 망막에 선명하게 맺히게 된다. The first holographic optical element 282 may have a focal length corresponding to the distance between the pupil 331 or the lens 332 and the first holographic optical element 282, The virtual image is clearly formed in the retina of the eye.

도 6은 제1 글래스의 구성을 나타내는 도면이다. 제1 글래스(281)는 제어부(290)에 의해 인가되는 신호 또는 전압에 의해 그 투과율이 변화하는 특성을 갖는다. 6 is a view showing a configuration of the first glass. The first glass 281 has a characteristic in which the transmittance thereof is changed by a signal or a voltage applied by the control unit 290.

상기 제1 글래스(281)로는 전기 변색(Electrochromic) 글래스, SPD(Suspended Particle Device), LC(Liquid Crystal) 등을 사용할 수 있다. 또는, 경우에 따라서, 상기 제1 글래스(281)로서, 신호 인가에 의한 능동 제어가 불가능하고, 특정 파장의 빛이나 온도 변화에 반응하여 투과율이 변화하는 광호변성(Photochromic) 글래스, 감열 변색(Thermochromic) 글래스 등을 사용할 수도 있다. Electrochromic glass, SPD (Suspended Particle Device), and LC (Liquid Crystal) may be used as the first glass 281. Alternatively, as the first glass 281, a photochromic glass or a thermochromic glass which can not be actively controlled by signal application and whose transmittance changes in response to a light of a specific wavelength or a temperature change, ) Glass or the like may be used.

상기 제1 글래스(281)는, 유리에 투과율 조절이 가능한 물질을 도포하거나, 투과율 조절이 가능한 얇은 막(Thin film)을 유리에 부착하는 방법 등 다양한 방법으로 제작할 수 있다.The first glass 281 may be formed by various methods such as applying a substance capable of controlling transmittance to glass or attaching a thin film having a transmittance control to a glass.

본 예에서는, 상기 제1 글래스(281)로서 전기 변색 글래스를 사용하는 것을 예시한다. In this example, the use of electrochromic glass as the first glass 281 is exemplified.

제1 글래스(281)는 절연성의 제1 및 제2 기판(610, 615)과, 제1 기판(610)의 상면에 적층된 도전성의 제1 전극(620)과, 제2 기판(615)의 하면에 적층된 도전성의 제2 전극(625)과, 제1 및 제2 기판(610, 615)을 이격시키고 그 사이의 공간을 밀봉하는 절연성의 스페이서(630)와, 제1 및 제2 기판(610, 615) 사이의 공간에 충진된 전기 변색 층(640) 및 전해질(650)을 포함한다. The first glass substrate 281 includes first and second insulating substrates 610 and 615 and a conductive first electrode 620 laminated on the upper surface of the first substrate 610, An insulating spacer 630 that separates the first and second substrates 610 and 615 from each other and seals a space therebetween, a second electrode 625 stacked on the bottom surface of the first substrate 610, The electrochromic layer 640 and the electrolyte 650 filled in the space between the electrodes 610 and 615.

각 기판(610, 615)은 투명 유리 또는 플라스틱으로 만들어질 수 있으며, 플라스틱은 예를 들어 폴리아크릴레이트, 폴리에틸렌에테르프탈레이트, 폴리에틸렌나프탈레이트, 폴리카보네이트, 폴리아릴레이트, 폴리에테르이미드, 폴리에테르술폰 및 폴리이미드 중의 하나일 수 있다.Each substrate 610, 615 can be made of clear glass or plastic, and the plastic can be, for example, polyacrylate, polyethylene ether phthalate, polyethylene naphthalate, polycarbonate, polyarylate, polyetherimide, May be one of the polyimides.

제1 전극(620)은 투명 도전체로 만들어질 수 있으며, 예를 들어 인듐 틴 옥사이드(indium tin oxidem ITO), 불소 함유 틴 옥사이드(fluorine tin oxide, FTO) 또는 안티몬 함유 틴 옥사이드(antimony doped tin oxide, ATO)와 같은 무기 도전성 물질이나 폴리아세틸렌 또는 폴리티오펜과 같은 유기 도전성 물질을 포함할 수 있다.The first electrode 620 may be made of a transparent conductive material such as indium tin oxide (ITO), fluorine tin oxide (FTO) or antimony doped tin oxide ATO) or an organic conductive material such as polyacetylene or polythiophene.

제2 전극(625)은 투명 또는 불투명의 도전성 물질로 만들어질 수 있으며, 예를 들어 인듐 틴 옥사이드(ITO), 불소 함유 틴 옥사이드(FTO), Al과 같은 금속, 안티몬 함유 틴 옥사이드(antimony doped tin oxide, ATO), 또는 이들의 조합을 포함할 수 있다.The second electrode 625 may be made of a transparent or opaque conductive material such as indium tin oxide (ITO), fluorine containing tin oxide (FTO), metal such as Al, antimony doped tin oxide oxide, ATO), or a combination thereof.

제1 전극(620) 위에는 전기 변색 물질을 포함한 전기 변색 층(640)이 배치되어 있다. 전기 변색 층(640)은 제1 전극(620) 위에 필름(film) 형태로 배치될 수 있다.An electrochromic layer 640 including an electrochromic material is disposed on the first electrode 620. The electrochromic layer 640 may be disposed on the first electrode 620 in the form of a film.

제1 기판(610)과 제2 기판(615)은 스페이서(630)에 의해 고정되어 있으며, 제1 기판(610)과 제2 기판(615) 사이에는 전해질(650)이 채워져 있다. 전해질(650)은 전기 변색 물질과 반응하는 산화/환원 물질을 공급하며, 액체 전해질 또는 고체 고분자 전해질일 수 있다. 액체 전해질로는 예컨대 LiOH 또는 LiClO4과 같은 리튬 염, KOH과 같은 포타슘 염 및 NaOH와 같은 소듐 염 등이 용매에 용해되어 있는 용액을 사용할 수 있으나, 이에 한정되는 것은 아니다. 고체 전해질로는 예컨대 폴리(2-아크릴아미노-2-메틸프로판 술폰산)(poly(2-acrylamino-2-methylpropane sulfonic acid), 폴리에틸렌옥사이드(poly(ethylene oxide)) 등을 사용할 수 있으나, 이에 한정되는 것은 아니다.The first substrate 610 and the second substrate 615 are fixed by a spacer 630 and an electrolyte 650 is filled between the first substrate 610 and the second substrate 615. The electrolyte 650 supplies a redox substance that reacts with the electrochromic material, and may be a liquid electrolyte or a solid polymer electrolyte. As the liquid electrolyte, a solution in which a lithium salt such as LiOH or LiClO 4 , a potassium salt such as KOH and a sodium salt such as NaOH are dissolved in a solvent may be used, but the present invention is not limited thereto. As the solid electrolyte, for example, poly (2-acrylamino-2-methylpropane sulfonic acid), polyethylene oxide (poly (ethylene oxide) It is not.

전기 변색 층(640)을 이루는 물질, 즉 전기 변색 물질은 금속과, 상기 금속과 배위를 형성할 수 있는 작용기를 가지는 유기 화합물이 결합되어 있는 금속-유기 복합재를 포함할 수 있다. 상기 금속은 경금속, 전이 금속, 란타나이드 금속, 알칼리 금속 또는 이들의 조합을 포함할 수 있으며, 상기 금속은 베릴륨(Be), 바륨(Ba), 구리(Cu), 아연(Zn), 세륨(Ce), 마그네슘(Mg), 알루미늄(Al), 티타늄(Ti) 또는 이들의 조합을 포함할 수 있다. 상기 작용기는 카르복실기(carboxyl group), 피리딘기(pyridine group), 이미다졸기(imidazole group) 또는 이들의 조합을 포함할 수 있다. 상기 유기 화합물은 비올로겐(viologen) 유도체, 안트라퀴논(anthraquinone) 유도체 또는 이들의 조합을 포함할 수 있다.The material forming the electrochromic layer 640, that is, the electrochromic material, may include a metal-organic composite having a metal and an organic compound having a functional group capable of forming a coordination bond with the metal. The metal may be selected from the group consisting of beryllium (Be), barium (Ba), copper (Cu), zinc (Zn), cerium (Ce) ), Magnesium (Mg), aluminum (Al), titanium (Ti), or combinations thereof. The functional group may include a carboxyl group, a pyridine group, an imidazole group, or a combination thereof. The organic compound may include a viologen derivative, an anthraquinone derivative, or a combination thereof.

도 7은 제1 홀로그래픽 광소자의 홀로그래픽 패턴을 나타내는 도면이다. 7 is a diagram showing a holographic pattern of a first holographic optical element.

제1 홀로그래픽 광소자(282, 282a)는 다수의 동심원들로 이루어진 홀로그래픽 패턴(710, 710a)을 포함한다. 예를 들어, 제1 홀로그래픽 광소자(282, 282a)는 투명 기판과, 상기 투명 기판에 적층된 홀로그래픽 패턴 층을 포함할 수 있다. The first holographic optical element 282, 282a includes a plurality of concentric holographic patterns 710, 710a. For example, the first holographic optical element 282, 282a may comprise a transparent substrate and a holographic pattern layer deposited on the transparent substrate.

도 7의 (a)는 동심원들의 중심부가 홀로그래픽 패턴(710)의 중심에 위치하는 제1 홀로그래픽 광소자(282)의 예를 나타내고, 도 7의 (b)는 동심원들의 중심부가 홀로그래픽 패턴(710a)의 가장자리에 위치하는 제1 홀로그래픽 광소자(282a)의 예를 나타낸다. 7A shows an example of a first holographic optical element 282 in which the center of the concentric circles is located at the center of the holographic pattern 710 and FIG. Lt; RTI ID = 0.0 > 710a. ≪ / RTI >

다시 도 3을 참조하면, 제어부(290)는 HMD 장치(100)의 전반적인 동작을 제어하며, HMD 장치(100) 내 다른 구성 소자들을 제어하여 가상 이미지 제공 방법을 수행한다. 제어부(290)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어 프로세서를 포함할 수 있다. 제어부(290)는 통신부(240)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호)와 방송 부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 또는, 제어부(290)는 메모리(220)에 저장되어 있거나 통신부(240)를 통해 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 스피커(211)를 통해 재생할 수 있다. 또는, 제어부(290)는 메모리(220)에 저장되어 있거나 통신부(240)를 통해 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 제1 및/또는 제2 프로젝터(270, 275)를 통해 재생할 수 있다. 상기 제어부(290)는 센서부(225), 입/출력 모듈(210), 카메라(260) 또는 터치 센서(250)를 통해 입력되는 사용자 명령, 메뉴 항목 또는 아이콘 선택, 또는 이벤트 정보에 따라 메모리(220)에 저장되어 있거나, 통신부(240)를 통해 수신되거나, 메모리(220)에 저장된 데이터를 이용하여 제어부(290)에 의해 구성된 이미지 데이터(구체적인 예로서, GUI)를 제1 및/또는 제2 프로젝터(270, 275)를 통해 사용자에게 표시할 수 있다. 이때, 상기 이미지는 정지 이미지 또는 동영상일 수 있다. 3, the controller 290 controls the overall operation of the HMD 100, and controls other components in the HMD 100 to perform a virtual image providing method. The control unit 290 may include a single core, a dual core, a triple core, or a quad core processor. The control unit 290 receives a broadcast signal (e.g., a TV broadcast signal, a radio broadcast signal, or a data broadcast signal) transmitted from a broadcast station through the communication unit 240 and broadcast supplementary information (e.g., EPS (Electric Program Guide) Guide) can be received. Alternatively, the control unit 290 may reproduce a digital audio file stored in the memory 220 or received through the communication unit 240 (e.g., a file having a file extension of mp3, wma, ogg, or wav) through the speaker 211 . Alternatively, the control unit 290 may store a digital moving picture file (for example, a file whose file extension is mpeg, mpg, mp4, avi, mov, or mkv) stored in the memory 220 or received through the communication unit 240 And / or the second projector (270, 275). The controller 290 controls the operation of the memory 290 according to user commands, menu items, icon selection, or event information input through the sensor unit 225, the input / output module 210, the camera 260 or the touch sensor 250, (Specifically, a GUI) configured by the control unit 290 by using the data stored in the memory 220 or the data stored in the memory 220 in the first and / And can be displayed to the user through the projectors 270 and 275. At this time, the image may be a still image or a moving image.

메모리(220)는 제어부(290)의 제어에 따라 신호 또는 데이터를 저장할 수 있다. 메모리(220)는 HMD 장치(100) 또는 제어부(290)를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.The memory 220 may store a signal or data under the control of the controller 290. The memory 220 may store control programs and applications for the HMD device 100 or the control unit 290. [

메모리라는 용어는 제어부(290) 내 롬, 램 또는 HMD 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱), 비휘발성 메모리, 휘발성 메모리, 솔리드 스테이트 드라이브(SSD) 등을 포함할 수 있다.The term memory refers to a memory card (not shown) (e.g., an SD card, a memory stick), a nonvolatile memory, a volatile memory, a solid state drive (SSD ), And the like.

도 8 및 도 9는 HMD 장치의 투과율 제어를 설명하기 위한 도면들이다. 제1 및 제2 윈도우(280, 285)는 각각 제어부(290)의 제어에 따라 투과율을 조절함으로써, GUI와 같은 가상 이미지의 시인성을 높일 수 있다. Figs. 8 and 9 are views for explaining the transmittance control of the HMD device. The first and second windows 280 and 285 can increase the visibility of a virtual image such as a GUI by controlling the transmittance according to the control of the controller 290.

제1 및 제2 윈도우(280, 285)는 각각 인가 전압의 변화에 따라 광 투과율을 조절할 수 있기 때문에, 가상 이미지를 형성하기 위한 제1 및/또는 제2 프로젝터(270, 275)의 출력을 감소시킬 수 있고, 이로 인해 제1 및/또는 제2 프로젝터(270, 275)의 전체 소모 전력과 발열을 감소시킬 수 있으며, 또한 HMD 장치(100)의 배터리(230) 사용 시간을 증가시킬 수 있다.Since the first and second windows 280 and 285 can adjust the light transmittance according to the change of the applied voltage, the outputs of the first and / or second projectors 270 and 275 for forming a virtual image are reduced Thereby reducing the total power consumption and heat generation of the first and / or the second projectors 270 and 275, and also increasing the use time of the battery 230 of the HMD device 100.

도 8은 사용자가 실내에서 TV를 시청하는 경우를 나타낸다. 8 shows a case where a user watches TV in the room.

도 8의 (a)를 참고하면, 사용자는 실내에서 HMD 장치(100)를 착용한 상태로 TV(810)를 시청한다. 주변 조도가 낮은 실내에서는 제1 및 제2 프로젝터(270, 275)에 의해 형성된 제1 및 제2 GUI(820, 825)의 시인성이 높기 때문에, 제1 및 제2 윈도우(280, 285)의 투과율을 상대적으로 높게 설정한다. 예를 들어, 제어부(290)는 제1 및 제2 윈도우(280, 285)의 투과율을 최대로 설정하거나 30% 이상으로 설정할 수 있다. 이때, 제1 및 제2 GUI(820, 825)는 그 표시 위치만 상이할 뿐 서로 동일하다. Referring to FIG. 8 (a), the user watches the TV 810 while wearing the HMD device 100 indoors. Since the visibility of the first and second GUIs 820 and 825 formed by the first and second projectors 270 and 275 is high in the room with low ambient illuminance, the transmittance of the first and second windows 280 and 285 Is relatively high. For example, the controller 290 can set the transmittance of the first and second windows 280 and 285 to the maximum or to 30% or more. At this time, the first and second GUIs 820 and 825 are identical to each other only in the display position thereof.

도 9는 사용자가 야외에서 주변 풍경을 보는 경우를 나타낸다. Fig. 9 shows a case where the user views the surrounding scenery outdoors.

도 9의 (a)를 참고하면, 사용자는 야외에서 HMD 장치(100)를 착용한 상태로 주변 풍경(910)을 본다. 주변 조도가 높은 야외에서는 제1 및 제2 프로젝터(270, 275)에 의해 형성된 제1 및 제2 GUI(920, 925)의 시인성이 낮기 때문에, 제1 및 제2 윈도우(280, 285)의 투과율을 상대적으로 낮게 설정한다. 예를 들어, 제어부(290)는 제1 및 제2 윈도우(280, 285)의 투과율을 최소로 설정하거나 10% 이하로 설정할 수 있다.Referring to FIG. 9 (a), the user views the surrounding scenery 910 while wearing the HMD device 100 outdoors. Since the visibility of the first and second GUIs 920 and 925 formed by the first and second projectors 270 and 275 is low in the outdoors with high ambient illuminance, the transmittance of the first and second windows 280 and 285 Is relatively low. For example, the control unit 290 may set the transmittance of the first and second windows 280 and 285 to a minimum or 10% or less.

도 8 및 도 9에서 제1 GUI(820, 920) 및 제2 GUI(825, 925)는 제1 및 제2 윈도우(280, 285) 상에 형성되는 것이 아니라 사용자에 의해 보여지는 이미지들을 나타낸다. 도 8 및 도 9에서는, 각 GUI가 불투명하게 표시되어 있으나, GUI는 그 밑에 위치하는 주변 풍경이 비치도록 일부 또는 전체 투명하게 표시될 수 있다.8 and 9, the first GUI 820, 920 and the second GUI 825, 925 are not formed on the first and second windows 280, 285 but represent images viewed by the user. In Figs. 8 and 9, although each GUI is displayed opaque, the GUI may be partially or wholly transparent so that the surrounding landscape located below it is displayed.

제어부(290)는 센서부(225)를 통해 주변 조도를 측정하고, 주변 조도가 기설정된 기준 조도 또는 기준 조도 범위보다 낮은 경우에 제1 및 제2 윈도우(280, 285)의 투과율을 증가시키고(즉, 투과율이 상대적으로 높음), 주변 조도가 기설정된 기준 조도보다 높은 경우에 제1 및 제2 윈도우(280, 285)의 투과율을 감소시킨다(즉, 투과율이 상대적으로 낮음). 이러한 기준 조도는 현재 설정되어 있는 주변 조도일 수 있으며, 제어부(290)는 주변 조도의 변화가 없는 경우에 제1 및 제2 윈도우(280, 285)의 투과율을 그대로 유지할 수 있다. 제어부(290)는 현재 설정되어 있는 주변 조도 및/또는 투과율을 메모리(220)에 저장할 수 있다. The control unit 290 measures the ambient illuminance through the sensor unit 225 and increases the transmittance of the first and second windows 280 and 285 when the ambient illuminance is lower than a preset reference illuminance or a reference illuminance range (I.e., the transmittance is relatively high), and the transmittance of the first and second windows 280 and 285 is reduced (i.e., the transmittance is relatively low) when the ambient illuminance is higher than the preset reference illuminance. The controller 290 may maintain the transmittance of the first and second windows 280 and 285 when the ambient illuminance does not change. The controller 290 may store the currently set ambient illuminance and / or transmittance in the memory 220.

메모리(220)는 서로 대응하는 주변 조도 값들과 투과율들(및/또는 각 윈도우(280, 285)의 인가 전압 값)을 나타내는 데이터 테이블을 저장할 수 있으며, 상기 제어부(290)는 상기 데이터 테이블에 근거하여 맵핑, 보간 또는 수식 계산 등을 통해 주변 조도 값에 대응하는 목표 투과율(및/또는 각 윈도우(280, 285)의 인가 전압 값)을 산출한다. 제어부(290)는 산출된 투과율에 대응하는 전압을 각 윈도우(280, 285), 더 구체적으로는 각 글래스에 인가함으로써, 각 윈도우(280, 285)의 투과율을 산출된 목표 투과율로 조절한다. The memory 220 may store a data table representing the corresponding ambient illuminance values and transmittances (and / or the applied voltage values of the respective windows 280 and 285), and the controller 290 may store (And / or the applied voltage value of each window 280, 285) corresponding to the ambient illuminance value through mapping, interpolation or mathematical calculation. The control unit 290 adjusts the transmittance of each of the windows 280 and 285 to the calculated target transmittance by applying a voltage corresponding to the calculated transmittance to each of the windows 280 and 285 and more specifically to each glass.

도 10은 본 발명의 바람직한 실시 예에 따른 가상 이미지 제공 방법을 나타내는 흐름도이다. 10 is a flowchart illustrating a method of providing a virtual image according to a preferred embodiment of the present invention.

가상 이미지 제공 방법은, S1010 단계 내지 S1060 단계를 포함하고, 본 예에서는 GUI를 가상 이미지로서 예시하고 있다. The virtual image providing method includes steps S1010 to S1060, and in this example, the GUI is illustrated as a virtual image.

S1010 단계는 주변 조도 측정 단계로서, 제어부(290)는 센서부(225) 또는 카메라(260)를 이용하여 주변 조도를 측정한다. 센서부(225)는 조도 센서를 포함할 수 있고, 센서부(225)에 의해 측정된 주변 조도 값은 센서부(225)로부터 제어부(290)로 출력된다. 카메라(260)는 렌즈계를 통해 입력되는(또는 촬영되는) 주변 풍경을 형성하는 광을 전기적인 이미지 신호로 변환하여 제어부(290)로 출력하는 소자이기 때문에, 제어부(290)는 광의 밝기 값을 이용하여 주변 조도를 측정할 수도 있다. In operation S1010, the control unit 290 measures ambient illuminance using the sensor unit 225 or the camera 260. [ The sensor unit 225 may include an illuminance sensor and the ambient illuminance value measured by the sensor unit 225 is output from the sensor unit 225 to the control unit 290. Since the camera 260 converts the light forming the surrounding landscape input (or photographed) through the lens system into an electrical image signal and outputs the electrical image signal to the control unit 290, the control unit 290 uses the brightness value of the light So that the ambient illuminance can be measured.

S1020 단계는 투과율 산출 단계로서, 제어부(290)는 메모리(220)에 저장된 서로 대응하는 주변 조도 값들과 투과율들(및/또는 각 윈도우(280, 285)의 인가 전압 값)을 나타내는 데이터 테이블을 이용하여, 주변 조도 값에 대응하는 목표 투과율(및/또는 각 윈도우(280, 285)의 인가 전압 값)을 산출한다. The control unit 290 uses a data table representing the corresponding ambient illuminance values and transmittances (and / or the applied voltage values of the respective windows 280 and 285) stored in the memory 220 in step S1020 (And / or the applied voltage value of each window 280, 285) corresponding to the ambient illuminance value.

S1030 단계는 투과율 제어 단계로서, 제어부(290)는 산출된 목표 투과율에 대응하는 전압을 각 윈도우(280, 285)의 글래스에 인가함으로써, 각 윈도우(280, 285)의 투과율을 산출된 목표 투과율로 조절한다. 즉, 제어부(290)는 각 윈도우(280, 285)의 투과율이 산출된 목표 투과율과 일치하도록 각 윈도우(280, 285)를 제어한다. The control unit 290 applies the voltage corresponding to the calculated target transmittance to the glass of each of the windows 280 and 285 so that the transmittance of each of the windows 280 and 285 becomes equal to the calculated target transmittance . That is, the control unit 290 controls the windows 280 and 285 so that the transmissivity of each of the windows 280 and 285 coincides with the calculated target transmissivity.

S1040 단계는 제1 GUI 제공 단계로서, 제어부(290)는 메모리(220)에 저장된 데이터를 이용하여 제1 GUI를 구성하고, 구성된 제1 GUI를 제1 및/또는 제2 프로젝터(270, 275)를 통해 사용자에게 표시한다. 이러한 제1 GUI는 HMD 장치(100)를 파워 온 또는 시작한 경우에 사용자에게 처음으로 표시되는 기본 GUI일 수 있으며, 예를 들어, 도 5에 도시된 바와 같은 GUI(520)가 사용자에게 표시될 수 있다. The control unit 290 configures the first GUI using the data stored in the memory 220 and controls the first and / or the second projectors 270 and 275 to configure the first GUI, To the user. This first GUI may be the default GUI first displayed to the user when the HMD device 100 is powered on or started, for example, a GUI 520 as shown in FIG. 5 may be displayed to the user have.

S1050 단계는 사용자 입력 수신 단계로서, 제어부(290)는 입/출력 모듈(210), 터치 센서(250), 카메라(260) 또는 통신부(240)를 통해 사용자 입력을 수신한다. 사용자는 입/출력 모듈(210) 또는 터치 센서(250)를 통해 버튼(213), 아이콘 또는 메뉴 항목을 선택하거나, 마이크(212)를 통해 음성 명령을 입력하거나, 카메라(260)를 통해 제스쳐 또는 모션 입력을 수행하거나, 통신부(240)를 통해 무선으로 특정 명령을 입력할 수 있다. 이러한 명령은 애플리케이션 실행 명령일 수 있으며, 이러한 애플리케이션은 임의의 애플리케이션일 수 있으며, 예를 들어, 음성 인식 애플리케이션, 스케줄 관리 애플리케이션, 문서 작성 애플리케이션, 뮤직 애플리케이션, 인터넷 애플리케이션, 지도 애플리케이션, 카메라 애플리케이션, 이메일 애플리케이션, 이미지 편집 애플리케이션, 검색 애플리케이션, 파일 탐색 애플리케이션, 비디오 애플리케이션, 게임 애플리케이션, SNS 애플리케이션, 전화 애플리케이션, 메시지 애플리케이션 등일 수 있다. 제스쳐 또는 모션 입력은, 예를 들어, 사용자가 손 또는 손가락으로 카메라(260)를 향해 원형, 삼각형, 사각형 등의 미리 설정된 패턴의 궤적을 그리는 경우를 말한다. 본 예에서는, 사용자 입력에 따라 애플리케이션을 실행하는 것으로 예시하고 있으나, 이러한 애플리케이션은 메시지 수신, 콜 수신, 알람 이벤트 발생 등과 같은 이벤트의 발생에 따라 자동으로 실행될 수도 있다. The control unit 290 receives the user input through the input / output module 210, the touch sensor 250, the camera 260, or the communication unit 240 in step S1050. A user may select a button 213, icon or menu item via the input / output module 210 or the touch sensor 250, enter a voice command via the microphone 212, A motion input may be performed or a specific command may be inputted wirelessly through the communication unit 240. [ These commands may be application execution commands, which may be any application, such as a voice recognition application, a schedule management application, a document creation application, a music application, an Internet application, a map application, a camera application, An image editing application, a search application, a file search application, a video application, a gaming application, an SNS application, a phone application, a messaging application, and the like. The gesture or motion input refers to, for example, a case where the user draws a locus of a predetermined pattern such as a circle, a triangle, or a rectangle toward the camera 260 with a hand or a finger. In this example, an application is executed according to a user input. However, such an application may be automatically executed according to the occurrence of an event such as message reception, call reception, alarm event generation, and the like.

S1060 단계는 제2 GUI 제공 단계로서, 제어부(290)는 사용자 입력에 따라 메모리(220)에 저장된 데이터를 이용하여 제2 GUI를 구성하고, 구성된 제2 GUI를 제1 및/또는 제2 프로젝터(270, 275)를 통해 사용자에게 표시한다. 이러한 제2 GUI는 애플리케이션 창일 수 있다. 이러한 제1 GUI를 제2 GUI로 변경하는 것은 사용자 입력에 따라 GUI를 업데이트하는 것으로 설명될 수도 있다. In operation S1060, the control unit 290 provides a second GUI using the data stored in the memory 220 according to a user input, and transmits the configured second GUI to the first and / or the second projector 270, 275 to the user. This second GUI may be an application window. Changing this first GUI to the second GUI may be described as updating the GUI according to user input.

이하 기술되는 가상 이미지 제공 방법의 예들에 대한 설명에서, 제1 프로젝터(270) 및 제1 윈도우(280)에 의해 표시되는 GUI만을 예시하고 있으나, 이러한 설명은 제2 프로젝터(275) 및 제2 윈도우(285)에 의해 표시되는 제2의 GUI에도 동일하게 적용될 수 있다. In the description of examples of the virtual image providing method described below, only the GUI displayed by the first projector 270 and the first window 280 is illustrated, but this description is applicable only to the second projector 275 and the second window 274. [ The same can be applied to the second GUI displayed by the second GUI 285.

도 11 내지 도 13은 가상 이미지 제공 방법의 제1 예를 설명하기 위한 도면들이다. 11 to 13 are views for explaining a first example of the virtual image providing method.

먼저, 사용자는 터치 센서(250), 입/출력 모듈(210) 또는 카메라(260)를 통하여 버튼(213), 아이콘 또는 메뉴 항목의 선택, 음성 명령, 제스쳐 또는 모션 입력, 터치 패턴의 입력 등을 수행하고, 제어부(290)는 이러한 사용자 입력에 대응하여 음성 인식 애플리케이션을 실행한다. 제어부(290)는 메모리(220)에 저장된 데이터를 이용하여 애플리케이션 창(1110a)을 구성하고, 구성된 애플리케이션 창(1110a)을 제1 프로젝터(270) 및 제1 윈도우(280)를 통해 사용자에게 표시한다.First, a user selects a button 213, icon or menu item, voice command, gesture or motion input, input of a touch pattern, and the like through the touch sensor 250, the input / output module 210 or the camera 260 And the control unit 290 executes the speech recognition application in response to the user input. The control unit 290 configures the application window 1110a using the data stored in the memory 220 and displays the configured application window 1110a to the user through the first projector 270 and the first window 280 .

도 11 내지 도 13을 포함한 이하의 예들에서 음성 인식 애플리케이션 창(1110a)은 실제 제1 윈도우(280) 상에 표시되는 것이 아니라 사용자의 눈에 보이는 것을 나타낸 것이다. 11 to 13, the voice recognition application window 1110a is not actually displayed on the first window 280 but is visible to the user.

이하, 음성 인식 애플리케이션 및 다른 애플리케이션이 프로그램 동작의 주체로 예시되기도 하나, 프로그램 동작은 제어부(290)가 수행하는 것으로 기술될 수 있다. Hereinafter, although the speech recognition application and other applications are illustrated as subjects of the program operation, the program operation can be described as being performed by the control unit 290. [

도 11은 음성 인식 애플리케이션의 초기 화면을 나타내는 도면이다. 11 is a diagram showing an initial screen of the speech recognition application.

음성 인식 애플리케이션은 초기 구동되면, “어떤 작업을 실행할까요?”, 또는 “What would you like to do?”라는 사용 안내 문구(1130)를 애플리케이션 창(1110a)에 표시한다. When the speech recognition application is initially activated, a usage guide 1130 such as " What task do you want to do? &Quot;, or " What would you like to do? &Quot; is displayed in the application window 1110a.

음성 인식 애플리케이션 창(1110a)의 하부에는, 음성 인식 모드를 실행하는 음성 인식 버튼(1120)과, 선택적으로, 선택한 경우에 사용 방법을 음성으로 안내하는 음성 안내 버튼이 음성 인식 버튼(1120)의 일측에 배치되고, 선택적으로, 사용 방법의 예들을 표시하는 도움말 버튼이 음성 인식 버튼(1120)의 타측에 배치된다.At the lower portion of the voice recognition application window 1110a, a voice recognition button 1120 for executing a voice recognition mode and a voice guidance button for guiding voice guidance to the usage method, if selected, And a help button indicating examples of the usage method is disposed on the other side of the voice recognition button 1120. [

도 12를 참조하면, 사용자는 마이크(212)를 통해 원하는 명령, 본 예에서는 “서울 날씨”라는 내용의 명령을 음성으로 입력한다. Referring to FIG. 12, the user inputs a desired command, in this example, a command "Seoul weather" through the microphone 212 by voice.

음성 인식 애플리케이션은 사용자가 입력한 음성 명령을 인식하고, 상기 음성 명령을 텍스트 데이터로 변환한다.The speech recognition application recognizes a voice command input by the user and converts the voice command into text data.

음성 인식 애플리케이션은 애플리케이션 창(1110b)에 변환된 텍스트 데이터(1140)를 표시한다. The speech recognition application displays the converted text data 1140 in the application window 1110b.

도 13을 참조하면, 음성 인식 애플리케이션은 상기 변환된 텍스트 데이터(1140)를 검색어로 하여 서울 날씨를 검색하고, 검색 결과(1150, 1160), 즉 안내 문구(1150) 및 날씨 정보(1160)를 애플리케이션 창(1110c)에 표시한다. 이 때, 음성 인식 애플리케이션은 변환된 텍스트 데이터(1140)와 HMD 장치(100)의 현재 위치(예를 들어, 서교동)를 검색어로 하여 서울 날씨를 검색할 수도 있다. 13, the speech recognition application searches for Seoul weather using the converted text data 1140 as a search word, and outputs search results 1150 and 1160, that is, a guidance phrase 1150 and weather information 1160, And displays it on the window 1110c. At this time, the speech recognition application may search the Seoul weather using the converted text data 1140 and the current position of the HMD device 100 (e.g., Seogyo-dong) as a search term.

음성 인식 애플리케이션은 상기 변환된 텍스트 데이터(1140)를 다시 음성 데이터로 변환하고, 상기 변환된 음성 데이터를 음성 인식 서버로 전송하고, 음성 인식 서버로부터 수신한 응답 결과를 사용자에게 제공할 수도 있다. 또는, 음성 인식 애플리케이션은 변환된 텍스트 데이터(1140)를 음성 인식 서버로 전송하고, 음성 인식 서버로부터 수신한 응답 결과를 사용자에게 제공할 수도 있다.The voice recognition application may convert the converted text data 1140 back into voice data, transmit the converted voice data to the voice recognition server, and provide the result of the response received from the voice recognition server to the user. Alternatively, the speech recognition application may transmit the converted text data 1140 to the speech recognition server and provide the result of the response received from the speech recognition server to the user.

도 14는 가상 이미지 제공 방법의 제2 예를 설명하기 위한 도면이다.14 is a diagram for explaining a second example of the virtual image providing method.

먼저, 사용자는 터치 센서(250), 입/출력 모듈(210) 또는 카메라 (260)를 통하여 버튼(213), 아이콘 또는 메뉴 항목의 선택, 음성 명령, 제스쳐 또는 모션 입력, 터치 패턴의 입력 등을 수행하고, 제어부(290)는 이러한 사용자 입력에 대응하여 뮤직 애플리케이션을 실행한다. 제어부(290)는 메모리(220)에 저장된 데이터를 이용하여 뮤직 애플리케이션 창(1410)을 구성하고, 구성된 뮤직 애플리케이션 창(1410)을 제1 프로젝터(270) 및 제1 윈도우(280)를 통해 사용자에게 표시한다.First, a user selects a button 213, icon or menu item, voice command, gesture or motion input, input of a touch pattern, and the like through the touch sensor 250, the input / output module 210 or the camera 260 And the control unit 290 executes the music application in response to the user input. The control unit 290 configures the music application window 1410 using the data stored in the memory 220 and transmits the configured music application window 1410 to the user through the first projector 270 and the first window 280 Display.

뮤직 애플리케이션은 사용자의 선택에 따르거나 디폴트로 설정된 음악을 재생하며, 재생 중인 음악의 곡명, 재생 시간 등을 애플리케이션 창(1410)에 표시한다. 뮤직 애플리케이션 창(1410)의 하부에는, 일시 중지, 빨리 감기, 되감기 등의 메뉴 항목(1420)과, 선택 가능한 음악 목록을 표시하기 위한 Lists 버튼 등이 제공될 수 있다.The music application plays the music set in accordance with the user's selection or default, and displays the name of the music being played, the playing time, and the like in the application window 1410. In the lower portion of the music application window 1410, a menu item 1420 such as pause, fast forward, rewind, and a List button for displaying a selectable music list may be provided.

도 15는 가상 이미지 제공 방법의 제3 예를 설명하기 위한 도면이다.15 is a diagram for explaining a third example of the virtual image providing method.

먼저, 사용자는 터치 센서(250), 입/출력 모듈(210) 또는 카메라 (260)를 통하여 버튼(213), 아이콘 또는 메뉴 항목의 선택, 음성 명령, 제스쳐 또는 모션 입력, 터치 패턴의 입력 등을 수행하고, 제어부(290)는 이러한 사용자 입력에 대응하여 통화 애플리케이션을 실행한다. 제어부(290)는 메모리(220)에 저장된 데이터를 이용하여 통화 애플리케이션 창(1510)을 구성하고, 구성된 통화 애플리케이션 창(1510)을 제1 프로젝터(270) 및 제1 윈도우(280)를 통해 사용자에게 표시한다.First, a user selects a button 213, icon or menu item, voice command, gesture or motion input, input of a touch pattern, and the like through the touch sensor 250, the input / output module 210 or the camera 260 And the control unit 290 executes the call application in response to the user input. The control unit 290 configures the call application window 1510 using the data stored in the memory 220 and transmits the configured call application window 1510 to the user through the first projector 270 and the first window 280 Display.

통화 애플리케이션은 전화 번호 입력을 위한 키패드(1520)와, 키패드 변환, 최근 기록, 연락처, 즐겨찾기 등의 메뉴 항목들(1530)을 통화 애플리케이션 창(1510)에 표시한다. The call application displays a keypad 1520 for entering a telephone number and menu items 1530 such as keypad translation, recent history, contacts, favorites, and so on in the currency application window 1510.

도 16은 가상 이미지 제공 방법의 제4 예를 설명하기 위한 도면이다.16 is a diagram for explaining a fourth example of the virtual image providing method.

먼저, 사용자는 터치 센서(250), 입/출력 모듈(210) 또는 카메라 (260)를 통하여 버튼(213), 아이콘 또는 메뉴 항목의 선택, 음성 명령, 제스쳐 또는 모션 입력, 터치 패턴의 입력 등을 수행하고, 제어부(290)는 이러한 사용자 입력에 대응하여 카메라 애플리케이션을 실행한다. 제어부(290)는 메모리(220)에 저장된 데이터를 이용하여 카메라 애플리케이션 창(1610)을 구성하고, 구성된 카메라 애플리케이션 창(1610)을 제1 프로젝터(270) 및 제1 윈도우(280)를 통해 사용자에게 표시한다.First, a user selects a button 213, icon or menu item, voice command, gesture or motion input, input of a touch pattern, and the like through the touch sensor 250, the input / output module 210 or the camera 260 And the control unit 290 executes the camera application corresponding to this user input. The control unit 290 configures the camera application window 1610 using the data stored in the memory 220 and transmits the configured camera application window 1610 to the user through the first projector 270 and the first window 280 Display.

카메라 애플리케이션은 사진 촬영을 위한 촬영 버튼(1620)과, 촬영 위치 또는 포커스 위치 표시자(1630)와, 환경 설정, 플래시 등의 메뉴 항목들(1640)을 카메라 애플리케이션 창(1610)에 표시한다.The camera application displays the camera application window 1610 with a photographing button 1620 for taking a picture, a photographing position or a focus position indicator 1630, and menu items 1640 such as environment setting and flash.

도 17은 가상 이미지 제공 방법의 제5 예를 설명하기 위한 도면이다.17 is a diagram for explaining a fifth example of the virtual image providing method.

먼저, 사용자는 터치 센서(250), 입/출력 모듈(210) 또는 카메라 (260)을 통하여 버튼(213), 아이콘 또는 메뉴 항목의 선택, 음성 명령, 제스쳐 또는 모션 입력, 터치 패턴의 입력 등을 수행하고, 제어부(290)는 이러한 사용자 입력에 대응하여 메시지 애플리케이션을 실행한다. 제어부(290)는 메모리(220)에 저장된 데이터를 이용하여 메시지 애플리케이션 창(1710)을 구성하고, 구성된 메시지 애플리케이션 창(1710)을 제1 프로젝터(270) 및 제1 윈도우(280)를 통해 사용자에게 표시한다.First, a user selects a button 213, icon or menu item, voice command, gesture or motion input, input of a touch pattern, and the like through the touch sensor 250, the input / output module 210 or the camera 260 And the control unit 290 executes the message application in response to the user input. The control unit 290 configures the message application window 1710 using the data stored in the memory 220 and transmits the configured message application window 1710 to the user through the first projector 270 and the first window 280 Display.

메시지 애플리케이션은 텍스트 입력을 위한 키패드(1720)와, 메시지 전송, 파일 첨부 등의 메뉴 항목들(1730)을 메시지 애플리케이션 창(1710)에 표시한다.The message application displays a keypad 1720 for text entry and menu items 1730, such as message transmission, file attachment, etc., in the message application window 1710.

본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. HMD 장치 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.It will be appreciated that embodiments of the present invention may be implemented in hardware, software, or a combination of hardware and software. Such arbitrary software may be stored in a memory such as, for example, a volatile or non-volatile storage device such as a storage device such as ROM or the like, or a memory such as a RAM, a memory chip, a device or an integrated circuit, , Or a storage medium readable by a machine (e.g., a computer), such as a CD, a DVD, a magnetic disk, or a magnetic tape, as well as being optically or magnetically recordable. It will be appreciated that the memory that may be included in the HMD device is an example of a machine-readable storage medium suitable for storing programs or programs containing instructions embodying the embodiments of the present invention. Accordingly, the invention includes a program comprising code for implementing the apparatus or method as claimed in any of the claims, and a machine-readable storage medium storing such a program. In addition, such a program may be electronically transported through any medium such as a communication signal transmitted via a wired or wireless connection, and the present invention appropriately includes the same.

또한, 상기 HMD 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 HMD 장치가 기설정된 가상 이미지를 사용자에게 제공하는 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 가상 이미지를 사용자에게 제공하는 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 HMD 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 HMD 장치의 요청 또는 자동으로 해당 프로그램을 상기 HMD 장치로 전송하는 제어부를 포함할 수 있다.Also, the HMD device may receive and store the program from a program providing device connected by wire or wireless. The program providing apparatus comprising: a memory for storing a program including instructions for causing the HMD device to perform a method of providing a predetermined virtual image to a user, information necessary for a method of providing a virtual image to a user, A communication unit for performing wired or wireless communication with the apparatus, and a controller for transmitting the program to the HMD apparatus upon request or automatically by the HMD apparatus.

210: 입/출력 모듈, 220: 메모리, 225: 센서부, 230: 배터리, 235: 전력 관리부, 240: 통신부, 250: 터치 센서, 260: 카메라, 270: 제1 프로젝터, 275: 제2 프로젝터, 280: 제1 윈도우, 285: 제2 윈도우, 290: 제어부The present invention relates to an input / output module, and more particularly, to an input / output module, which includes a memory, a sensor portion, a battery, a power management portion, a communication portion, a touch sensor, a camera, a first projector, 280: first window, 285: second window, 290: control section

Claims (10)

헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법에 있어서,
센서부, 광을 투사하는 프로젝터, 투과율이 변화하는 글래스 및 홀로그래픽 패턴을 갖는 홀로그래픽 광소자를 포함하는 윈도우, 및 제어부를 포함하는 포함하는 헤드- 마운티드 디스플레이 장치에서, 상기 센서부를 이용하여 주변 조도를 검출하는 단계;
상기 주변 조도에 대응하는 상기 헤드-마운티드 디스플레이 장치에 구비된 상기 글래스의 목표 투과율을 산출하는 단계;
상기 목표 투과율에 따라 상기 글래스의 투과율을 조절하는 단계;
상기 헤드-마운티드 디스플레이 장치에 구비된 프로젝터를 이용하여 상기 홀로그래픽 광소자에 제 1 광을 투사하고, 상기 홀로그래픽 광소자가 상기 제 1 광을 반사함으로써, 복수의 애플리케이션들에 대응하는 복수의 아이템들을 포함하는 제 1 그래픽 사용자 인터페이스를 표시하는 단계;
상기 제 1 그래픽 사용자 인터페이스에 표시된 상기 복수의 아이템들 중 하나의 아이템을 선택하기 위한 사용자 명령을 검출하는 단계; 및
상기 프로젝터를 이용하여 상기 홀로그래픽 광소자에 제 2 광을 투사하고, 상기 홀로그래픽 광소자가 상기 제 2 광을 반사함으로써, 상기 선택된 아이템에 대응하는 애플리케이션의 제 2 그래픽 사용자 인터페이스를 표시하는 단계를 포함하고,
상기 홀로그래픽 광소자는 상기 사용자의 눈의 동공 또는 수정체와 상기 홀로그래픽 광소자 사이의 거리에 해당하는 초점 거리를 가지며, 상기 제 1 광 및 상기 제 2 광은, 상기 홀로그래픽 광소자에 의해 반사되어 상기 사용자의 눈의 동공 또는 수정체의 위치에 수렴하고,
상기 프로젝터의 출력은 상기 글래스의 조절된 투과율에 근거하여 조절됨을 특징으로 하는 헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법.
A method of providing a virtual image to a user in a head-mounted display device,
In a head-mounted display device including a sensor portion, a projector for projecting light, a window including a holographic optical element having a glass with a varying transmittance and a holographic pattern, and a control portion, Detecting;
Calculating a target transmittance of the glass included in the head-mounted display device corresponding to the ambient illuminance;
Adjusting a transmittance of the glass according to the target transmittance;
Projecting a first light onto the holographic optical element using a projector included in the head-mounted display device, and reflecting the first light by the holographic optical element, thereby displaying a plurality of items corresponding to the plurality of applications Displaying a first graphical user interface comprising;
Detecting a user command for selecting one item of the plurality of items displayed in the first graphical user interface; And
Projecting a second light to the holographic optical element using the projector and the holographic optical element reflecting the second light to display a second graphical user interface of the application corresponding to the selected item and,
Wherein the holographic optical element has a focal length corresponding to a distance between the pupil or lens of the user's eye and the holographic optical element, and wherein the first light and the second light are reflected by the holographic optical element Converges to the position of the pupil or the lens of the eye of the user,
Wherein the output of the projector is adjusted based on the adjusted transmittance of the glass. ≪ Desc / Clms Page number 17 >
제 1 항에 있어서,
서로 대응하는 주변 조도 값들과 상기 글래스의 투과율들을 나타내는 데이터 테이블을 이용하여, 상기 검출된 주변 조도에 대응하는 상기 글래스의 투과율을 산출함을 특징으로 하는 헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법.
The method according to claim 1,
Wherein the transmittance of the glass corresponding to the detected ambient illuminance is calculated by using a data table representing ambient light illuminance values and transmittances of the glass corresponding to each other How to.
제 1 항에 있어서,
상기 검출된 주변 조도가 현재 설정되어 있는 주변 조도보다 높은 경우에 상기 글래스의 투과율을 감소시키고, 상기 검출된 주변 조도가 현재 설정되어 있는 주변 조도보다 낮은 경우에 상기 글래스의 투과율을 증가시키는 것을 특징으로 하는 헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법.
The method according to claim 1,
The transmittance of the glass is decreased when the detected ambient illuminance is higher than the currently set ambient illuminance and the transmittance of the glass is increased when the detected ambient illuminance is lower than the currently set ambient illuminance A method for providing a virtual image to a user in a head-mounted display device.
제 1, 2 및 3 항 중 어느 한 항에 따른 헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체.A machine-readable storage medium having recorded thereon a program for executing a method of providing a virtual image to a user in a head-mounted display device according to any one of claims 1, 2 and 3. 제 4 항의 기계로 읽을 수 있는 저장 매체를 포함하는 헤드-마운티드 디스플레이 장치.A head-mounted display device comprising the machine-readable storage medium of claim 4. 사용자에게 가상 이미지를 제공하는 헤드-마운티드 디스플레이 장치에 있어서,
주변 조도를 검출하는 센서부;
광을 투사하는 프로젝터;
투과율이 변화하는 글래스 및 홀로그래픽 패턴을 갖는 홀로그래픽 광소자를 포함하는 윈도우; 및
상기 센서부를 이용하여 상기 주변 조도에 대응하는 상기 헤드-마운티드 디스플레이 장치에 구비된 글래스의 목표 투과율을 산출하고,
상기 목표 투과율에 따라 상기 글래스의 투과율을 조절하고,
상기 프로젝터를 제어하여 상기 홀로그래픽 광소자에 제 1 광을 투사하고, 상기 홀로그래픽 광소자가 상기 제 1 광을 반사함으로써, 복수의 애플리케이션들에 대응하는 복수의 아이템들을 포함하는 제 1 그래픽 사용자 인터페이스를 표시하고,
상기 제 1 그래픽 사용자 인터페이스에 표시된 상기 복수의 아이템들 중 하나의 아이템을 선택하기 위한 사용자 명령을 검출하고,
상기 프로젝터를 제어하여 상기 글래스에 제 2 광을 투사하고, 상기 글래스가 상기 제 2 광을 반사함으로써, 상기 선택된 아이템에 대응하는 애플리케이션의 제 2 그래픽 사용자 인터페이스를 표시하는 제어부를 포함하고,
상기 홀로그래픽 광소자는 상기 사용자의 눈의 동공 또는 수정체와 상기 홀로그래픽 광소자 사이의 거리에 해당하는 초점 거리를 가지며, 제 1 광 및 제 2 광은 상기 홀로그래픽 광소자에 의해 반사되어 상기 사용자의 눈의 동공 또는 수정체의 위치에 수렴하고,
상기 프로젝터의 출력은 상기 윈도우의 조절된 투과율에 근거하여 조절됨을 특징으로 하는 헤드-마운티드 디스플레이 장치.
A head-mounted display device for providing a virtual image to a user,
A sensor unit for detecting ambient illuminance;
A projector for projecting light;
A window comprising a holographic optical element having a glass and holographic pattern with varying transmittance; And
The target transmittance of the glass provided in the head-mounted display device corresponding to the ambient illuminance is calculated using the sensor unit,
Adjusting a transmittance of the glass according to the target transmittance,
A first graphical user interface comprising a plurality of items corresponding to a plurality of applications by controlling the projector to project first light to the holographic optical element and the holographic optical element reflecting the first light, Display,
Detecting a user command for selecting one of the plurality of items displayed in the first graphical user interface,
And a control unit for controlling the projector to project a second light to the glass and to display a second graphic user interface of the application corresponding to the selected item by reflecting the second light,
Wherein the holographic optical element has a focal distance corresponding to a distance between the pupil or lens of the user's eye and the holographic optical element, and wherein the first light and the second light are reflected by the holographic optical element, Converges to the position of the pupil or lens of the eye,
Wherein the output of the projector is adjusted based on the adjusted transmittance of the window.
제 6 항에 있어서,
상기 홀로그래픽 광소자는 상기 헤드-마운티드 디스플레이 장치의 외부로부터 입력된 주변 광을 투과시키고, 상기 프로젝터로부터 입력된 광을 반사 및 집속함을 특징으로 하는 헤드-마운티드 디스플레이 장치.
The method according to claim 6,
Wherein the holographic optical device transmits ambient light input from the outside of the head-mounted display device, and reflects and collects light input from the projector.
제6항에 있어서,
서로 대응하는 주변 조도 값들과 상기 글래스의 투과율들을 나타내는 데이터 테이블을 저장한 메모리를 더 포함하고,
상기 제어부는 상기 데이터 테이블을 이용하여 상기 검출된 주변 조도에 대응하는 상기 글래스의 투과율을 산출함을 특징으로 하는 헤드-마운티드 디스플레이 장치.
The method according to claim 6,
Further comprising a memory storing a data table indicating ambient light illuminance values corresponding to each other and transmittances of the glass,
Wherein the controller calculates the transmittance of the glass corresponding to the detected ambient illuminance using the data table.
제6항에 있어서,
상기 제어부는 상기 목표 투과율에 대응하는 전압을 상기 글래스에 인가함으로써, 상기 글래스의 투과율을 조절함을 특징으로 하는 헤드-마운티드 디스플레이 장치.
The method according to claim 6,
Wherein the control unit controls the transmittance of the glass by applying a voltage corresponding to the target transmittance to the glass.
제6항에 있어서,
상기 제어부는 상기 검출된 주변 조도가 현재 설정되어 있는 주변 조도보다 높은 경우에 상기 글래스의 투과율을 감소시키고, 상기 제어부는 상기 검출된 주변 조도가 현재 설정되어 있는 주변 조도보다 낮은 경우에 상기 글래스의 투과율을 증가시키는 것을 특징으로 하는 헤드-마운티드 디스플레이 장치.
The method according to claim 6,
Wherein the control unit decreases the transmittance of the glass when the detected ambient illuminance is higher than the currently set ambient illuminance, and when the detected ambient illuminance is lower than the currently set ambient illuminance, Of the head-mounted display device.
KR1020190067342A 2019-06-07 2019-06-07 Method for providing user with virtual image in head-mounted display device, machine-readable storage medium and head-mounted display device KR20190070899A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190067342A KR20190070899A (en) 2019-06-07 2019-06-07 Method for providing user with virtual image in head-mounted display device, machine-readable storage medium and head-mounted display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190067342A KR20190070899A (en) 2019-06-07 2019-06-07 Method for providing user with virtual image in head-mounted display device, machine-readable storage medium and head-mounted display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020120118251A Division KR20140052294A (en) 2012-10-24 2012-10-24 Method for providing user with virtual image in head-mounted display device, machine-readable storage medium and head-mounted display device

Publications (1)

Publication Number Publication Date
KR20190070899A true KR20190070899A (en) 2019-06-21

Family

ID=67056843

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190067342A KR20190070899A (en) 2019-06-07 2019-06-07 Method for providing user with virtual image in head-mounted display device, machine-readable storage medium and head-mounted display device

Country Status (1)

Country Link
KR (1) KR20190070899A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114307A1 (en) * 2020-11-27 2022-06-02 가온미디어 주식회사 Slim-type xr device having variable transmittance and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114307A1 (en) * 2020-11-27 2022-06-02 가온미디어 주식회사 Slim-type xr device having variable transmittance and control method thereof

Similar Documents

Publication Publication Date Title
US10775623B2 (en) Method for providing virtual image to user in head-mounted display device, machine-readable storage medium, and head-mounted display device
US11333891B2 (en) Wearable display apparatus having a light guide element that guides light from a display element and light from an outside
US10338389B2 (en) Head mounted display device for displaying image and method thereof
KR102321362B1 (en) Method for displayin image by head mounted display device and head maounted display device thereof
JP6573593B2 (en) Wearable device having input / output structure
US9618747B2 (en) Head mounted display for viewing and creating a media file including omnidirectional image data and corresponding audio data
EP3072008B1 (en) Head-mounted display device and method of changing light transmittance of the same
KR102328689B1 (en) Wearable display apparatus
CN116325775A (en) Under-screen camera and sensor control
US9778465B2 (en) Method for controlling display screen in head-mounted display device, and head-mounted display device
CN111064876B (en) Electronic device, shooting control method and device, and computer-readable storage medium
US8854452B1 (en) Functionality of a multi-state button of a computing device
KR20200106871A (en) Head mounted display apparatus and method for changing a light transmittance
US9958681B2 (en) Electronic device and control method thereof
KR20190070899A (en) Method for providing user with virtual image in head-mounted display device, machine-readable storage medium and head-mounted display device
CN117616381A (en) Speech controlled setup and navigation
CN204390168U (en) Head-wearing type intelligent equipment
CN113282141A (en) Wearable portable computer and teaching platform based on mix virtual reality
CN215222324U (en) Camera assembly and mobile terminal
CN111953814B (en) Lens module and terminal equipment
KR20230067197A (en) Apparatus and method for providing contents related to augmented reality service between electronic device and wearable electronic device

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
X601 Decision of rejection after re-examination