KR20190097894A - Smart glasses capable of processing virtual objects - Google Patents

Smart glasses capable of processing virtual objects Download PDF

Info

Publication number
KR20190097894A
KR20190097894A KR1020180017874A KR20180017874A KR20190097894A KR 20190097894 A KR20190097894 A KR 20190097894A KR 1020180017874 A KR1020180017874 A KR 1020180017874A KR 20180017874 A KR20180017874 A KR 20180017874A KR 20190097894 A KR20190097894 A KR 20190097894A
Authority
KR
South Korea
Prior art keywords
image
lens
smart glasses
user
display
Prior art date
Application number
KR1020180017874A
Other languages
Korean (ko)
Other versions
KR102218210B1 (en
Inventor
문명일
Original Assignee
주식회사 메카비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메카비전 filed Critical 주식회사 메카비전
Priority to KR1020180017874A priority Critical patent/KR102218210B1/en
Publication of KR20190097894A publication Critical patent/KR20190097894A/en
Application granted granted Critical
Publication of KR102218210B1 publication Critical patent/KR102218210B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)

Abstract

Disclosed are smart glasses providing a display and capable of processing a virtual object. The smart glasses comprise: a frame assembly forming a glasses shape by a plurality of frames; an electrical component mounted to the frame assembly; a first display device and a second display device, which are controlled by a control device of the electronic component and are disposed at the center upper side and the center lower side of the frame assembly; and an optical system which transmits a first image output from the first display device and a second image output from the second display device, and enlarges, reduces, or focuses an image size to project the images on a first main lens and a second main lens, respectively. The first image and the second image are visible to user eyes on the first main lens and the second main lens.

Description

가상 오브젝트의 처리가 가능한 스마트 안경{SMART GLASSES CAPABLE OF PROCESSING VIRTUAL OBJECTS}Smart glasses that can handle virtual objects {SMART GLASSES CAPABLE OF PROCESSING VIRTUAL OBJECTS}

본 발명의 실시예들은 스마트 안경에 관한 것으로, 보다 상세하게는 카메라와 디스플레이 장치를 구비하고 가상 오브젝트를 처리할 수 있는 스마트 안경에 관한 것이다.Embodiments of the present invention relate to smart glasses, and more particularly, to a smart glasses having a camera and a display device and capable of processing a virtual object.

헤드 마운트 디스플레이(Head Mount Display; HMD)는 안경처럼 얼굴에 착용하고 멀티미디어 콘텐츠를 안구에 근접한 형태로 안경 상에 가상의 영상을 디스플레이하는 디지털 디바이스를 말한다.A head mount display (HMD) refers to a digital device that displays a virtual image on glasses in a form that is worn on a face like glasses and that multimedia content is close to an eyeball.

HMD는 단순한 디스플레이 기능을 넘어 증강현실(Augmented Reality) 기술 등과 조합하여 사용자에게 다양한 편의를 제공해 줄 수 있고, 외부 디지털 디바이스와 통신을 수행하여 해당 콘텐츠를 출력할 수 있을 뿐만 아니라 외부 디지털 디바이스를 위한 사용자 입력을 수신하거나 해당 외부 디지털 디바이스와 연동한 작업의 수행도 지원한다. 최근, HMD에 대한 연구 개발이 활발하게 이루어지고 있다.HMD can provide various conveniences to users in combination with Augmented Reality technology beyond simple display functions, and can communicate with external digital devices to output the contents as well as users for external digital devices. It also supports receiving input or performing work in conjunction with an external digital device. Recently, research and development on HMDs have been actively performed.

증강현실은 실세계에 3차원의 가상 물체를 겹쳐서 보여주는 기술을 활용해 현실과 가상환경을 융합하는 복합형 가상현실(Virtual Reality) 기술 중 하나이다. 이러한 증강현실은 군사, 오락, 의료, 학습, 영화, 건축설계, 관광 등 다양한 분야에 활용되면서 공상과학 소설이나 영화에서 묘사되는 상상적 단계를 벗어나 점차 현실화되고 있다.Augmented reality is one of the hybrid virtual reality technologies that combines reality and virtual environment by using a technology that displays three-dimensional virtual objects in the real world. This augmented reality is being used in various fields such as military, entertainment, medical, learning, film, architectural design, tourism, etc., and is gradually becoming a reality beyond the imaginary stages described in science fiction or film.

증강현실은 가상현실의 한 분야이며, 가상현실 시스템들은 창문형 시스템(Window Systems), 거울형 시스템(Mirror Systems), 탑승형 시스템(Vehicle-based Systems), 증강현실 시스템(Aumented Reality Systems) 등으로 분류될 수 있다.Augmented reality is an area of virtual reality, and virtual reality systems are classified into window systems, mirror systems, vehicle-based systems, and augmented reality systems. Can be.

가상현실 시스템은 입력장치와 출력장치를 포함한다. 출력장치는 사용자들이 감각채널을 통해 시각, 청각, 촉각, 움직임 등을 지각하게 해 주는 장치들로서 시각 디스플레이 장치, 청각 디스플레이 장치, 촉각 디스플레이 장치, 움직임 피드백 및 영상 디스플레이 장치가 포함된다. 시각 디스플레이(Visual Display) 장치 중 대표적인 하드웨어는 HMD와 스마트 안경이 있다.The virtual reality system includes an input device and an output device. Output devices are devices that allow users to perceive visual, auditory, tactile, and motion through sensory channels, and include visual display devices, auditory display devices, tactile display devices, motion feedback, and image display devices. Representative hardware of visual display device is HMD and smart glasses.

가상현실이 추구하는 목표는 사용자로 하여금 원격현전(Telepresence)을 경험하도록 하는 것이다. 현전(Presence)은 어떤 환경 속에서 느끼는 실재감(Sense of being)을 뜻하는데 이런 점에서 원격현전은 커뮤니케이션 매체에 의해 어떤 가상 환경 속에서 실재하고 있음을 지칭할 수 있으며, 가상현실 시스템이나 증강현실 시스템은 사용자가 원격현전을 경험할 수 있도록 한다.The goal of virtual reality is to allow users to experience telepresence. Presence refers to the sense of being in a certain environment. In this sense, remote presence can refer to the existence of a virtual environment by a communication medium, and can be referred to as a virtual reality system or an augmented reality system. Allows the user to experience remote presence.

그러나 종래의 스마트 안경은 좌측이나 우측 중에서 하나의 안구로 이미지를 공급하고 사용자는 일측 안구로만 멀티미디어 콘텐츠를 관측함에 따라 일정 시간만 관측을 하여도 어지럼증 등의 부작용이 발생하는 문제점이 있다.However, the conventional smart glasses supply images to one eye of either the left or the right side, and the user may observe side effects such as dizziness even when only a certain time is observed, as the user observes the multimedia content with only one eye.

이러한 문제를 개선하기 위하여 양측 안구로 멀티미디어 콘텐츠를 공급하고자 좌측 안구로 콘텐츠를 공급하는 소형 투영기와 우측 안구로 콘텐츠를 공급하는 소형투영기를 각각 구비한 스마트 안경이 제안되었으나, 별도의 소형 투영기가 단일 영상 콘텐츠를 사용자의 양측 안구로 보내는 경우 양측 안구에 전달되는 콘텐츠가 사용자 시각의 측면에서 서로 동일하지 않고 서로 연계되지 않아 사용자가 어지러움이나 많은 피로감을 느끼는 등 사용자가 크게 불편을 느끼는 문제가 있다.In order to solve this problem, smart glasses having a small projector for supplying the contents to the left eye and a small projector for supplying the content to the right eye have been proposed to supply multimedia contents to both eyes, but a separate small projector is used to provide a single image. When the content is sent to both eyes of the user, the content delivered to both eyes is not the same in terms of the user's perspective and is not associated with each other, so that the user feels great discomfort such as dizziness or a lot of fatigue.

한국 등록특허공보 제10-1549074호(2015.08.26.)Korea Patent Publication No. 10-1549074 (2015.08.26.) 한국 등록특허공보 제10-1588402호(2016.01.19.)Korean Patent Publication No. 10-1588402 (2016.01.19.)

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 얼굴의 상측이나 하측 방향에서 영상을 투영함으로써 사용자의 피로감과 어지럼을 크게 감소시킬 수 있는 광학 시스템을 구비한 스마트 안경을 제공하는데 있다.The present invention has been made to solve the above problems, an object of the present invention is to provide smart glasses with an optical system that can greatly reduce the fatigue and dizziness of the user by projecting the image in the upper or lower direction of the face. It is.

본 발명의 다른 목적은 디스플레이에서 제공하는 멀티미디어 콘텐츠를 눈 주위의 미러를 통해 양방향에서 반사하며 확대렌즈부 또는 보조렌즈에서 확대된 콘텐츠를 빔 스플리터를 통해 양측 안구로 부분 반사하고 안구 전방으로 부분 투과하여 양측 안구에서 허상에 맺히는 동일한 영상 콘텐츠를 관측할 수 있게 하고 필요에 따라 3D 콘텐츠를 구현하거나 3D 콘텐츠를 이용하여 증강현실이나 가상현실을 용이하게 구현할 수 있는 스마트 안경을 제공하는데 있다.Another object of the present invention is to reflect the multimedia content provided by the display in both directions through the mirror around the eye and to partially reflect the content enlarged by the magnifying lens or the auxiliary lens to both eyes through the beam splitter and partially transmitted through the front of the eye. It is to provide smart glasses that can observe the same image content formed in the virtual image from both eyes, and to implement 3D content as needed or to easily implement augmented reality or virtual reality using 3D content.

상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 스마트 안경은, 안경태 형태를 구비하는 프레임 어셈블리; 상기 프레임 어셈블리에 탑재되는 전장부품; 상기 프레임 어셈블리에 의해 지지되고 상기 전장부품의 제어장치에 의해 제어되며 상기 프레임 어셈블리의 중앙 상부측 및 중앙 하부측에 배치되는 제1 디스플레이 장치 및 제2 디스플레이 장치를 구비하는 디스플레이 시스템; 및 상기 프레임 어셈블리에 고정되는 케이스 조립체를 통해 상기 디스플레이 시스템과 수평 방향으로 결합하고, 상기 디스플레이 시스템 내의 수직 방향으로 배열되는 상기 제1 디스플레이 장치와 상기 제2 디스플레이 장치에서 각각 출력되는 제1 영상 및 제2 영상을 상기 제1 디스플레이 장치와 상기 제2 디스플레이 장치의 중간에 위치하는 미러를 통해 상기 수평 방향의 양 방향으로 전달하는 광학계를 포함한다.Smart glasses according to an aspect of the present invention for solving the above technical problem, the frame assembly having a spectacle shape; Electrical components mounted to the frame assembly; A display system having a first display device and a second display device supported by the frame assembly and controlled by a control device of the electric component and disposed on a central upper side and a lower center side of the frame assembly; And a first image and a second output coupled to the display system through a case assembly fixed to the frame assembly in a horizontal direction and output from the first display device and the second display device arranged in a vertical direction in the display system. And an optical system for transmitting the second image in both horizontal directions through a mirror positioned between the first display device and the second display device.

일실시예에서, 상기 광학계는, 상기 중앙 상부측에서 상기 중앙 하부측을 향하는 제1 방향으로 입력되는 상기 제1 영상을 제1면에서 반사하여 상기 제1 방향과 직교하는 제2 방향으로 전달하고, 상기 중앙 하부측에서 상기 중앙 상부측을 향하는 제1 역방향으로 입력되는 상기 제2 영상을 상기 제1면의 반대측의 제2면에서 반사하여 상기 제1 역방향과 직교하고 상기 제2 방향의 반대 방향인 제2 역방향으로 전달하는 미러; 상기 미러에서 전달되는 제1 영상이 통과하는 오목 렌즈 형태의 제1 우렌즈; 상기 제1 우렌즈를 통과하는 제1 영상을 다시 통과시키는 볼록 렌즈 형태의 제2 우렌즈; 상기 제2 우렌즈를 통과하는 제1 영상을 반사하며 상기 프레임 어셈블리의 정면 일측에 지지되는 상기 제1 메인 렌즈; 상기 미러에서 전달되는 제2 영상이 통과하는 오목 렌즈 형태의 제1 좌렌즈; 상기 제1 좌렌즈를 통과하는 제2 영상을 다시 통과시키는 볼록 렌즈 형태의 제2 좌렌즈; 및 상기 제2 좌렌즈를 통과하는 제2 영상을 반사하며, 상기 프레임 어셈블리의 정면 타측에 지지되는 상기 제2 메인 렌즈를 포함할 수 있다.In an embodiment, the optical system may reflect the first image, which is input in a first direction toward the center lower side from the center upper side, in a first surface to transmit the first image in a second direction perpendicular to the first direction. And reflecting the second image, which is input in a first reverse direction from the lower center side toward the upper center side, on the second surface opposite to the first surface to be orthogonal to the first reverse direction and opposite to the second direction. A mirror passing in the second reverse direction; A first right lens having a concave lens through which the first image transmitted from the mirror passes; A second right lens in the form of a convex lens for passing the first image passing through the first right lens again; The first main lens reflecting a first image passing through the second right lens and being supported at one front side of the frame assembly; A first left lens having a concave lens through which a second image transmitted from the mirror passes; A second left lens in the form of a convex lens for passing the second image passing through the first left lens again; And the second main lens reflecting a second image passing through the second left lens and supported at the front front side of the frame assembly.

일실시예에서, 상기 제1 메인 렌즈 또는 상기 제2 메인 렌즈는, 육면체 블록 형태의 몸체; 및 상기 몸체 내부에 상기 제2 우렌즈를 통과한 제1 영상 또는 상기 제2 좌렌즈를 통과한 제2 영상의 투사 방향과 경사지게 배치되는 경면, 반경면 또는 빔 스플릿트를 구비할 수 있다.In one embodiment, the first main lens or the second main lens, the body in the form of a hexahedral block; And a mirror surface, a radial surface, or a beam split disposed in the body inclined with a projection direction of the first image passing through the second right lens or the second image passing through the second left lens.

일실시예에서, 상기 제어장치는 양안 시차에 대응하도록 상기 제1 영상을 기준으로 상기 제2 영상이 일방향으로 일정 픽셀 쉬프트되어 출력되도록 제1 디스플레이 장치 또는 제2 디스플레이 장치를 제어할 수 있다.The control apparatus may control the first display apparatus or the second display apparatus such that the second image is shifted by a predetermined pixel in one direction based on the first image so as to correspond to binocular parallax.

일실시예에서, 상기 제어장치는 3차원 영상 또는 입체 영상의 표시를 위해 상기 제1 영상과 상기 제2 영상이 순차적으로 혹은 교대로 출력되도록 제1 디스플레이 장치 또는 제2 디스플레이 장치를 제어할 수 있다.In one embodiment, the control device may control the first display device or the second display device such that the first image and the second image are sequentially or alternately output for displaying a 3D image or a stereoscopic image. .

일실시예에서, 상기 제1 디스플레이 장치 또는 상기 제2 디스플레이 장치는, LCD(liquid crystal display), DLP(digtal light processing) 프로젝터, LCoS(liquid crystal on silicon) 장치, PDP(plasma dispaly panel), FED(field emission display), ELD(elelctro-luminescent display) 및 OLED(organic light emitting diode) 장치 중 어느 하나를 포함할 수 있다.In some embodiments, the first display device or the second display device may include a liquid crystal display (LCD), a digital light processing (DLP) projector, a liquid crystal on silicon (LCoS) device, a plasma dispaly panel (PDP), and a FED. The display device may include any one of a field emission display, an ELD, and an organic light emitting diode (OLED) device.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 스마트 안경의 광학 시스템은, 안경 형태로 사용자 얼굴에 착용되어 사용자 눈 전방에 영상을 표시하는 스마트 안경의 광학 시스템으로서, 안경태 형태의 구비하는 프레임 어셈블리의 전면 중앙 상부측에서 전면 중앙 하부측을 향하는 제1 방향으로 입력되는 제1 영상을 제1면에서 반사하여 상기 제1 방향과 직교하는 제2 방향으로 전달하고, 상기 전면 중앙 하부측에서 상기 전면 중앙 상부측을 향하는 제1 역방향으로 입력되는 상기 제2 영상을 상기 제1면의 반대측의 제2면에서 반사하여 상기 제1 역방향과 직교하고 상기 제2 방향의 반대 방향인 제2 역방향으로 전달하는 미러; 상기 미러에서 반사되는 제1 영상이 통과하는 오목 렌즈 형태의 제1 우렌즈; 상기 제1 우렌즈를 통과하는 제1 영상을 다시 통과시키는 볼록 렌즈 형태의 제2 우렌즈; 상기 제2 우렌즈를 통과하는 제1 영상을 반사하며 상기 프레임 어셈블리의 정면 좌측에 지지되는 상기 제1 메인 렌즈; 상기 미러에서 반사되는 제2 영상이 통과하는 오목 렌즈 형태의 제1 좌렌즈; 상기 제1 좌렌즈를 통과한 제2 영상을 다시 통과시키는 볼록 렌즈 형태의 제2 좌렌즈; 및 상기 제2 좌렌즈를 통과하는 제2 영상을 반사하며 상기 프레임 어셈블리의 정면 우측에 지지되는 상기 제2 메인 렌즈를 포함한다.The optical system of the smart glasses according to another aspect of the present invention for solving the above technical problem is an optical system of the smart glasses to be displayed on the front of the user's eye is worn on the user's face in the form of glasses, the frame provided in the form of glasses The first image input in the first direction toward the front center lower side from the front center upper side of the assembly is reflected from the first surface and transmitted in a second direction orthogonal to the first direction. The second image, which is input in a first reverse direction toward the front center upper side, is reflected from a second surface opposite to the first surface to be transmitted in a second reverse direction perpendicular to the first reverse direction and opposite to the second direction. Mirror; A first right lens having a concave lens through which the first image reflected by the mirror passes; A second right lens in the form of a convex lens for passing the first image passing through the first right lens again; The first main lens reflecting a first image passing through the second right lens and supported at a front left side of the frame assembly; A first left lens having a concave lens through which the second image reflected by the mirror passes; A second left lens having a convex lens for passing the second image passing through the first left lens again; And the second main lens reflecting the second image passing through the second left lens and being supported on the front right side of the frame assembly.

일실시예에서, 상기 제1 우렌즈와 상기 제2 우렌즈의 결합 구조 혹은 상기 제1 좌렌즈와 상기 제2 좌렌즈의 결합 구조는 상기 미러 측에서 볼 때, 전면 또는 일면이 오목하고 배면 또는 타면이 볼록한 단일 렌즈 형태를 구비할 수 있다.In an embodiment, the coupling structure of the first right lens and the second right lens or the coupling structure of the first left lens and the second left lens may have a front or one surface concave and a rear side or the like when viewed from the mirror side. It may have a single lens shape in which the other surface is convex.

일실시예에서, 상기 제1 메인 렌즈 또는 상기 제2 메인 렌즈는, 육면체 블록 형태의 몸체; 및 상기 몸체 내부에 상기 제2 우렌즈를 통과한 제1 영상 또는 상기 제2 좌렌즈를 통과한 제2 영상의 투사 방향과 경사지게 배치되는 경면, 반경면 또는 빔 스플릿트를 구비할 수 있다.In one embodiment, the first main lens or the second main lens, the body in the form of a hexahedral block; And a mirror surface, a radial surface, or a beam split disposed in the body inclined with a projection direction of the first image passing through the second right lens or the second image passing through the second left lens.

일실시예에서, 상기 스마트 안경은, 상기 프레임 어셈블리에 탑재되는 카메라 또는 적외선 프로젝터; 및 상기 프레임 어셈블리 내에 탑재되거나 지지되는 제어보드 또는 프로세서를 더 포함할 수 있다. 상기 제어보드 또는 프로세서는, 손바닥, 손등, 팔뚝, 책상, 문, 벽 중 어느 하나를 포함한 물체를 인식하고, 물체의 구조적 특징에 기초하여 가상 오브젝트 또는 사용자 인터페이스(user interface, UI) 이미지를 표시할 영역을 탐색하고, 탐색된 영역에 배경과 함께 상기 가상 오브젝트 또는 UI 이미지를 생성할 수 있다.In one embodiment, the smart glasses, a camera or an infrared projector mounted on the frame assembly; And a control board or processor mounted or supported in the frame assembly. The control board or processor may recognize an object including any one of a palm, a back of a hand, a forearm, a desk, a door, a wall, and display a virtual object or a user interface (UI) image based on a structural feature of the object. An area may be searched, and the virtual object or the UI image may be generated with the background in the searched area.

일실시예에서, 상기 제어보드 또는 프로세서는, 상기 가상 오브젝트 또는 UI 이미지에 근접하는 다른 물체의 끝을 인식하고, 상기 다른 물체의 끝에 대응하는 상기 가상 오브젝트 또는 UI 이미지에 대하여 미리 설정된 동작을 더 수행할 수 있다. 또한, 상기 제어보드 또는 프로세서는, 상기 다른 물체가 다른 손인 경우, 상기 다른 손의 외곽선을 추출하거나 관절을 추출하여 손의 제스처를 인식할 수 있다.In an embodiment, the control board or processor recognizes an end of another object approaching the virtual object or the UI image, and further performs a preset operation on the virtual object or UI image corresponding to the end of the other object. can do. In addition, when the other object is the other hand, the control board or the processor may extract the outline of the other hand or extract the joint to recognize the gesture of the hand.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 스마트 안경은, 안경 프레임 형태를 구비하는 프레임 어셈블리; 상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때 상기 얼굴의 중앙부 상에 위치하는 디스플레이 장치; 및 상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때 상기 디스플레이 장치의 영상을 상기 사용자의 양쪽 눈이 위치하는 방향으로 전달하는 광학계(optical system)를 포함하고, 상기 광학계는 상기 사용자의 눈 앞에서 상기 디스플레이 장치로부터 전달되는 영상을 부분 반사 및 부분 투과하는 적어도 하나의 메인렌즈를 구비하고, 상기 사용자의 눈에 보이는 영상은 상기 메인렌즈 뒤에서 일정 거리 떨어진 허상면에 맺히는 영상인 것을 특징으로 한다.Smart glasses according to another aspect of the present invention for solving the above technical problem, the frame assembly having a spectacle frame form; A display device supported by the frame assembly and positioned on a central portion of the face when the frame assembly is worn on a user's face; And an optical system that is supported by the frame assembly and transmits an image of the display device in a direction in which both eyes of the user are located when the frame assembly is worn on the face of the user. And at least one main lens partially reflecting and partially transmitting the image transmitted from the display device in front of the user's eyes, wherein the image visible to the user is an image formed on a virtual image spaced a certain distance behind the main lens. It is done.

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 측면에 따른 스마트 안경에 채용할 수 있는 광학 시스템은, 안경 프레임 형태로 사용자 얼굴에 착용되어 사용자 눈에 영상을 제공하는 스마트 안경의 광학 시스템으로서, 디스플레이 장치의 영상을 반사하는 미러; 상기 미러에서 반사되는 영상을 확대하는 보조렌즈; 상기 보조렌즈에서 확대된 영상을 부분 반사 및 부분 투과시키는 메인렌즈; 및 상기 미러, 상기 보조렌즈 및 상기 메인렌즈를 지지하는 안경 프레임 형태의 프레임 어셈블리를 포함하며, 상기 프레임 어셈블리가 사용자의 머리에 착용될 때, 상기 미러, 상기 보조렌즈 및 상기 메인렌즈는 상기 사용자의 얼굴 중앙부, 미간 또는 코 위에 위치하는 것을 특징으로 한다.An optical system that can be employed in the smart glasses according to another aspect of the present invention for solving the above technical problem is, as an optical system of the smart glasses to be worn on the user's face in the form of glasses frame to provide an image to the user's eyes, display A mirror reflecting an image of the device; An auxiliary lens for enlarging an image reflected from the mirror; A main lens for partially reflecting and partially transmitting an image enlarged by the auxiliary lens; And a frame assembly in the form of a spectacle frame for supporting the mirror, the auxiliary lens, and the main lens, wherein when the frame assembly is worn on a user's head, the mirror, the auxiliary lens, and the main lens are connected to the user's head. It is characterized by being located in the center of the face, the glans or the nose.

본 발명에 따른 스마트 안경 및 그 광학시스템을 채용하는 경우에는, 사용자 눈의 피로감과 어지럼을 상당히 감소시켜 착용감과 사용편의성을 향상시킬 수 있다. 또한, 무게를 최소화하고 인체공학적 구조 및 디자인으로 설계하여 우수한 착용감을 제공할 수 있다. 또한, 배터리 교체 방식으로 장시간 사용에 대한 전원 공급을 용이하게 할 수 있는 장점이 있다.When employing the smart glasses and the optical system according to the present invention, it is possible to significantly reduce the fatigue and dizziness of the user's eyes to improve the fit and ease of use. In addition, by minimizing weight and designed with an ergonomic structure and design can provide an excellent fit. In addition, there is an advantage that can be easily supplied to the power supply for a long time by the battery replacement method.

아울러, 피로감과 어지럼 현상을 방지하고 착용감을 증대시킴으로써, 스마트 안경을 사용하여 가상현실(VR), 증강현실(AR), 융합현실(MR), 혼합현실(MR) 등의 콘텐츠를 이용할 때 장시간 이용 환경을 제공할 수 있다. 또한, 모니터없이 업무 혹은 작업을 하거나, 쇼핑을 하거나, 내비게이션 장치로 이용하거나, AR, VR 또는 MR 게임을 하거나, 동영상을 감상하거나, 영상통화를 하는 등 다양한 분야에 효과적으로 혹은 쉽게 적용할 수 있는 장점이 있다.In addition, by preventing fatigue and dizziness and increasing wearing comfort, the user can use smart glasses for a long time when using contents of virtual reality (VR), augmented reality (AR), fused reality (MR), mixed reality (MR), etc. It can provide an environment. In addition, it can be effectively or easily applied to various fields such as working or working without a monitor, shopping, using a navigation device, playing an AR, VR or MR game, watching a video, or making a video call. There is this.

또한, 본 발명에 의하면, 스마트 안경의 전면 중앙에 배치되는 하나 또는 두 개의 디스플레이에서 양쪽 눈으로 독립적인 영상을 제공하도록 구성함으로써 측면 시야각을 확보할 수 있는 장점이 있다.In addition, according to the present invention, by providing an independent image to both eyes in one or two displays disposed in the front center of the smart glasses there is an advantage that can secure the side viewing angle.

또한, 하나의 스마트 안경으로 2D, 3D 이미지를 효과적으로 구현하고, 증강현실과 가상현실을 구현할 수 있는 효과가 있다.In addition, it is effective to implement 2D, 3D images, and augmented reality and virtual reality with one smart glasses.

또한, 하나 또는 두 개의 디스플레이에서 동일한 멀티미디어 콘텐츠를 양측 안구에 제공함으로써 장시간 사용에도 사용자가 불편을 느끼지 않는 효과가 있다.In addition, by providing the same multimedia content to both eyes in one or two displays there is an effect that the user does not feel uncomfortable even for long time use.

또한, 정면의 메인렌즈의 두께를 줄여 장치를 경량화하고 사용감을 향상시킬 수 있다.In addition, it is possible to reduce the thickness of the main lens of the front to reduce the weight and improve the feeling of use.

또한, 후면 카메라나 센서를 통해 사용자의 눈꺼풀을 인식하고 인식 결과에 따라 장치에 수납된 액추에이터나 구동기 또는 스피커를 통해 진동이나 알람을 발생시켜 사용자 특히, 졸음 운전 중인 운전자에게 위험을 경고할 수 있다.In addition, the user's eyelids may be recognized through a rear camera or a sensor, and vibrations or alarms may be generated through an actuator, a driver, or a speaker stored in the device according to a recognition result, thereby warning a danger to a user, especially a drowsy driver.

또한, 장치를 장시간 사용할 때 발생할 수 있는 열을 메인 프레임의 정면 상단부에 배치되는 방열구조나 히트싱크로 효과적으로 배출하여 스마트 안경에 대한 동작 안정성과 신뢰성을 제공할 수 있다.In addition, the heat generated when the device is used for a long time can be effectively discharged to the heat dissipation structure or the heat sink disposed in the upper front portion of the main frame to provide an operational stability and reliability for the smart glasses.

또한, 스마트 안경에서 배터리를 제거하고, 외부의 제어 및 전원 장치에 배터리를 통해 스마트 안경에 전원을 공급하는 경우, 스마트 안경을 효과적으로 경량화할 수 있고 착용감이나 사용편의성을 증대시킬 수 있다.In addition, when the battery is removed from the smart glasses, and the power is supplied to the external control and power supply through the battery to the smart glasses, smart glasses can be effectively reduced in weight and increase the wearing comfort and ease of use.

또한, 스마트 안경에 탑재된 스테레오 RGB 카메라, 스테레오 적외선 카메라 또는 적외선 프로젝터를 이용하여 증강현실 서비스를 제공하거나 증강현실로 표시되는 사용자 인터페이스 이미지 또는 가상 오브젝트를 통해 사용자 명령을 입력 받고 이에 따라 미리 설정된 동작을 수행할 수 있다. 이러한 구성에 의하면, 사용자 편의성을 극대화하면서 증강현실 서비스, 증강현실을 이용한 각종 입체 영상 서비스를 제공할 수 있는 장점이 있다.In addition, by using a stereo RGB camera, a stereo infrared camera, or an infrared projector mounted in the smart glasses, augmented reality service is provided or a user command is input through a user interface image or a virtual object displayed as augmented reality, and a preset operation is performed accordingly. Can be done. According to this configuration, there is an advantage that can provide various stereoscopic services using augmented reality services, augmented reality while maximizing user convenience.

도 1은 본 발명의 일실시예에 따른 스마트 안경의 사시도이다.
도 2는 도 1의 스마트 안경의 분해사시도이다.
도 3은 도 1의 스마트 안경의 주요 작동 원리를 설명하기 위한 부분 분해 사시도이다.
도 4는 도 3의 스마트 안경의 배면 케이스의 구조를 확대하여 나타낸 사시도이다.
도 5는 본 발명의 다른 실시예에 따른 스마트 안경에 채용할 수 있는 메인 제어보드의 주요 구성을 설명하기 위한 블록도이다.
도 6은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다.
도 7은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다.
도 8은 도 7의 스마트 안경에 대한 정면도이다.
도 9는 도 8의 스마트 안경의 내부 구조를 설명하기 위한 부분 투영 정면도이다.
도 10은 도 7의 스마트 안경에 대한 우측면도이다.
도 11은 도 10의 스마트 안경의 내부 구조를 보여주는 부분 투영 우측면도이다.
도 12는 도 7의 스마트 안경의 구성요소를 설명하기 위한 부분 분해사시도이다.
도 13 및 도 14는 도 7의 스마트 안경의 광학 시스템을 설명하기 위한 도면들이다.
도 15는 도 7의 스마트 안경에 채용할 수 있는 제어보드에 대한 블록도이다.
도 16은 본 발명의 또 다른 실시예에 따른 스마트 안경과 제어 시스템에 대한 사시도이다.
도 17은 도 16의 스마트 안경의 주요 구성을 설명하기 위한 블록도이다.
도 18은 도 16의 스마트 안경에 채용할 수 있는 제어 모듈을 설명하기 위한 블록도이다.
도 19 및 도 20은 도 16의 스마트 안경의 주요 작동 원리를 설명하기 위한 순서도들이다.
도 21은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스를 설명하기 위한 도면이다.
도 22 및 23은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스의 변형예를 설명하기 위한 예시도들이다.
도 24는 본 실시예의 스마트 안경에 채용할 수 있는 사용자 인터페이스의 작동 원리를 설명하기 위한 도면이다.
도 25 및 26은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용된 사용자 인터페이스의 신호 처리 과정을 설명하기 위한 흐름도들이다.
도 27은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 사시도이다.
도 28은 도 27의 스마트 안경에 대한 정면도이다.
도 29 및 도 30은 도 28의 스마트 안경에 대한 사용 상태도이다.
도 31은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 정면도이다.
도 32 및 도 33은 도 31의 스마트 안경에 대한 사용 상태도이다.
도 34 및 도 35는 본 발명의 실시예에 따른 스마트 안경의 전원 및 제어를 위한 장치의 외관을 보여주는 사시도들이다.
1 is a perspective view of smart glasses according to an embodiment of the present invention.
FIG. 2 is an exploded perspective view of the smart glasses of FIG. 1.
3 is a partially exploded perspective view for explaining the principle of operation of the smart glasses of FIG.
4 is an enlarged perspective view illustrating a structure of a rear case of the smart glasses of FIG. 3.
5 is a block diagram illustrating a main configuration of a main control board that can be employed in smart glasses according to another embodiment of the present invention.
6 is a perspective view of smart glasses according to another embodiment of the present invention.
7 is a perspective view of smart glasses according to another embodiment of the present invention.
FIG. 8 is a front view of the smart glasses of FIG. 7.
FIG. 9 is a partial projection front view for describing an internal structure of the smart glasses of FIG. 8.
FIG. 10 is a right side view of the smart glasses of FIG. 7.
FIG. 11 is a partially projected right side view showing the internal structure of the smart glasses of FIG. 10.
12 is a partially exploded perspective view for explaining the components of the smart glasses of FIG.
13 and 14 are diagrams for describing an optical system of the smart glasses of FIG. 7.
FIG. 15 is a block diagram of a control board that may be employed in the smart glasses of FIG. 7.
16 is a perspective view of a smart glasses and a control system according to another embodiment of the present invention.
FIG. 17 is a block diagram illustrating a main configuration of the smart glasses of FIG. 16.
FIG. 18 is a block diagram illustrating a control module that may be employed in the smart glasses of FIG. 16.
19 and 20 are flowcharts for describing a main operation principle of the smart glasses of FIG. 16.
FIG. 21 is a diagram illustrating a user interface that may be employed in smart glasses according to another embodiment of the present invention.
22 and 23 are exemplary views for explaining a modification of the user interface that can be employed in the smart glasses according to another embodiment of the present invention.
24 is a view for explaining the principle of operation of the user interface that can be employed in the smart glasses of this embodiment.
25 and 26 are flowcharts illustrating a signal processing process of a user interface employed in smart glasses according to another embodiment of the present invention.
27 is a perspective view of smart glasses according to another embodiment of the present invention.
FIG. 28 is a front view of the smart glasses of FIG. 27.
29 and 30 are diagrams illustrating a use state of the smart glasses of FIG. 28.
31 is a front view of smart glasses according to another embodiment of the present invention.
32 and 33 are diagrams illustrating a use state of the smart glasses of FIG. 31.
34 and 35 are perspective views illustrating an appearance of a device for power and control of smart glasses according to an embodiment of the present invention.

이하에서는 첨부된 도면을 참조하여, 본 발명의 바람직한 실시예를 상세히 설명한다. 각 도면에 제시된 동일한 도면부호는 동일한 부재를 나타낸다.Hereinafter, with reference to the accompanying drawings, a preferred embodiment of the present invention will be described in detail. Like reference numerals in the drawings denote like elements.

도 1은 본 발명의 일실시예에 따른 스마트 안경의 사시도이다. 도 2는 도 1의 스마트 안경의 분해사시도이다. 도 3은 도 1의 스마트 안경의 주요 작동 원리를 설명하기 위한 부분 분해 사시도이다. 그리고 도 4는 도 3의 스마트 안경의 배면 케이스의 구조를 확대하여 나타낸 사시도이다.1 is a perspective view of smart glasses according to an embodiment of the present invention. FIG. 2 is an exploded perspective view of the smart glasses of FIG. 1. 3 is a partially exploded perspective view for explaining the principle of operation of the smart glasses of FIG. 4 is an enlarged perspective view illustrating a structure of a rear case of the smart glasses of FIG. 3.

도 1 내지 도 4를 참조하면, 본 실시예에 따른 스마트 안경(100)은, 프레임 어셈블리(10), 전장부품, 디스플레이 시스템(30) 및 광학계(50)를 포함한다. 디스플레이 시스템(30)은 제1 디스플레이 장치(31)와 제2 디스플레이 장치(32)에 더하여 케이스 조립체(60)와 광학계(50)를 포함할 수 있다.1 to 4, the smart glasses 100 according to the present embodiment include a frame assembly 10, an electric component, a display system 30, and an optical system 50. The display system 30 may include a case assembly 60 and an optical system 50 in addition to the first display device 31 and the second display device 32.

디스플레이 장치들과 광학계(50) 및 케이스 조립체(60)는 직교 좌표계에서 서로 다른 3개의 축상으로 나열되는 형태로 서로 교차 배열될 수 있으며, 이러한 교차 배열 구조의 중심에는 미러(51)가 배치되며, 제1 디스플레이 장치(31)와 제2 디스플레이 장치(32)는 미러(51)를 사이에 두고 양측에 배치될 수 있다.The display apparatuses, the optical system 50 and the case assembly 60 may be arranged to cross each other in a form arranged on three different axes in the Cartesian coordinate system, and the mirror 51 is disposed at the center of the cross-array structure. The first display device 31 and the second display device 32 may be disposed at both sides with the mirror 51 interposed therebetween.

프레임 어셈블리(10)는 다수의 프레임들에 의해 안경 형태를 형성한다. 프레임 어셈블리는 상부 프레임(upper frame, 11), 하부 프레임(lower frame, 12), 바디 프레임(body frame, 13), 우측 커버 프레임(right cover frame, 14) 및 좌측 커버 프레임(left cover frame, 15)을 포함할 수 있다. 바디 프레임(13)에는 코패드(nose pad, 18)가 결합될 수 있다.The frame assembly 10 forms the spectacle shape by a plurality of frames. The frame assembly comprises an upper frame 11, a lower frame 12, a body frame 13, a right cover frame 14 and a left cover frame 15 ) May be included. A nose pad 18 may be coupled to the body frame 13.

하부 프레임(12)은 중앙 수납부에 메인 제어보드(21)를 수용한다. 중앙 수납부는 상부 프레임(11)에 의해 덮일 수 있다. 하부 프레임(12)은 중앙 수납부의 오른쪽에 연결되는 우측 측면 연장부 내의 제1 수납부에 제1 인쇄회로기판(23)과 제1 인쇄회로기판(23)에 연결되는 제1 배터리 팩(24)을 수납할 수 있다. 제1 수납부는 우측 커버 프레임(14)에 의해 덮일 수 있다. 우측 커버 프레임(14)에는 버튼식 파워버튼(22)이 설치되고, 파워버튼(22)은 제1 인쇄회로기판(23)에 연결될 수 있다. 제1 인쇄회로기판(23)은 제1 배터리 팩(24) 내의 배터리 관리 시스템과 메인 제어보드(21)의 제어장치(210)를 연결할 수 있다.The lower frame 12 accommodates the main control board 21 in the central accommodating portion. The central receiving portion may be covered by the upper frame 11. The lower frame 12 is a first battery pack 24 connected to the first printed circuit board 23 and the first printed circuit board 23 in the first accommodating portion in the right side extension part connected to the right side of the central accommodating portion. ) Can be stored. The first accommodating part may be covered by the right cover frame 14. The button cover power button 22 may be installed on the right cover frame 14, and the power button 22 may be connected to the first printed circuit board 23. The first printed circuit board 23 may connect the battery management system in the first battery pack 24 to the control device 210 of the main control board 21.

또한, 하부 프레임(12)은 중앙 수납부의 왼쪽에 연결되는 좌측 측면 연장부 내의 제2 수납부에 제2 인쇄회로기판(25)과 제2 인쇄회로기판(25)에 연결되는 제2 배터리 팩(26)을 수납할 수 있다. 제2 수납부는 좌측 커버 프레임(15)에 의해 덮일 수 있다. 제2 인쇄회로기판(25)은 제2 배터리 팩(26) 내의 배터리 관리 시스템과 메인 제어보드(21)의 제어장치(210)를 연결할 수 있다.In addition, the lower frame 12 may include a second battery pack connected to the second printed circuit board 25 and the second printed circuit board 25 in the second accommodating part in the left side extension part connected to the left side of the central accommodating part. (26) can be stored. The second housing part may be covered by the left cover frame 15. The second printed circuit board 25 may connect the battery management system in the second battery pack 26 and the control device 210 of the main control board 21.

바디 프레임(13)은 하부 프레임(12)의 하부에 결합한다. 바디 프레임(13)은 하부 프레임(12)과 케이스 시스템(60) 사이에서 이들의 결합을 지지하도록 설치된다. 또한, 바디 프레임(13)은 하부 프레임(12)의 하부에 결합하여 스마트 안경의 전체적인 내구성을 보완하고 증대시킨다.The body frame 13 is coupled to the bottom of the lower frame 12. The body frame 13 is installed to support their coupling between the lower frame 12 and the case system 60. In addition, the body frame 13 is coupled to the lower portion of the lower frame 12 to complement and increase the overall durability of the smart glasses.

전장부품은 프레임 어셈블리(10)에 탑재되거나 수납될 수 있다. 전장부품은 메인 제어보드(main control board, 21), 파워스위치(power switch, 22), 제1 제어보드(23), 제1 배터리 팩(24), 제2 제어보드(25) 및 제2 배터리 팩(26)을 포함할 수 있다. 제1 제어보드(23)은 제1 인쇄회로보드에 대응하고, 제2 제어보드(25)는 제2 인쇄회로기판에 대응할 수 있으며, 배터리 팩은 간략히 배터리로 지칭될 수 있다.The electrical component may be mounted on or contained in the frame assembly 10. The electrical components include a main control board 21, a power switch 22, a first control board 23, a first battery pack 24, a second control board 25 and a second battery. It may include a pack 26. The first control board 23 may correspond to the first printed circuit board, the second control board 25 may correspond to the second printed circuit board, and the battery pack may be simply referred to as a battery.

제1 디스플레이 장치(31) 및 제2 디스플레이 장치(32)는, 전장부품의 제어장치에 의해 제어되고, 프레임 어셈블리의 중앙 상부측 및 중앙 하부측에 각각 배치될 수 있다.The first display device 31 and the second display device 32 may be controlled by the control device of the electric component and may be disposed at the center upper side and the center lower side of the frame assembly, respectively.

본 실시예에서 제1 디스플레이 장치(31) 또는 제2 디스플레이 장치(32)는, LCD(liquid crystal display)를 포함한다. 이 경우, 제1 디스플레이 장치(31) 및 제2 디스플레이 장치(32)는 백라이트 유닛(backlight units, 33, 34)을 구비할 수 있다.In the present embodiment, the first display device 31 or the second display device 32 includes a liquid crystal display (LCD). In this case, the first display device 31 and the second display device 32 may include backlight units 33 and 34.

한편, 본 발명의 디스플레이 장치는 LCD로 한정되지 않으며, 반사형 마이크로 디스플레이(liquid crystal on silicon, LCoS), PDP(plasma dispaly panel), FED(field emission display), ELD(elelctro-luminescent display) 및 OLED(organic light emitting diode) 중 어느 하나로 대체되어 사용될 수 있다.On the other hand, the display device of the present invention is not limited to LCD, liquid crystal on silicon (LCoS), plasma dispaly panel (PDP), field emission display (FED), electro-luminescent display (ELD) and OLED (organic light emitting diode) can be used by replacing any one.

광학계(50)는 제1 디스플레이 장치(31)에서 출력되는 제1 영상과 제2 디스플레이 장치(32)에서 출력되는 제2 영상을 사용자의 양쪽 눈으로 전달하면서 영상 사이즈를 제어하여 제1 메인 렌즈(54)와 제2 메인 렌즈(57) 상에 각각 투사할 수 있다.The optical system 50 controls the image size while transferring the first image output from the first display apparatus 31 and the second image output from the second display apparatus 32 to both eyes of the user, thereby controlling the first main lens ( 54 and the second main lens 57, respectively.

광학계(50)는 미러(51), 제1 우렌즈(the first right lens, 52), 제2 우렌즈(the second right lens, 53), 제1 메인 렌즈(the first main lens, 54), 제1 좌렌즈(the first left lens, 55), 제2 좌렌즈(the second left lens, 56) 및 제2 메인 렌즈(the second main lens, 57)를 포함할 수 있다.The optical system 50 includes a mirror 51, a first right lens 52, a second right lens 53, a first main lens 54, and a first lens 51. The first left lens 55, the second left lens 56, and the second main lens 57 may be included.

미러(51)는 스마트 안경의 전면 중앙이나 광학계 중앙의 상부측에서 중앙의 하부측을 향하는 방향(제1 방향)으로 입력되는 제1 영상을 제1면에서 반사하여 제1 방향과 직교하는 제2 방향으로 전달한다. 또한, 미러(51)는 상기 중앙의 하부측에서 중앙의 상부측을 향하는 방향(제1 방향과 마주하는 제1 역방향)으로 입력되는 제2 영상을 제1면의 반대측인 제2면에서 반사하여 제1 역방향과 직교하고 제2 방향의 반대 방향인 제2 역방향으로 전달할 수 있다.The mirror 51 reflects a first image, which is input in a direction from the upper side of the front center of the smart glasses or the center of the optical system to the lower side of the center (first direction), on the first surface to be orthogonal to the first direction. Pass in the direction. In addition, the mirror 51 reflects a second image input in a direction from the lower side of the center toward the upper side of the center (the first reverse direction facing the first direction) on the second surface opposite to the first surface. The transmission may be performed in a second reverse direction that is perpendicular to the first reverse direction and opposite to the second direction.

제1 우렌즈(52)는 오목 렌즈 형태를 구비하고 미러(51)에서 전달되는 제1 영상을 통과시킬 수 있다. 제1 우렌즈(52)는 제1 영상을 1차로 통과시킬 수 있다. 제2 우렌즈(53)는 볼록 렌즈 형태를 구비하고 제1 우렌즈(52)를 통과한 제1 영상을 2차로 통과시킬 수 있다. 이러한 제1 우렌즈(52)와 제2 우렌즈(53)는 일단의 오목한 면을 통해 입사되는 빛은 타면의 볼목한 면을 통해 출사하는 단일 렌즈 형태를 형성할 수 있다.The first right lens 52 may have a concave lens shape and may pass a first image transmitted from the mirror 51. The first right lens 52 may primarily pass the first image. The second right lens 53 may have a convex lens shape and may secondly pass the first image passing through the first right lens 52. The first right lens 52 and the second right lens 53 may form a single lens shape in which light incident through one end of the concave surface exits through the convex surface of the other surface.

제1 메인 렌즈(54)는 제2 우렌즈(54)를 통과한 제1 영상을 반사시키면서 투과시킬 수 있다. 제1 메인 렌즈(54)는 프레임 어셈블리나 커버에 의해 지지되고 스마트 안경의 정면 일측에 배치될 수 있다. 제1 메인 렌즈(54)는 사용자의 오른쪽 눈 전방에 배열될 수 있다.The first main lens 54 may transmit while reflecting the first image passing through the second right lens 54. The first main lens 54 may be supported by the frame assembly or the cover and disposed on one front side of the smart glasses. The first main lens 54 may be arranged in front of the right eye of the user.

제1 좌렌즈(55)는 오목 렌즈 형태를 구비하고 미러(51)에서 전달되는 제2 영상을 통과시킬 수 있다. 제1 좌렌즈(55)는 제1 우렌즈(52)와는 반대 방향으로 제2 영상을 1차로 통과시킬 수 있다. 제2 좌렌즈(56)는 볼록 렌즈 형태를 구비하고 제1 좌렌즈(55)를 통과한 제2 영상을 2차로 통과시킬 수 있다. 이러한 제1 좌렌즈(55)와 제2 좌렌즈(56)는 일단의 오목한 면을 통해 입사되는 빛을 타면의 볼목한 면을 통해 출사하는 단일 렌즈 구조에 대응할 수 있으나, 이에 한정되지는 않는다.The first left lens 55 may have a concave lens shape and may pass a second image transmitted from the mirror 51. The first left lens 55 may primarily pass the second image in a direction opposite to the first right lens 52. The second left lens 56 may have a convex lens shape and may secondly pass the second image passing through the first left lens 55. The first left lens 55 and the second left lens 56 may correspond to a single lens structure in which light incident through one end of the concave surface exits through the convex surface of the other surface, but is not limited thereto.

제2 메인 렌즈(57)는 제2 좌렌즈(56)를 통과한 제2 영상을 반사시키면서 투과시킬 수 있다. 제2 메인 렌즈(57)는 프레임 어셈블리나 커버에 의해 지지되고 스마트 안경의 정면 일측에 배치될 수 있다. 제2 메인 렌즈(57)는 사용자의 왼쪽 눈 전방에 배열될 수 있다.The second main lens 57 may transmit while reflecting the second image passing through the second left lens 56. The second main lens 57 may be supported by the frame assembly or the cover and disposed at one front side of the smart glasses. The second main lens 57 may be arranged in front of the user's left eye.

전술한 디스플레이 장치들과 광학계(50)의 신뢰성 있는 구조를 형성하기 위해, 본 실시예에서는 광학계의 두 디스플레이 장치들을 광학계(50)의 구성요소들이 나열되는 제2 방향 (또는 수평 방향)과 직교하는 제1 방향 (또는 수직 방향)으로 배치한다. 두 디스플레이 장치들(31, 32)는 광학계(50)의 미러(51)를 중심에 두고 그 상측과 하측에 배치될 수 있다. 미러(51)는 또한 제2 방향으로 나열되는 광학계(50)의 구성요소들의 중앙에 위치하고 그에 의해 광학계(50)의 구성요소들이 서로 대향하는 두 방향으로 영상 신호를 전달하기 위한 배치를 갖추도록 한다.In order to form a reliable structure of the above-described display apparatuses and the optical system 50, in this embodiment, the two display apparatuses of the optical system are orthogonal to the second direction (or horizontal direction) in which the components of the optical system 50 are arranged. Arrange in the first direction (or vertical direction). The two display devices 31 and 32 may be disposed above and below the mirror 51 of the optical system 50. The mirror 51 is also located in the center of the components of the optical system 50 arranged in the second direction, thereby allowing the components of the optical system 50 to be arranged to transmit image signals in two opposite directions. .

이를 위해 본 실시예의 배면 케이스(62)는, 도 4에 도시한 바와 같이, 미러(51)가 안착되는 제1 안착홈(620), 제1 디스플레이 장치(31)를 안착하기 위한 제1 상부 안착홈(621)과 제2 디스플레이 장치(32)를 안착하기 위한 제1 하부 안착홈(622)을 구비한다. 제1 디스플레이 장치(31)가 LCD 패널인 경우, 제1 상부 안착홈(621) 상부에서 백라이트 유닛(33)을 수용하기 위한 제2 상부 안착홈(631)이 더 구비될 수 있다. 이와 유사하게 제1 하부 안착홈(622)의 하부에도 제2 디스플레이 장치(32)의 백라이트 유닛(34)을 수용하기 하기 위한 제2 하부 안착홈이 구비될 수 있다.To this end, the rear case 62 of the present embodiment, as shown in Figure 4, the first mounting groove 620 on which the mirror 51 is seated, the first upper seat for mounting the first display device 31 The first lower seating recess 622 for seating the groove 621 and the second display device 32 is provided. When the first display device 31 is an LCD panel, a second upper mounting groove 631 may be further provided to accommodate the backlight unit 33 on the first upper mounting groove 621. Similarly, a second lower seating recess for accommodating the backlight unit 34 of the second display device 32 may be provided under the first lower seating recess 622.

또한, 배면 케이스(62)는, 도 4에 나타낸 바와 같이, 제1 우렌즈(52)와 제2 우렌즈(53)를 안착하기 위한 제2 안착홈(625), 제1 메인 렌즈(54)를 수용하고 지지하기 위한 제3 안착홈(626)을 구비할 수 있다. 이와 유사하게, 배면 케이스(62)는 제1 좌렌즈(55)와 제2 좌렌즈(56)를 안착하기 위한 제4 안착홈(627), 제2 메인 렌즈(57)를 수용하고 지지하기 위한 제5 안착홈(628)을 구비할 수 있다. 제1 메인 렌즈(54)와 제2 메인 렌즈(57)는 전면 케이스(61)와 배면 케이스(62)에 의해 1차적으로 지지되고, 전면 케이스(61)의 외측을 둘러싸는 전면 커버(63)와, 배면 케이스(62)의 외측을 둘러싸는 배면 커버(64)의 결합에 의해 견고하게 지지될 수 있다.In addition, as shown in FIG. 4, the rear case 62 includes a second mounting groove 625 and a first main lens 54 for seating the first right lens 52 and the second right lens 53. It may be provided with a third seating groove 626 for receiving and supporting the. Similarly, the rear case 62 accommodates and supports the fourth seating groove 627 and the second main lens 57 for mounting the first left lens 55 and the second left lens 56. The fifth mounting recess 628 may be provided. The first main lens 54 and the second main lens 57 are primarily supported by the front case 61 and the rear case 62, and the front cover 63 surrounding the outside of the front case 61. And it can be firmly supported by the combination of the back cover 64 surrounding the outside of the back case 62.

또한, 배면 케이스(62)는 바디 프레임(13)과의 체결을 위한 체결부(629)를 구비할 수 있다. 체결부(629)는 나사홀을 구비할 수 있다.In addition, the rear case 62 may include a fastening part 629 for fastening with the body frame 13. The fastening part 629 may have a screw hole.

전면 커버(63)는 제1 외부 케이스로 지칭될 수 있고, 그 경우 전면 케이스(61)는 제1 내부 케이스로 지칭될 수 있다. 이와 유사하게, 배면 커버(64)는 제2 외부 케이스로 지칭될 수 있고, 그 경우 배면 케이스(63)는 제2 내부 케이스로 지칭될 수 있다.The front cover 63 may be referred to as a first outer case, in which case the front case 61 may be referred to as a first inner case. Similarly, back cover 64 may be referred to as a second outer case, in which case back case 63 may be referred to as a second inner case.

본 실시예에서 광학계는 제1 영상과 제2 영상을 사용자 얼굴의 측면에서 제공하는 것이 아니라 사용자 얼굴의 이마측과 코측에서 미간측으로 1차로 전달하고, 제1 영상과 제2 영상을 미간측에서 눈 앞쪽으로 전달하면서 오목렌즈와 볼록렌즈를 통해 영상 사이즈 조절 및 포커싱을 수행하고, 사용자 시각을 기준으로 눈 전방의 제1 메인 렌즈(54)와 제2 메인 렌즈(57) 상에서 사용자의 눈에 보이는 제1 영상 및 제2 영상을 표시할 수 있다.In the present embodiment, the optical system does not provide the first image and the second image from the side of the user's face, but primarily transmits the first image and the second image from the forehead side and the nose side of the user's face to the glacial side. Image size adjustment and focusing are performed through the concave lens and the convex lens while forwarding, and the user's eye is visible on the first main lens 54 and the second main lens 57 in front of the eye based on the user's vision. The first image and the second image can be displayed.

본 실시예에 따른 스마트 안경(100)은 사용자에게 실질적인 불편함을 주지 않고 3차원 프로그램을 구현할 수 있다. 즉, 본 실시예에 의하면, 단순화된 구조를 가진 스마트 안경을 사용하여 제스처 인식, 3D 구현, 가상 현실 영상 재생, 증강 현실 서비스 등을 제공할 수 있다. 특히, 스마트 안경을 이용하여 3차원 콘텐츠를 이용하는 중에 어지러움이나 매스꺼움 등 기존 헤드마운트 디스플레이 사용자가 많이 느끼는 사용상의 문제점을 해결하여 사용자가 사용하기 편리하면서 장치의 구조가 단순하여 제조비용을 절감할 수 있는 장점이 있다.The smart glasses 100 according to the present embodiment may implement a three-dimensional program without causing any inconvenience to the user. That is, according to the present exemplary embodiment, gesture recognition, 3D implementation, virtual reality image reproduction, augmented reality service, etc. may be provided using smart glasses having a simplified structure. In particular, while using 3D content using smart glasses, users can easily reduce the manufacturing costs by solving the problems of user's existing head-mount display such as dizziness or nausea, which is convenient for users and the structure of the device is simple. There is an advantage.

전술한 본 실시예에 따른 스마튼 안경에서 제공하는 서비스 중 제스처 인식, 3D 구현, 가상 현실 영상 재생, 증강 현실 서비스를 위한 기본적인 신호 처리 기술은 본 기술분야에 이미 잘 알려져 있으므로 그에 대한 상세 설명은 생략한다.Basic signal processing techniques for gesture recognition, 3D implementation, virtual reality video playback, and augmented reality service among the services provided by the smart glasses according to the present embodiment are well known in the art, and thus detailed description thereof is omitted. do.

도 5는 본 발명의 다른 실시예에 따른 스마트 안경에 채용할 수 있는 메인 제어보드의 주요 구성을 설명하기 위한 블록도이다.5 is a block diagram illustrating a main configuration of a main control board that can be employed in smart glasses according to another embodiment of the present invention.

도 5를 참조하면, 본 실시예에 따른 메인 제어보드(21)는 제어장치(210)는 통신부(211), 프로세서(212) 및 메모리(213)를 포함할 수 있다. 제어장치(2120)는 컨트롤러 또는 컴퓨팅 장치를 포함할 수 있다. 프로세서(212)는 제어부로 지칭될 수 있다.Referring to FIG. 5, in the main control board 21 according to the present embodiment, the control device 210 may include a communication unit 211, a processor 212, and a memory 213. Control device 2120 may include a controller or a computing device. The processor 212 may be referred to as a controller.

통신부(211)는 제어장치(210)를 네트워크에 연결한다. 통신부(211)는 네트워크를 통해 인터넷이나 네트워크 상의 다양한 서버에 접속할 수 있으며, 다양한 서버와 상호 협력하거나 연동하여 동작할 수 있다. 서버는 가상 현실을 지원하는 서버, 증강 현실을 지원하는 서버 등을 포함할 수 있다.The communication unit 211 connects the control device 210 to the network. The communication unit 211 may access various servers on the Internet or a network through a network, and may operate in cooperation with or cooperate with various servers. The server may include a server supporting virtual reality, a server supporting augmented reality, and the like.

통신부(211)는 하나 이상의 통신 프로토콜을 지원하는 하나 이상의 유선 및/또는 무선 통신 서브시스템을 포함할 수 있다. 유선 통신 서브시스템은 PSTN(public switched telephone network), ADSL(Asymmetric Digital SubscriberLine) 또는 VDSL(Very high-data rate Digital SubscriberLine) 네트워크, PES(PSTN Emulation Service)를 위한 서브시스템, IP(internet protocol) 멀티미디어 서브시스템(IMS) 등을 포함할 수 있다. 무선 통신 서브시스템은 무선 주파수(radio frequency, RF) 수신기, RF 송신기, RF 송수신기, 광(예컨대, 적외선) 수신기, 광 송신기, 광 송수신기 또는 이들의 조합을 포함할 수 있다.The communication unit 211 may include one or more wired and / or wireless communication subsystems that support one or more communication protocols. Wired communication subsystems include public switched telephone networks (PSTN), asymmetric digital subscriber line (ADSL) or very high-data rate digital subscriber line (VDSL) networks, subsystems for PSTN Emulation Service (PES), and internet protocol (IP) multimedia subsystems. System (IMS) and the like. The wireless communication subsystem may include a radio frequency (RF) receiver, an RF transmitter, an RF transceiver, an optical (eg, infrared) receiver, an optical transmitter, an optical transceiver, or a combination thereof.

무선 네트워크는 기본적으로 Wi-Fi를 지칭하나, 이에 한정되지 않는다. 본 실시예에서 통신부(211)는 다양한 무선 네트워크 예를 들어, GSM(Global System for Mobile Communication), EDGE(Enhanced Data GSM Environment), CDMA(Code Division MultipleAccess), W-CDMA(W-Code Division MultipleAccess), LTE(Long Term Evolution), LET-A(LET-Advanced), OFDMA(Orthogonal Frequency Division Multiple Access), WiMax, Wi-Fi(Wireless Fidelity), Bluetooth 등에서 선택되는 적어도 하나 이상을 지원하도록 구현될 수 있다.A wireless network basically refers to Wi-Fi, but is not limited thereto. In the present embodiment, the communication unit 211 is used in various wireless networks, for example, Global System for Mobile Communication (GSM), Enhanced Data GSM Environment (EDGE), Code Division Multiple Access (CDMA), and W-Code Division Multiple Access (W-CDMA). It may be implemented to support at least one selected from Long Term Evolution (LTE), LET-A (LET-Advanced), Orthogonal Frequency Division Multiple Access (OFDMA), WiMax, Wireless Fidelity (Wi-Fi), Bluetooth, and the like. .

프로세서(212)는 내장 메모리 혹은 메모리(213)에 저장되는 소프트웨어 모듈이나 프로그램을 수행하여 스마트 안경을 통해 다양한 서비스를 제공할 수 있다. 프로세서(212)는 마이크로프로세서로 지칭될 수 있다.The processor 212 may provide various services through smart glasses by executing a software module or program stored in the internal memory or the memory 213. Processor 212 may be referred to as a microprocessor.

프로세서(212)는 적어도 하나 이상의 중앙 처리 장치(CPU) 또는 코어를 포함하는 프로세서나 마이크로프로세서로 구현될 수 있다. 중앙처리장치 또는 코어는 처리할 명령어를 저장하는 레지스터(register)와, 비교, 판단, 연산을 담당하는 산술논리연산장치(arithmetic logical unit, ALU)와, 명령어의 해석과 실행을 위해 CPU를 내부적으로 제어하는 제어유닛(control unit)과, 이들을 연결하는 내부 버스 등을 구비할 수 있다. 중앙처리장치 혹은 코어는 MCU(micro control unit)와 주변 장치(외부 확장 장치를 위한 집적회로)가 함께 배치되는 SOC(system on chip)로 구현될 수 있으나, 이에 한정되지는 않는다.The processor 212 may be implemented as a processor or microprocessor including at least one central processing unit (CPU) or core. The central processing unit or core is a register that stores the instructions to be processed, an arithmetic logical unit (ALU) that is responsible for comparison, determination, and operation, and the CPU internally to interpret and execute the instructions. It may be provided with a control unit (control unit) for controlling, and an internal bus connecting them. The CPU or core may be implemented as a system on chip (SOC) in which a micro control unit (MCU) and a peripheral device (an integrated circuit for an external expansion device) are arranged together, but is not limited thereto.

또한, 프로세서(212)는 하나 이상의 데이터 프로세서, 이미지 프로세서 또는 코덱(CODEC)을 포함할 수 있으나, 이에 한정되지는 않는다. 제어부(212)는 주변장치 인터페이스와 메모리 인터페이스를 구비할 수 있다. 주변장치 인터페이스는 프로세서(212)와 출력장치 등의 입출력 시스템이나 다른 주변 장치를 연결하고, 메모리 인터페이스는 프로세서(212)와 메모리(213)를 연결할 수 있다.In addition, the processor 212 may include, but is not limited to, one or more data processors, an image processor, or a codec. The controller 212 may include a peripheral device interface and a memory interface. The peripheral interface may connect an input / output system such as the processor 212 and an output device or another peripheral device, and the memory interface may connect the processor 212 and the memory 213.

본 실시예에서 프로세서(212)는 영상 디스플레이에 의해 상대적으로 많은 전력을 소모하는 동작 조건하에서도 배터리의 1회 충전에 상대적으로 긴 작동 시간을 확보하기 위해 제1 배터리 팩(24) 및 제2 배터리 팩(26)을 제어한다. 이를 위해 프로세서(212)는 각 배터리 팩의 배터리 관리 시스템(BMS, 240)과 연결되고 통신할 수 있다. 또한, 프로세서(212)는 디스플레이 시스템(30)의 두 디스플레이 장치들의 적어도 하나 또는 둘 모두의 제어장치나 타이밍 제어기 등에 접속할 수 있고, 이를 통해 디스플레이 장치의 동작을 제어할 수 있다.In this embodiment, the processor 212 uses the first battery pack 24 and the second battery to secure a relatively long operating time for one-time charging of the battery even under operating conditions that consume a relatively large amount of power by the image display. The pack 26 is controlled. To this end, the processor 212 may be connected to and communicate with a battery management system (BMS) 240 of each battery pack. In addition, the processor 212 may be connected to a control device or a timing controller of at least one or both display devices of the display system 30, thereby controlling the operation of the display device.

메모리(213)는 스마트 안경을 통한 사물 인식, 제스처 인식, 가상 현실, 증강 현실 등의 서비스를 제공하기 위한 소프트웨어 모듈을 저장할 수 있다. 예를 들어, 소프트웨어 모듈은, 제어처 인식을 위한 제1 모듈(215); 3차원 영상 제공이나 3차원 제어를 위한 제2 모듈(216); 가상 현실의 디스플레이 영상 서비스를 제공하기 위한 제3 모듈(217); 현재 보이는 실제 세계의 영상에 가상체를 부가하는 증강 현실의 디스플레이 영상 서비스를 제공하기 위한 제4 모듈(218) 등을 포함할 수 있다. 이러한 모듈은 프로세서(212)에 의해 수행되어 프로세서(212) 내에서 특정 기능이나 동작을 수행하는 적어도 하나의 태스크 프로세서로서 구현될 수 있다.The memory 213 may store a software module for providing services such as object recognition, gesture recognition, virtual reality, and augmented reality through smart glasses. For example, the software module may include a first module 215 for controlling destination recognition; A second module 216 for providing 3D image or 3D control; A third module 217 for providing a display image service of virtual reality; And a fourth module 218 for providing a display image service of augmented reality for adding a virtual object to an image of the real world currently viewed. Such a module may be implemented as at least one task processor that is performed by the processor 212 to perform certain functions or operations within the processor 212.

전술한 메모리(213)는 비휘발성 랜덤 액세스 메모리(non-volatile RAM, NVRAM), 대표적 휘발성 메모리인 DRAM(dynamic random access memory) 등의 반도체 메모리, 하드디스크 드라이브(hard disk drive, HDD), 광 저장 장치, 플래시 메모리 등으로 구현될 수 있다. 그리고 메모리(56)는 인쇄물 제작 서비스 방법을 구현하기 위한 소프트웨어 모듈들 외에 운영체제, 프로그램, 명령어 집합 등을 저장할 수 있다.The above-described memory 213 is a non-volatile random access memory (NVRAM), a semiconductor memory such as dynamic random access memory (DRAM), which is a typical volatile memory, a hard disk drive (HDD), optical storage It may be implemented as a device, a flash memory, or the like. The memory 56 may store an operating system, a program, a command set, etc. in addition to software modules for implementing a print production service method.

한편, 전술한 실시예에 있어서, 스마트 안경 장치의 구성요소들은 비휘발성 메모리(NVRAM) 기반의 다양한 컴퓨팅 장치에 탑재되는 기능 블록 또는 모듈로 구현될 수 있다. 예컨대, 도 5의 프로세서의 메모리에 저장되는 소프트웨어 모듈은 이들이 수행하는 일련의 기능을 구현하기 위한 소프트웨어 형태로 컴퓨터 판독 가능 매체(기록매체)에 저장되거나 혹은 캐리어 형태로 원격지의 서버 장치 내 저장장치에 저장되고 서버 장치와 네트워크를 통해 연결되는 특정 컴퓨팅 장치에서 동작하도록 구현될 수 있다. 여기서 컴퓨터 판독 가능 매체는 네트워크를 통해 연결되는 복수의 컴퓨터 장치나 클라우드 시스템의 메모리나 저장 장치를 포함할 수 있고, 복수의 컴퓨터 장치나 클라우드 시스템 중 적어도 하나 이상은 본 실시예의 스마트 안경에서 다양한 서비스를 구현하기 위한 프로그램이나 소스 코드를 저장할 수 있다.Meanwhile, in the above-described embodiment, components of the smart glasses device may be implemented as functional blocks or modules mounted in various computing devices based on nonvolatile memory (NVRAM). For example, software modules stored in the memory of the processor of FIG. 5 may be stored in a computer-readable medium (recording medium) in the form of software for implementing a series of functions they perform or in a storage device in a remote server device in the form of a carrier. It may be implemented to operate on a particular computing device that is stored and connected via a network with the server device. The computer-readable medium may include a memory or a storage device of a plurality of computer devices or cloud systems connected through a network, and at least one of the plurality of computer devices or cloud systems may provide various services in the smart glasses of the present embodiment. You can store the program or source code for implementation.

또한, 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하는 형태로 구현될 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것을 포함할 수 있다.In addition, the computer readable medium may be embodied in the form of a single or combination of program instructions, data files, data structures, and the like. The programs recorded on the computer readable medium may be those specially designed and configured for the present invention, or may include those known and available to those skilled in computer software.

또한, 컴퓨터 판독 가능 매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 여기서 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 하드웨어 장치는 본 실시예의 스마트 안경을 통해 제공가능한 모든 서비스의 구현을 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the computer readable medium may include a hardware device specifically configured to store and execute program instructions, such as a ROM, a RAM, a flash memory, and the like. The program instructions may include high-level language code that can be executed by a computer using an interpreter as well as machine code such as produced by a compiler. The hardware device may be configured to operate with at least one software module for the implementation of all services that can be provided through the smart glasses of the present embodiment, and vice versa.

한편, 본 실시예의 제어장치(210)는 설명의 편의상 제어부, 메모리 및 통신부를 단일 기판이나 단일 하우징에 포함하는 컨트롤러로 구현될 수 있으나, 이에 한정되지 않고, 제어부와 메모리를 포함하거나 제어부만을 포함하는 형태로 구현될 수 있다.Meanwhile, the control device 210 of the present embodiment may be implemented as a controller including a controller, a memory, and a communication unit in a single substrate or a single housing for convenience of description, but the present invention is not limited thereto. It may be implemented in the form.

도 6은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다.6 is a perspective view of smart glasses according to another embodiment of the present invention.

도 6을 참조하면, 본 실시예에 따른 스마트 안경(100a)은 안경 프레임 형태의 프레임 어셈블리(10); 및 사용자가 스마트 안경을 착용할 때 사용자의 얼굴 전면 중앙부에서 영상을 출력하는 디스플레이와, 디스플레이의 영상을 반사, 확대, 부분 반사 및 부분 투과시키는 광학계를 일체로 지지하는 케이스 조립체(60)를 포함한다.Referring to FIG. 6, the smart glasses 100a according to the present embodiment include a frame assembly 10 in the form of a glasses frame; And a case assembly 60 integrally supporting a display for outputting an image at the front center of the face of the user when the user wears smart glasses and an optical system that reflects, enlarges, partially reflects, and partially transmits the image of the display. .

본 실시예에 있어서, 참조번호 50a로 표시된 제1 메인렌즈(도 2의 54 참조)와 제2 메인렌즈(도 2의 57 참조)는 앞서 설명한 실시예와 달리 판상의 반사 및 투과 부재로 이루어지며, 제1 메인렌즈와 제2 메인렌즈 각각의 중심축과 일정 각도 범위에서 경사지게 배치된다. 제1 메인렌즈와 제2 메인렌즈는 수 밀리미터 이하의 두께를 가지는 판상 부재 형태의 빔 스플리터일 수 있다.In the present embodiment, the first main lens (see 54 of FIG. 2) and the second main lens (see 57 of FIG. 2) indicated by the reference numeral 50a are made of plate-shaped reflective and transmissive members, unlike the above-described embodiment. The first main lens and the second main lens are inclined at a predetermined angle with the central axis. The first main lens and the second main lens may be beam splitters in the form of plate members having a thickness of several millimeters or less.

제1 메인렌즈와 제2 메인렌즈는 영상을 부분 반사 및 부분 투과시켜 스마트 안경을 착용한 사용자가 허상면에 맺히는 영상을 보게 함으로써 실질적으로 스마트 안경을 통해 상대적으로 큰 영상을 볼 수 있도록 한다.The first main lens and the second main lens partially reflect and partially transmit the image so that the user wearing the smart glasses can see the image formed on the virtual image so that the user can see a relatively large image through the smart glasses.

도 7은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다. 도 8은 도 7의 스마트 안경에 대한 정면도이다. 도 9는 도 8의 스마트 안경의 내부 구조를 설명하기 위한 부분 투영 정면도이다. 도 10은 도 7의 스마트 안경에 대한 우측면도이다. 도 11은 도 10의 스마트 안경의 내부 구조를 보여주는 부분 투영 우측면도이다. 그리고 도 12는 도 7의 스마트 안경의 구성요소를 설명하기 위한 부분 분해사시도이다.7 is a perspective view of smart glasses according to another embodiment of the present invention. FIG. 8 is a front view of the smart glasses of FIG. 7. FIG. 9 is a partial projection front view for describing an internal structure of the smart glasses of FIG. 8. FIG. 10 is a right side view of the smart glasses of FIG. 7. FIG. 11 is a partially projected right side view showing the internal structure of the smart glasses of FIG. 10. 12 is a partial exploded perspective view for explaining the components of the smart glasses of FIG.

본 실시예에서는 설명의 편의상 앞서 설명한 실시예들의 스마트 안경(100 또는 100a)과 동일한 참조번호 100으로 표시하기로 한다.In the present embodiment, for convenience of description, the same reference numeral 100 as that of the smart glasses 100 or 100a of the above-described embodiments will be indicated.

본 실시예에 따른 스마트 안경(100)은, 메인 프레임(110), 제1 디스플레이(131), 제2 디스플레이(132), 제1 미러(133), 제2 미러(134), 제1 메인렌즈(137) 및 제2 메인렌즈(138)를 포함한다. 또한, 스마트 안경(100)은 제1 보조렌즈(135) 및 제2 보조렌즈(136)를 더 구비할 수 있다.The smart glasses 100 according to the present embodiment may include a main frame 110, a first display 131, a second display 132, a first mirror 133, a second mirror 134, and a first main lens. 137 and a second main lens 138. In addition, the smart glasses 100 may further include a first auxiliary lens 135 and a second auxiliary lens 136.

또한, 스마트 안경(100)은 프로세서를 포함한 컨트롤러(도 15의 210 참조)와, 제1 및 제2 디스플레이(131, 132)를 위한 디스플레이 인터페이스(display interface, 160)와 이들 사이를 연결하는 연성인쇄회로기판(flexible printed circit board, FPCB, 164)을 구비할 수 있다. 컨트롤러는 제어 및 전원 장치로서 지칭될 수 있고, 내장되거나 별도의 통신 및 전원 보드를 구비할 수 있다. 통신 및 전원 보드는 커넥터나 통신 또는 전원을 중계하거나 상호 연결하는 수단이나 구성부를 포함할 수 있다.In addition, the smart glasses 100 may include a controller including a processor (see 210 of FIG. 15), a display interface 160 for the first and second displays 131 and 132, and a flexible printing connection therebetween. A flexible printed circuit board (FPCB) 164 may be provided. The controller may be referred to as a control and power supply, and may be embedded or have separate communication and power boards. The communications and power boards may include connectors or means or components for relaying or interconnecting communications or power sources.

또한, 스마트 안경(100)은 하나 이상의 전면 카메라(151)와 하나 이상의 후면 카메라(153)를 구비할 수 있다. 전면 카메라(151)가 서로 일정 간격 이격되는 제1 전면 카메라와 제2 전면 카메라를 포함하는 경우, 3D 코텐츠에 대한 입력이나 적용을 용이하게 할 수 있다. 전면 또는 후면 카메라는 센서의 일종이거나 센서로서 기능할 수 있다. 특히, 후면 카메라(153)나 센서는 사용자의 눈꺼풀 동작을 감지하는 수단이나 이러한 수단에 상응하는 기능을 수행하는 장치일 수 있다.In addition, the smart glasses 100 may include one or more front cameras 151 and one or more rear cameras 153. When the front camera 151 includes a first front camera and a second front camera spaced apart from each other by a predetermined distance, the input or application of the 3D content may be facilitated. The front or rear camera may be a kind of sensor or function as a sensor. In particular, the rear camera 153 or the sensor may be a means for detecting a user's eyelid movement or a device that performs a function corresponding to the means.

또한, 스마트 안경(100)은, 카메라나 센서 혹은 제어 및 전원 장치로부터의 신호에 따라 진동 동작하는 액추에이터나 구동기(194)를 더 구비하거나 혹은 상기 신호에 응하여 음향 신호를 출력하는 스피커를 더 구비할 수 있다. 구동기(194)는 진동 모터를 포함할 수 있다.In addition, the smart glasses 100 may further include an actuator or driver 194 vibrating according to a signal from a camera, a sensor, or a control and power supply device, or a speaker for outputting an acoustic signal in response to the signal. Can be. Driver 194 may include a vibration motor.

또한, 스마트 안경(100)은 제1 디스플레이(131), 제2 디스플레이(132), 디스플레이 인터페이스(160) 등에서 발생하는 열을 방출하는 방열구조 또는 히트싱크를 더 구비할 수 있다. 제1 디스플레이(131) 및 제2 디스플레이(132) 중 적어도 하나는 디스플레이부로 지칭될 수 있다. 디스플레이는 디스플레이 장치를 간략히 지칭하는 것이며, 디스플레이가 액정표시장치인 경우, 디스플레이는 백라이트 유닛을 포함할 수 있다. In addition, the smart glasses 100 may further include a heat dissipation structure or a heat sink for dissipating heat generated from the first display 131, the second display 132, the display interface 160, and the like. At least one of the first display 131 and the second display 132 may be referred to as a display unit. The display refers to a display device briefly. When the display is a liquid crystal display, the display may include a backlight unit.

각 구성요소를 좀더 구체적으로 설명하면, 메인 프레임(110)은 대략 U-자 모양을 구비한 단단한 재질로 형성하고 안경테 모양이나 안경테의 뼈대 모양을 가진다. 메인 프레임(110)은 단일 구조물로 형성될 수 있으며, 그 경우 메인 프레임(110)은 중앙 프레임 부분(110c)과 그 양단에 결합하여 안경테 형태를 형성하는 좌측 프레임 부분(110a) 및 우측 프레임 부분(110b)을 구비할 수 있다. 좌측 및 우측은 사용자 입장에서 반대측일 수 있다.To describe each component in more detail, the main frame 110 is formed of a rigid material having an approximately U-shape and has a frame shape or a frame shape of the frame. The main frame 110 may be formed of a single structure, in which case the main frame 110 may be coupled to the center frame portion 110c and both ends thereof to form a frame shape of the left frame portion 110a and the right frame portion ( 110b). The left and right sides may be opposite to the user.

한편, 본 실시예에 메인 프레임(110)은 제조의 용이성과 경량화를 위해 중간부에 배치되는 지지 프레임과 지지 프레임의 좌측에 결합하는 제1 측면 프레임 및 우측에 결합하는 제2 측면 프레임의 결합 구조를 구비할 수 있다. 이 경우, 지지 프레임은 디스플레이, 미러, 보조렌즈 및 메인렌즈의 지지와 배치 그리고 조립을 용이하게 하기 위하여 제1 지지 프레임(120a) 및 제2 지지 프레임(120b)로 착탈가능하게 형성될 수 있다.On the other hand, the main frame 110 in the present embodiment is a coupling structure of the support frame disposed in the middle portion and the first side frame coupled to the left side of the support frame and the second side frame coupled to the right side for ease of manufacture and light weight It may be provided. In this case, the support frame may be detachably formed of the first support frame 120a and the second support frame 120b to facilitate the support, arrangement, and assembly of the display, the mirror, the auxiliary lens, and the main lens.

여기서, 설명의 편의상 좌측 프레임 부분 및 제1 측면 프레임을 단일 참조부호 110a로 표현하고, 우측 프레임 부분 및 제2 측면 프레임을 단일 참조부호 110b로 표현하기로 한다. 지지 프레임(120)은 제1 지지 프레임(120a) 및 제2 지지 프레임(120b)이 결합된 형태를 지칭할 수 있다.For convenience of description, the left frame portion and the first side frame are represented by a single reference numeral 110a, and the right frame portion and the second side frame are represented by a single reference numeral 110b. The support frame 120 may refer to a form in which the first support frame 120a and the second support frame 120b are combined.

지지 프레임(120)의 중앙부에는 디스플레이 인터페이스(160)가 삽입되고 중앙 상부측에 배치되는 연성인쇄회로기판(flexible printed circuit board, FPCB, 164)의 터미널을 통해 컨트롤러와 전기적으로 연결될 수 있다. 그리고 디스플레이 인터페이스(160)는 제1 디스플레이(131) 및 제2 디스플레이(132)에 연결된다.The display interface 160 may be inserted into a central portion of the support frame 120 and may be electrically connected to the controller through a terminal of a flexible printed circuit board (FPCB) 164 disposed on the upper side of the center. The display interface 160 is connected to the first display 131 and the second display 132.

FPCB(164)는 중앙 전면부의 터미널에서 메인 프레임(110) 또는 지지 프레임(120)의 상부면을 따라 제1 측면 프레임(110a)과 제2 측면 프레임(110b)까지 연장 설치될 수 있다.The FPCB 164 may be installed to extend from the terminal at the center front portion to the first side frame 110a and the second side frame 110b along the upper surface of the main frame 110 or the support frame 120.

지지 프레임(120)의 박스 형태의 중앙부의 양측면에는 제1 디스플레이(131)와 제2 디스플레이(132)가 배치되어 서로 반대방향으로 제1 영상 및 제2 영상을 출력한다. 제1 디스플레이(131) 또는 제2 디스플레이(132)는 박막트랜지스터 액정 디스플레이(thin film transtor liquid crystal display, TFT LCD), 유기발광다이오드(organic light emitting diode, OLED), LCoS(liquid crystal on silicon), 디지털 광원 처리(digital light processing, DLP) 기반 디스플레이에서 선택되는 적어도 어느 하나를 포함할 수 있다.The first display 131 and the second display 132 are disposed on both sides of the box-shaped central portion of the support frame 120 to output the first image and the second image in opposite directions. The first display 131 or the second display 132 may be a thin film transistor liquid crystal display (TFT LCD), an organic light emitting diode (OLED), liquid crystal on silicon (LCoS), It may include at least one selected from a digital light processing (DLP) based display.

제1 디스플레이(131)의 전면에는 지지 프레임(120)의 좌측 경사면 지지구조부분에 의해 지지되는 제1 미러(133)가 설치되고 제1 디스플레이(131)의 제1 영상을 좌측 방향과 대략 직교하는 제1 하측 방향으로 반사할 수 있다. 이와 유사하게, 제2 디스플레이(132)의 전면에는 지지 프레임(120)의 우측 경사면 지지구조부분에 의해 지지되는 제2 미러(134)가 설치되고 제2 디스플레이(132)의 제2 영상을 우측 방향과 대략 직교하는 제2 하측 방향으로 반사할 수 있다. 제2 하측 방향은 대략 사용자의 두 눈들 사이의 간격 정도의 거리를 두고 서로 평행한 방향일 수 있다.The first mirror 133, which is supported by the left inclined support structure portion of the support frame 120, is installed on the front surface of the first display 131 to substantially orthogonally cross the first image of the first display 131 with the left direction. It may reflect in the first downward direction. Similarly, a second mirror 134 supported by the right inclined support structure portion of the support frame 120 is installed on the front surface of the second display 132, and the second image of the second display 132 is directed to the right. It can reflect in the 2nd lower direction substantially orthogonal to. The second lower direction may be a direction parallel to each other at a distance approximately equal to a distance between two eyes of the user.

제1 미러(133)에서 반사되는 제1 영상은 제1 보조렌즈(135)에서 확대된다. 제1 보조렌즈(135)는 지지 프레임(120)의 요철구조 형태의 지지구조에 삽입되어 지지될 수 있다. 제1 보조렌즈(135)는 제1 영상을 확대하여 제1 메인렌즈(137)에 전달한다.The first image reflected by the first mirror 133 is enlarged by the first auxiliary lens 135. The first auxiliary lens 135 may be inserted into and supported in the support structure having the uneven structure of the support frame 120. The first auxiliary lens 135 enlarges and transmits the first image to the first main lens 137.

이와 유사하게, 제2 미러(134)에서 반사되는 제2 영상은 제2 보조렌즈(136)에서 확대된다. 제2 보조렌즈(136)는 지지 프레임(120)의 요철구조 형태의 지지구조에 삽입되어 지지될 수 있다. 제2 보조렌즈(136)는 제2 영상을 확대하여 제2 메인렌즈(138)에 전달한다.Similarly, the second image reflected by the second mirror 134 is magnified by the second auxiliary lens 136. The second auxiliary lens 136 may be inserted into and supported in the support structure having the uneven structure of the support frame 120. The second auxiliary lens 136 enlarges the second image and transfers the second image to the second main lens 138.

제1 보조렌즈(135) 또는 제2 보조렌즈(136)는, 영상이 입력단 측에서 볼 때를 기준으로, 일면 볼록 렌즈(타면 오목 렌즈), 양면 볼록 렌즈 및 일면 볼록면 렌즈의 적층 구조나 중첩 배열을 구비할 수 있다. 전술한 제1 및 제2 보조렌즈들(135, 136)은 제1 영상과 제2 영상을 원하는 크기로 확대하고 구면 수차를 제거하기 위한 것으로, 구현에 따라 다양한 변형이 가능하다.The first auxiliary lens 135 or the second auxiliary lens 136 has a stacked structure or superposition of one side convex lens (the other side concave lens), two-sided convex lens and one side convex lens based on when the image is viewed from the input end side. It can have an arrangement. The first and second auxiliary lenses 135 and 136 described above are used to enlarge the first image and the second image to a desired size and to remove spherical aberration.

제1 메인렌즈(137)는 제1 보조렌즈(135)의 하부에 배치된다. 제1 메인렌즈(137)는 도 1에 참조번호 50으로 표시되거나 도 6에 참조부호 50a로 표시된 제1 메인렌즈 또는 제2 메인렌즈에 대응될 수 있다.The first main lens 137 is disposed under the first auxiliary lens 135. The first main lens 137 may correspond to the first main lens or the second main lens indicated by reference numeral 50 in FIG. 1 or indicated by reference numeral 50a in FIG. 6.

제1 메인렌즈(137)은 상대적으로 얇은 판상의 렌즈 부재를 제1 보조렌즈(135)의 중심축과 경사지게 설치한 배치 구조를 구비할 수 있다. 제1 메인렌즈(137)는 제1 보조렌즈(135)의 하부측에서 지지 프레임(120)이나 중앙 프레임 부분(110c, 이하 간략히 중앙 프레임)의 하부에 결합될 수 있다. 제1 메인렌즈(137)는 빔 스플리터(beam splitter)로서 제1 영상 또는 제1 보조렌즈(135)를 통과한 제1 영상을 사용자의 눈을 향해 대략 직각으로 반사할 수 있다.The first main lens 137 may have an arrangement structure in which a relatively thin plate-like lens member is inclined with the central axis of the first auxiliary lens 135. The first main lens 137 may be coupled to a lower portion of the support frame 120 or the center frame portion 110c (hereinafter, simply a center frame) on the lower side of the first auxiliary lens 135. The first main lens 137 may reflect the first image passing through the first image or the first auxiliary lens 135 at approximately right angles to the user's eye as a beam splitter.

일례로 제1 미러(133)에서 대략 수직 방향으로 내려오는 제1 영상은 제1 메인렌즈(137)의 반사면을 중심으로 사용자의 눈을 향하는 영상과 사용자 눈의 전방을 향하는 허상을 형성한다. 반사면에서 하상이 맺히는 위치 혹은 영상면까지의 거리는 약 20미터일 수 있다.For example, the first image descending from the first mirror 133 in a substantially vertical direction forms an image facing the user's eye and a virtual image facing the front of the user's eye with respect to the reflective surface of the first main lens 137. The distance from the reflective surface to the location of the lower image or the image plane may be about 20 meters.

유사하게, 제2 메인렌즈(138)는 제2 보조렌즈(136)의 하부에 배치된다. 제2 메인렌즈(138)은 상대적으로 얇은 판상의 렌즈 부재를 제2 보조렌즈(136)의 중심축과 경사지게 설치한 배치 구조를 구비할 수 있다. 제2 메인렌즈(138)는 제2 보조렌즈(136)의 하부측에서 지지 프레임(120)이나 중앙 프레임(110c)의 하부에 결합될 수 있다. 제2 메인렌즈(138)는 빔 스플리터(beam splitter)로서 제2 보조렌즈(136)를 통과한 제2 영상을 사용자의 눈을 향해 대략 직각으로 반사할 수 있다.Similarly, the second main lens 138 is disposed under the second auxiliary lens 136. The second main lens 138 may have an arrangement structure in which a relatively thin plate-like lens member is inclined with the central axis of the second auxiliary lens 136. The second main lens 138 may be coupled to the lower portion of the support frame 120 or the center frame 110c at the lower side of the second auxiliary lens 136. The second main lens 138 may reflect a second image passing through the second auxiliary lens 136 at approximately right angles to the user's eye as a beam splitter.

일례로 제2 미러(134)에서 대략 수직 방향으로 내려오는 제2 영상은 제2 메인렌즈(138)의 반사면을 중심으로 사용자의 눈을 향하는 영상과 사용자 눈의 전방을 향하는 허상을 형성한다.For example, the second image descending from the second mirror 134 in a substantially vertical direction forms an image facing the user's eye and a virtual image facing the front of the user's eye with respect to the reflective surface of the second main lens 138.

전술한 보조렌즈(135, 136)의 볼록한 면은 영상 또는 콘텐츠를 확대하고 구면 수차를 없애기 위하여 3개의 비구면 렌즈를 포함하도록 설치될 수 있다.The convex surfaces of the auxiliary lenses 135 and 136 described above may be installed to include three aspherical lenses in order to enlarge an image or content and eliminate spherical aberration.

또한, 지지 프레임(120)의 중앙 하부측에는 코걸이 부재(140)가 연결될 수 있다. 코걸이 부재(140)는 적어도 일부가 상대적인 연성 재질로 이루어질 수 있다. 연성 재질은 합성수지를 포함할 수 있다.In addition, the nose pad member 140 may be connected to the central lower side of the support frame 120. The nose pad member 140 may be made of at least a portion of a relatively soft material. The soft material may include synthetic resin.

메인 프레임(110)의 중앙 상부측에는 상부 커버(113)가 결합하고, 중앙 전면상부측에는 전면상부커버(114)가 결합하고, 중앙 전면 최상부 중앙에는 전면보조커버(115)가 결합될 수 있다. 전면상부커버(114)는 제1 및 제2 지지 프레임(120a, 120b)을 게재하고 후면커버(112c)와 나사나 볼트 등의 체결수단에 의해 중앙 프레임(120c)에 결합할 수 있다. 전면보조커버(115)는 전면 카메라(151)의 노출 렌즈 부분을 덮을 수 있으며, 그 경우 전면보조커버(115)의 적어도 일부분은 투명 혹은 반투명 재질로 형성될 수 있다. 또한, 구현에 따라서 전면보조커버(115)는 전면 카메라(151)의 렌즈 노출을 위한 개구부나 관통홀을 구비할 수 있다.An upper cover 113 may be coupled to a central upper side of the main frame 110, an upper front cover 114 may be coupled to an upper front side of the center, and a front auxiliary cover 115 may be coupled to an uppermost center of the center front. The upper front cover 114 may display the first and second support frames 120a and 120b and may be coupled to the central frame 120c by the rear cover 112c and fastening means such as screws or bolts. The front subsidiary cover 115 may cover the exposed lens portion of the front camera 151, in which case at least a portion of the front subsidiary cover 115 may be formed of a transparent or translucent material. In addition, according to the implementation, the front subsidiary cover 115 may include an opening or a through hole for exposing the lens of the front camera 151.

제1 측면 프레임(110a)의 일단은 지지 프레임(120)의 좌측에 연결되고, 그 타단은 제1 측면 연결 프레임(121)에 연결될 수 있다. 제1 측면 연결 프레임(121)은 제1 측면 종단 프레임(a first side end frame, 122)에 연결될 수 있다. 제1 측면 종단 프레임(122)은 제1 배터리(172)를 수납하는 내부 공간을 구비하며, 후술하는 제2 측면 종단 프레임(125)과 마주하는 내부 공간의 개구부는 제1 연성 커버(123)에 의해 탈착가능하게 덮힐 수 있다. 제1 측면 연결 프레임(121)과 제1 연성 커버(123)는 적어도 그 표면 부분이 사용자의 귀와 그 뒤쪽에 접하는 부분으로 착용감을 좋게 하기 위해 고무나 연질의 합성수지 재질로 형성될 수 있다.One end of the first side frame 110a may be connected to the left side of the support frame 120, and the other end thereof may be connected to the first side connection frame 121. The first side connection frame 121 may be connected to a first side end frame 122. The first side end frame 122 has an inner space for accommodating the first battery 172, and an opening in the inner space facing the second side end frame 125, which will be described later, is formed on the first flexible cover 123. By detachably covering. The first side connecting frame 121 and the first flexible cover 123 may be formed of rubber or a soft synthetic resin material to improve a feeling of wearing at least a portion of the surface contacting the user's ear and the back thereof.

유사하게, 제2 측면 프레임(110b)의 일단은 지지 프레임(120)의 우측에 연결되고, 그 타단은 제2 측면 연결 프레임(124)에 연결될 수 있다. 제2 측면 연결 프레임(124)은 제2 측면 종단 프레임(a second side end frame, 125)에 연결될 수 있다. 제2 측면 종단 프레임(125)은 제2 배터리(171)를 수납하는 내부 공간을 구비하며, 전술한 제1 측면 종단 프레임(122)이나 제1 연성 커버(123)와 마주하는 내부 공간의 개구부는 제2 연성 커버(126)에 의해 탈착가능하게 폐쇄될 수 있다. 제2 측면 연결 프레임(124)과 제2 연성 커버(126)는 적어도 그 표면 부분이 사용자의 왼쪽 귀와 그 뒤쪽에 접하는 부분으로 착용감을 좋게 하기 위해 고무나 연질의 합성수지 재질로 형성될 수 있다. 제1 배터리(171) 및 제2 배터리(172)는 전원장치로 지칭될 수 있고, 구현에 따라서 하나의 배터리가 탑재되거나 하나의 배터리도 탑재되지 않고 모두 생략될 수 있다.Similarly, one end of the second side frame 110b may be connected to the right side of the support frame 120, and the other end thereof may be connected to the second side connection frame 124. The second side connection frame 124 may be connected to a second side end frame 125. The second side end frame 125 has an inner space for accommodating the second battery 171, and the opening of the inner side facing the first side end frame 122 or the first flexible cover 123 described above is provided. The second flexible cover 126 may be detachably closed. The second side connecting frame 124 and the second flexible cover 126 may be formed of a rubber or soft synthetic resin material to improve a feeling of wearing at least a portion of the surface contacting the user's left ear and the back thereof. The first battery 171 and the second battery 172 may be referred to as a power supply device, and one battery may be mounted or one battery may not be mounted depending on the implementation.

제1 측면 프레임(110a)의 외측면에는 제1 인쇄회로기판(a first PCB, 161)을 수용하도록 제1 측면 커버(112a)가 설치될 수 있다. 제1 인쇄회로기판(161)은 제1 배터리(172)에 연결되고 FPCB(164)의 일단에 연결될 수 있다. 유사하게, 제2 측면 프레임(110b)의 외측면에는 제2 인쇄회로기판(a second PCB, 162)을 수납하도록 제2 측면 커버(112b)가 결합될 수 있다. 제2 인쇄회로기판(162)은 제2 배터리(171)에 연결되고 FPCB(164)의 다른 타단에 연결될 수 있다.The first side cover 112a may be installed on an outer surface of the first side frame 110a to accommodate the first printed circuit board 161. The first printed circuit board 161 may be connected to the first battery 172 and connected to one end of the FPCB 164. Similarly, a second side cover 112b may be coupled to an outer surface of the second side frame 110b to accommodate a second PCB 162. The second printed circuit board 162 may be connected to the second battery 171 and may be connected to the other end of the FPCB 164.

제1 측면 프레임(110a)과 제2 측면 프레임(110b)의 전면측에는 쉴드(도 16의 180 참조)의 결합에서 결합력 확보 및 위치 지정을 위한 돌기 혹은 요철부를 구비할 수 있다. 또한, 요철부 대신에 그 형성면 부근에는 자석이나 자석을 붙는 금속성 재질이 내재하여 구비될 수 있으며, 그에 의해 쉴드와의 결합을 용이하게 하고 안정적인 결합 상태를 유지하도록 할 수 있다.The front side of the first side frame (110a) and the second side frame (110b) may be provided with a projection or uneven portion for securing the coupling force and positioning in the coupling of the shield (see 180 of FIG. 16). In addition, instead of the uneven portion, a metal material attaching a magnet or a magnet may be provided in the vicinity of the forming surface, thereby facilitating coupling with the shield and maintaining a stable coupling state.

제1 인쇄회로기판(161)은 외부와의 데이터 송수신이나 전원을 받기 위한 적어도 하나의 포트 혹은 제1 커넥터를 구비할 수 있다. 제2 인쇄회로기판(162)은 외부와의 데이터 송수신이나 전원을 받기 위한 적어도 하나의 포트 혹은 제2 커넥터를 구비할 수 있다. 또한, 제1 또는 제2 인쇄회로기판(161; 162)은 이어폰 단자를 구비할 수 있다.The first printed circuit board 161 may include at least one port or a first connector for transmitting and receiving data or receiving power from the outside. The second printed circuit board 162 may include at least one port or a second connector for transmitting and receiving data or receiving power from the outside. In addition, the first or second printed circuit boards 161 and 162 may include earphone terminals.

전면 카메라(151)는 메인 프레임(110) 또는 중앙 프레임(120c)의 전면에 노출되는 렌즈를 구비할 수 있다. 전면 카메라(151)는 두 개가 설치될 수 있으나 이에 한정되지는 않는다. 전면 카메라(151)의 렌즈나 그 주변 부분은 전면보조커버(115)에 보호될 수 있다. 전면 카메라(151)은 FPCB(164)의 또 다른 일단이나 연장부에 전기적으로 연결될 수 있다.The front camera 151 may include a lens exposed on the front surface of the main frame 110 or the center frame 120c. Two front cameras 151 may be installed, but are not limited thereto. The lens of the front camera 151 or a peripheral portion thereof may be protected by the front subsidiary cover 115. The front camera 151 may be electrically connected to another end or extension of the FPCB 164.

후면 카메라(153)는 메인 프레임(110) 또는 지지 프레임(120)의 후면에 노출되는 렌즈를 구비할 수 있다. 후면 카메라(153)는 하나가 설치될 수 있으나 이에 한정되지는 않는다. 후면 카메라(153)은 FPCB(164)의 또 다른 일단이나 연장부에 전기적으로 연결될 수 있다.The rear camera 153 may include a lens exposed at the rear of the main frame 110 or the support frame 120. One rear camera 153 may be installed, but is not limited thereto. The rear camera 153 may be electrically connected to another end or extension of the FPCB 164.

프로세서(도 5의 212 참조)는 제1 또는 제2 인쇄회로기판(161, 162)에 배치될 수 있다. 프로세서는 스마트 안경(100)의 구성요소들을 제어하여 스마트 안경(100)의 동작이나 기능을 운영 및 관리할 수 있다. 프로세서는 어플리케이션 프로세서(application processor, AP)를 포함할 수 있다. 프로세서는 디스플레이 인터페이스를 포함할 수 있다.The processor (see 212 of FIG. 5) may be disposed on the first or second printed circuit boards 161 and 162. The processor may control the components of the smart glasses 100 to operate and manage the operation or function of the smart glasses 100. The processor may include an application processor (AP). The processor may include a display interface.

디스플레이 인터페이스는 프로세서의 제어에 따라 제1 디스플레이(131) 및 제2 디스플레이(132)에 전달되는 신호의 타이밍을 제어할 수 있다. 신호는 영상 신호를 포함할 수 있다. 본 실시예에서 디스플레이 인터페이스로는 제1 및 제2 디스플레이들(131, 132)과 3D 콘텐츠에 적용하기 적합한 듀얼 및 3D MIPI DSI(Dual & 3D Mobile Industry Processor Interface Digital Serial Interface)(이하 간략히 DSI라고 한다)(도 17 210a 참조) 또는 이와 유사한 기능을 수행하는 수단이나 장치일 수 있다.The display interface may control timing of signals transmitted to the first display 131 and the second display 132 under the control of the processor. The signal may include an image signal. In the present embodiment, the display interface is dual and 3D MIPI DSI (Dual & 3D Mobile Industry Processor Interface Digital Serial Interface) (hereinafter, simply referred to as DSI) suitable for applying to the first and second displays 131 and 132 and 3D content. (See FIG. 17 210A) or similar means or device.

또한, 제1 또는 제2 측면 프레임(110a, 110b)에는 구동기(194)가 내장될 수 있다. 구동기(194)는 제1 또는 제2 인쇄회로기판(161, 162)에 전기적으로 연결되고 전면 카메라(151), 후면 카메라(153), 센서 또는 프로세서의 신호에 따라 동작하여 진동을 발생시킬 수 있다. 일례로, 후면 카메라(153)를 통해 사용자의 눈꺼풀을 인식하고 눈꺼풀이 일정 시간 이상동안 안구를 덮고 있다고 인식되는 경우, 후면 카메라(153)의 신호에 따라 졸음 방지 알람용 진동을 발생시킬 수 있다.In addition, the driver 194 may be built in the first or second side frames 110a and 110b. The driver 194 may be electrically connected to the first or second printed circuit boards 161 and 162 and may operate in response to signals from the front camera 151, the rear camera 153, a sensor, or a processor to generate vibrations. . For example, when the user recognizes the eyelid through the rear camera 153 and the eyelid is recognized to cover the eye for a predetermined time or more, the user may generate a vibration for the sleepiness prevention alarm according to the signal of the rear camera 153.

또한, 지지 프레임(120)의 상부나 상부 커버(113)의 하부 또는 일부분에는 방열구조가 설치될 수 있다. 방열구조의 일단은 디스플레이 인터페이스(160), 제1 디스플레이(131), 제2 디스플레이(132), LCD용 백라이트 등에 연결되어 상기의 구성요소들 중 적어도 어느 하나에서 발생하는 열을 방출할 수 있다. 효과적인 열 방출을 위해, 방열구조는 중앙 프레임(120c)의 상단부의 길이 방향의 외곽선을 따라 연장할 수 있으며, 적어도 일면에 다수의 핀(fins)을 구비하여 단면적을 확장한 상태로 설치될 수 있다. 또한, 구현에 따라서, 방열구조는 상부 커버(113)의 길이 방향을 따라 일정 폭으로 설치되는 전도성이 우수한 재료에 연결되거나 상기의 고전도성 재료와 일체로 형성될 수 있다.In addition, a heat dissipation structure may be installed at an upper portion of the support frame 120 or a lower portion or a portion of the upper cover 113. One end of the heat dissipation structure may be connected to the display interface 160, the first display 131, the second display 132, the LCD backlight, and the like to emit heat generated in at least one of the above components. For effective heat dissipation, the heat dissipation structure may extend along the lengthwise outline of the upper end of the center frame 120c, and may be installed with a plurality of fins on at least one surface thereof to extend the cross-sectional area. . In addition, according to the embodiment, the heat dissipation structure may be connected to a material having excellent conductivity installed at a predetermined width along the length direction of the upper cover 113 or may be integrally formed with the high conductive material.

도 13 및 도 14는 도 7의 스마트 안경에 채용할 수 있는 광학 시스템을 설명하기 위한 도면들이다.13 and 14 are diagrams for describing an optical system that may be employed in the smart glasses of FIG. 7.

본 실시예에서는 제1 미러(133), 제1 보조렌즈(135a, 135b, 1372) 및 제1 메인렌즈(137)를 포함하는 광학 시스템을 중심으로 설명하나 제2 미러(134), 제2 보조렌즈(136) 및 제2 메인렌즈(138)를 포함하는 광학 시스템에도 동일하게 적용할 수 있음은 물론이다.In the present exemplary embodiment, the optical system including the first mirror 133, the first auxiliary lenses 135a, 135b, and 1372 and the first main lens 137 will be described. However, the second mirror 134 and the second auxiliary lens are described. The same applies to the optical system including the lens 136 and the second main lens 138.

도 13 및 도 14를 참조하면, 본 실시예에 따른 스마트 안경은 제1 미러(133), 제1 보조렌즈(135a, 135b, 1372) 및 제1 메인렌즈(137)를 포함하는 제1 또는 우측 광학 시스템과, 제2 미러, 제2 보조렌즈 및 제2 메인렌즈를 포함하는 제2 또는 좌측 광학 시스템(도 9의 134, 136 및 138 참조)을 포함한다.13 and 14, the smart glasses according to the present embodiment may include a first or right side including a first mirror 133, first auxiliary lenses 135a, 135b, and 1372 and a first main lens 137. And a second or left optical system (see 134, 136 and 138 of FIG. 9) including an optical system and a second mirror, a second auxiliary lens and a second main lens.

본 실시예에서, 제1 메인렌즈와 제2 메인렌즈는 판상의 반사 및 투과 부재로 이루어지며, 제1 메인렌즈와 제2 메인렌즈 각각의 중심축과 일정 각도 범위에서 경사지게 배치된다. 제1 메인렌즈와 제2 메인렌즈는 수 밀리미터 이하의 두께를 가지는 판상 부재 형태의 빔 스플리터일 수 있다.In the present exemplary embodiment, the first main lens and the second main lens are formed of a plate-shaped reflective and transmissive member, and are disposed to be inclined at a predetermined angle with a central axis of each of the first main lens and the second main lens. The first main lens and the second main lens may be beam splitters in the form of plate members having a thickness of several millimeters or less.

또한, 본 실시예의 스마트 안경은 적어도 하나의 디스플레이 장치, 바람직하게는 두 개의 디스플레이 장치를 구비할 수 있고, 구현에 따라서 하나의 미러를 구비하거나 두 개의 미러(133, 134)를 구비할 수 있다.In addition, the smart glasses of the present embodiment may include at least one display device, preferably two display devices, and may include one mirror or two mirrors 133 and 134, depending on the implementation.

디스플레이 장치는 스마트 안경을 착용하는 사용자의 전면 방향이나 얼굴 방향에서 최초 영상을 출력하도록 배치되거나, 얼굴의 상부측에서 하부측으로 혹은 하부측에서 상부측으로 향하는 수직 방향에서 최초 영상을 출력하도록 배치되거나, 얼굴의 눈(eyes) 사이(미간) 혹은 코(nose) 위에서 양쪽 눈을 향해 최초 영상을 출력하도록 배치될 수 있다. 양쪽 눈 사이의 거리는 대략 제1 및 제2 메인렌즈들의 중심들 간의 거리에 대응될 수 있다.The display device is arranged to output the initial image in the front direction or the face direction of the user wearing the smart glasses, or is arranged to output the initial image in the vertical direction from the upper side to the lower side or the lower side to the upper side of the face, or the face. It may be arranged to output the initial image toward both eyes between the eyes of the eyes (the brow) or the nose. The distance between both eyes may correspond approximately to the distance between the centers of the first and second main lenses.

본 실시예에 따른 스마트 안경에서 제1 메인렌즈(137)는 제1 보조렌즈(135a, 135b, 1372)와 마주하며 제1 보조렌즈의 광 경로의 중심 라인과 대략 30도 내지 60도 범위에서 경사져 배치된다. 이러한 제1 보조렌즈(137)는 제1 일면볼록렌즈(135a), 제1 양면볼록렌즈(135b) 및 제1 볼록면렌즈(1372)를 구비하여 구성될 수 있다.In the smart glasses according to the present exemplary embodiment, the first main lens 137 faces the first auxiliary lenses 135a, 135b, and 1372 and is inclined at about 30 to 60 degrees with the center line of the optical path of the first auxiliary lens. Is placed. The first auxiliary lens 137 may include a first one-sided convex lens 135a, a first double-sided convex lens 135b, and a first convex surface lens 1372.

제1 일면볼록렌즈(135a)의 일면은 볼록면을 구비하고, 타면은 오목면을 구비한다. 제1 일면볼록렌즈(135a)의 오목면의 곡률은 제1 양면볼록렌즈(135b)의 마주하는 볼록면의 곡률과 대략 유사하거나 동일하게 설정될 수 있다.One surface of the first one-side convex lens 135a has a convex surface, and the other surface has a concave surface. The curvature of the concave surface of the first one-sided convex lens 135a may be set to be substantially similar to or the same as the curvature of the opposite convex surface of the first two-sided convex lens 135b.

제1 양면볼록렌즈(135b)는 그 일면과 타면 모두에 볼록면을 구비한다. 일면의 볼록면과 타면의 볼록면의 곡률 반경을 동일할 수 있으나, 이에 한정되지는 않는다.The first biconvex lens 135b has a convex surface on both one surface and the other surface thereof. The radius of curvature of the convex surface of one surface and the convex surface of the other surface may be the same, but is not limited thereto.

제1 볼록면렌즈(1372)는 제1 양면볼록렌즈(135b)의 타면 볼록면과 마주하는 볼록면을 구비하고 볼록면의 반대면은 평면 형태를 구비할 수 있다.The first convex lens 1372 may have a convex surface facing the other surface convex surface of the first biconvex lens 135b, and an opposite surface of the convex surface may have a planar shape.

전술한 구성에 의하면, 본 실시예에 따른 스마트 안경의 제1 및 제2 디스플레이들에서 출력되는 제1 영상과 제2 영상은 제1 미러(133) 및 제2 미러에서 각각 반사된 후 제1 보조렌즈 및 제2 보조렌즈 각각의 볼록면의 조합에 의해 확대된 후 제1 메인렌즈(137)의 반사면과 제2 메인렌즈의 반사면에서 부분 반사되고 부분 투과된다. 반사면은 빔 스플리트 면으로 지칭될 수 있다.According to the above-described configuration, the first and second images output from the first and second displays of the smart glasses according to the present embodiment are reflected by the first mirror 133 and the second mirror, respectively, and then the first auxiliary image. The lens is enlarged by the combination of the convex surfaces of each of the lens and the second auxiliary lens, and then partially reflected and partially transmitted from the reflective surface of the first main lens 137 and the reflective surface of the second main lens. The reflective surface may be referred to as the beam split surface.

여기서, 제1 보조렌즈의 볼록면의 조합과 제2 보조렌즈의 볼록면의 조합에 의해 제1 영상과 제2 영상은 확대되고, 제1 보조렌즈와 제2 보조렌즈의 비구면 볼록면에 의해 구면 수차는 제거될 수 있다.Here, the first image and the second image are enlarged by the combination of the convex surface of the first auxiliary lens and the convex surface of the second auxiliary lens, and the spherical surface is formed by the aspherical convex surface of the first auxiliary lens and the second auxiliary lens. Aberrations can be eliminated.

또한, 제1 및 제2 메인렌즈들의 전면의 소정 위치에서 초점이 맞춰지는 제1 영상 및 제2 영상은 소정의 단일 영상면 또는 허상면을 형성할 수 있다. 물론, 입체(3D) 영상, 가상현실영상, 증강현실 영상 등의 경우에는 다층 영상면 또는 허상면을 구비할 수 있음은 물론이다.In addition, the first image and the second image focused at a predetermined position in front of the first and second main lenses may form a predetermined single image plane or a virtual image plane. Of course, in the case of a stereoscopic (3D) image, a virtual reality image, augmented reality image, etc. may be provided with a multi-layer image plane or a virtual image.

또한, 본 실시예의 스마트 안경에서 메인렌즈들 각각은 측면 프레임(도 7의 112b 참조)과의 사이에 빈 공간을 구비한다. 이와 같이, 각 메인렌즈의 측면 외측에 어떠한 구성요소도 배치하지 않음으로써 스마트 안경 착용자의 시야각을 제한하지 않고 최대한의 광시야각을 제공할 수 있는 장점이 있다.In addition, in the smart glasses of the present embodiment, each of the main lenses has an empty space between the side frames (see 112b of FIG. 7). As such, there is an advantage in that it is possible to provide the maximum wide viewing angle without limiting the viewing angle of the smart glasses wearer by not disposing any component on the side outside of each main lens.

또한, 본 실시예에 의하면, 디스플레이의 화면(A1)에서 출력되는 콘텐츠는 보조렌즈를 이용하여 확대될 수 있다. 그러한 경우, 보조렌즈로부터 확대된 이미지까지의 거리는 필요에 따라 조절될 수 있다. 즉, 보조렌즈에 의해 확대된 이미지는 실상이 아닌 허상(B1)으로서 사용자의 눈(C1)에 스마트 안경 너머로 보이도록 그 크기나 해상도가 용이하게 조절될 수 있다.In addition, according to the present embodiment, the content output from the screen A1 of the display may be enlarged using the auxiliary lens. In such a case, the distance from the auxiliary lens to the enlarged image can be adjusted as necessary. That is, the size and resolution of the image enlarged by the auxiliary lens may be easily adjusted so that the image is enlarged beyond the smart glasses to the user's eye C1 as the virtual image B1 rather than the actual image.

메인렌즈를 통해 사용자가 느끼는 허상까지의 거리(li)는, 메인렌즈의 초점거리(f)와 디스플레이로부터 메인렌즈의 반사면까지의 거리(lo) 사이의 관계에 의해 조절될 수 있다. 상기 거리들 사이의 관계는 수학식 1을 만족한다.The distance li to the virtual image felt by the user through the main lens may be adjusted by the relationship between the focal length f of the main lens and the distance lo from the display to the reflective surface of the main lens. The relationship between the distances satisfies Equation 1.

Figure pat00001
Figure pat00001

본 실시예에 의하면, 사용자가 원하는 위치에 확대된 이미지가 형성될 수 있도록 설계하여 제작할 수 있다. 또한, 스마트 안경으로부터 약 2.4미터 전방에 약 20 인치 크기의 콘텐츠를 구현하도록 구성할 수 있다. 즉, 스마트 안경으로부터 약 2미터 전방에 약 20 인치의 콘텐츠를 제공할 수 있으며, 사용자는 필요에 따라 증강현실이나 가상현실을 용이하게 구현하여 이용할 수 있다.According to this embodiment, the user can be designed and manufactured so that an enlarged image can be formed at a desired position. It can also be configured to implement about 20 inches of content about 2.4 meters from the smart glasses. That is, it can provide about 20 inches of content about 2 meters from the smart glasses, and the user can easily implement and use augmented reality or virtual reality as needed.

도 15는 도 7의 스마트 안경에 채용할 수 있는 제어보드에 대한 블록도이다.FIG. 15 is a block diagram of a control board that may be employed in the smart glasses of FIG. 7.

도 5를 참조하면, 본 실시예에 따른 스마트 안경(100)은 제1 및 제2 디스플레이(D1, D2; 131, 132)에 연결되는 컨트롤러(210)를 구비할 수 있다. 또한, 스마트 안경(100)은 전원부(170)와 통신부(190)를 구비할 수 있다. 전원부(170)는 전원장치 혹은 전원공급장치로 지칭될 수 있고, 배터리나 전원공급용 단자를 포함할 수 있다. 그리고 통신부(190)는 유선 또는 무선 통신을 위한 서브시스템을 포함할 수 있다. 전술한 전원부(170)의 적어도 일부와 통신부(190)는 인쇄회로기판에 실장될 수 있다. 그 경우, 이러한 인쇄회로기판은 통신 및 전원 보드로 지칭될 수 있다.Referring to FIG. 5, the smart glasses 100 according to the present exemplary embodiment may include a controller 210 connected to the first and second displays D1 and D2 131 and 132. In addition, the smart glasses 100 may include a power supply unit 170 and a communication unit 190. The power supply unit 170 may be referred to as a power supply device or a power supply device, and may include a battery or a power supply terminal. In addition, the communication unit 190 may include a subsystem for wired or wireless communication. At least a portion of the power supply unit 170 and the communication unit 190 may be mounted on a printed circuit board. In that case, such a printed circuit board may be referred to as a communication and power board.

컨트롤러(210)는 프로세서와 메모리(220)를 포함할 수 있다. 컨트롤러(210)는 메모리(220)에 저장되는 프로그램에 의해 전원부(170)와 통신부(190)의 동작으로 제어하고, 스마트 안경(100)의 동작을 제어할 수 있다. 본 실시예에서 컨트롤러(210) 및 전원부(190)는 스마트 안경(100)에 수납 형태 등으로 일체로 형성되나 이에 한정되지는 않는다.The controller 210 may include a processor and a memory 220. The controller 210 may control the operation of the power supply unit 170 and the communication unit 190 by a program stored in the memory 220 and control the operation of the smart glasses 100. In the present embodiment, the controller 210 and the power supply unit 190 are integrally formed in the smart glasses 100 in an accommodating form, but are not limited thereto.

전술한 실시예에서는 디스플레이 인터페이스를 컨트롤러(210)와 별도의 구성인 듯이 설명하고 있으나, 본 발명은 그러한 구성으로 한정되지 않고, 디스플레이 인터페이스가 컨트롤러에 일체로 형성되도록 구현될 수 있다.In the above-described embodiment, the display interface is described as a separate configuration from the controller 210, but the present invention is not limited to such a configuration, and the display interface may be implemented to be integrally formed with the controller.

또한, 본 실시예에 따른 스마트 안경(100)은 보조전원부로서 하나의 소형 배터리 또는 보조 배터리를 포함하고, 대형, 대용량 또는 메인 배터리를 포함하는 별도의 메인전원공급장치를 스마트 안경의 외부에 배치한 후 데이터 및 전원 라인(도 26의 192 참조)을 통해 연결되도록 구성될 수 있다.In addition, the smart glasses 100 according to the present embodiment includes one small battery or auxiliary battery as an auxiliary power supply, and a separate main power supply including a large, large capacity, or main battery is disposed outside the smart glasses. And data and power lines (see 192 of FIG. 26).

도 16은 본 발명의 또 다른 실시예에 따른 스마트 안경과 제어 시스템에 대한 사시도이다. 도 17은 도 16의 스마트 안경의 주요 구성을 설명하기 위한 블록도이다.16 is a perspective view of a smart glasses and a control system according to another embodiment of the present invention. FIG. 17 is a block diagram illustrating a main configuration of the smart glasses of FIG. 16.

도 16 및 도 17을 참조하면, 본 실시예에 따른 스마트 안경(100)은 디스플레이 인터페이스를 구비하고, 디스플레이 인터페이스에 연결되는 제어장치를 스마트 안경(100)의 외부에 배치하도록 구현될 수 있다. 또한, 스마트 안경(100)은 실질적으로 모든 배터리를 스마트 안경(100)의 외부에 배치하도록 구현된다.16 and 17, the smart glasses 100 according to the present exemplary embodiment may be implemented to include a display interface and to arrange a control device connected to the display interface outside the smart glasses 100. In addition, the smart glasses 100 are implemented to place substantially all of the battery outside the smart glasses 100.

여기서, 디스플레이 인터페이스는 듀얼 및 3D MIPI DSI(Dual & 3D Mobile Industry Processor Interface Digital Serial Interface, 210a)(이하 간략히 DSI라고 한다) 또는 이와 유사한 기능을 수행하는 수단이나 장치일 수 있다. 이러한 디스플레이 인터페이스를 사용하면, 제1 및 제2 디스플레이들(131, 132)과 3D 콘텐츠를 구현하기에 적합하다.The display interface may be a dual or 3D MIPI DSI (Dual & 3D Mobile Industry Processor Interface Digital Serial Interface, 210a) (hereinafter, simply referred to as DSI) or a means or device for performing a similar function. This display interface is suitable for implementing 3D content with the first and second displays 131, 132.

전술한 구성을 위해, 스마트 안경(100)은 제1 디스플레이(131), 제2 디스플레이(132), 디스플레이 인터페이스(160), 카메라(150), 통신 및 전원 보드(164)를 포함한다.For the above-described configuration, the smart glasses 100 includes a first display 131, a second display 132, a display interface 160, a camera 150, a communication and power board 164.

카메라(150)는 전면 또는 후면 카메라를 포함할 수 있고, 통신 및 전원 보드(164)는 제1 또는 제2 인쇄회로기판의 설치 위치에 설치되면서 외부의 메인 전력 공급 장치(main power supply,MPS, 240)와 어플리케이션 프로세서(AP, 260)에 연결될 수 있다. 이 경우, 외부 장치(300)는 제어 및 전원 장치로서 스마트 안경(100)의 동작을 외부에서 제어하고 모니터링할 수 있다.The camera 150 may include a front or rear camera, and the communication and power board 164 may be installed at an installation position of the first or second printed circuit board while an external main power supply (MPS), 240 may be connected to an application processor (AP) 260. In this case, the external device 300 may control and monitor the operation of the smart glasses 100 from the outside as a control and power supply device.

본 실시예의 경우, 컨트롤러나 제1 인쇄회로기판(161), 제2 인쇄회로기판(162)의 대부분과 함께 제1 배터리(172) 및 제2 배터리(171)가 생략될 수 있다. 즉, 제2 인쇄회로기판(162)의 위치에 상대적으로 단순한 구조를 갖는 통신 및 전원 보드(164)를 설치하여 스마트 안경(100)과 외부 장치(300) 간의 통신 및 전원 연결을 중계하고 나머지 전자부품에 대한 구성요소들 대부분을 생략할 수 있다.In the present exemplary embodiment, the first battery 172 and the second battery 171 together with most of the controller, the first printed circuit board 161, and the second printed circuit board 162 may be omitted. That is, the communication and power board 164 having a relatively simple structure is installed at the position of the second printed circuit board 162 to relay the communication and power connection between the smart glasses 100 and the external device 300 and the remaining electronics. Most of the components for the part can be omitted.

본 실시예들에 의하면, 스마트 안경(100)의 무게를 상당히 감소시킬 수 있고, 사용편의성을 증대시킬 수 있는 장점이 있다. 또한, 외부 배터리 사용에 따라 상대적으로 배터리 용량을 일정량 증대시킬 수 있고, 필요에 따라 전원단자를 통해 상용전원이나 다른 보조 배터리를 통해 전원을 공급받음으로써 스마트 안경의 장시간 사용에 따른 필요 전원을 원활하게 공급할 수 있는 장점이 있다.According to the embodiments, the weight of the smart glasses 100 can be considerably reduced, and there is an advantage of increasing the ease of use. In addition, it is possible to increase the battery capacity by a certain amount according to the use of an external battery, and if necessary, the power supply is supplied through commercial power or other auxiliary batteries through a power supply terminal to smoothly supply the power required for long-term use of smart glasses. There is an advantage to supply.

도 18은 도 16의 스마트 안경에 채용할 수 있는 제어 모듈을 설명하기 위한 블록도이다.FIG. 18 is a block diagram illustrating a control module that may be employed in the smart glasses of FIG. 16.

도 18을 참조하면, 본 실시예에 따른 스마트 안경의 제어장치는, 애플리케이션 프로세서로 지칭될 수 있으며, 비디오 인터페이스(261), 트래킹 모듈(262), 랜더링 모듈(263) 및 측정 모듈(264)을 포함할 수 있다. 트래킹 모듈(262), 랜더링 모듈(263) 및 측정 모듈(264)은 사용자 인터페이스(user interface, U/I, 265)에 연결될 수 있다.Referring to FIG. 18, the control apparatus of the smart glasses according to the present embodiment may be referred to as an application processor, and the video interface 261, the tracking module 262, the rendering module 263, and the measurement module 264 may be referred to. It may include. The tracking module 262, the rendering module 263, and the measurement module 264 may be connected to a user interface U / I 265.

비디오 인터페이스(261)는 비디오 카메라(151; 152)로부터 입력되는 비디오 이미지 스트림을 받고 원하는 구간의 이미지를 트래킹 모듈(262)로 전달할 수 있다.The video interface 261 may receive a video image stream input from the video cameras 151 and 152 and transfer an image of a desired section to the tracking module 262.

트래킹 모듈(262)는 비디오 인터페이스(261)로부터 이미지 데이터를 받고 측정 이미지 및 포즈 추정 결과를 랜더링 모듈로 전달할 수 있다. 이때, 트래킹 모듈(262)는 사용자 인터페이스(265)를 통해 조정 파라미터 등을 포함하는 조정 정보 등을 수신하고, 마커 정보 데이터베이스(266)에 저장된 마커 정보를 이용하여 마커를 인식할 수 있다. 마커는 실제 영상과 가상 물체 사이의 매개체로서 기능한다. 마커 정보는 마커의 사이즈, 패턴 등에 대한 정보를 포함할 수 있다. 마커 정보 데이터베이스(266)는 소정의 저장부에 저장된 마커 정보로 대체될 수 있다.The tracking module 262 may receive image data from the video interface 261 and transmit the measured image and the pose estimation result to the rendering module. In this case, the tracking module 262 may receive adjustment information including adjustment parameters and the like through the user interface 265, and recognize the marker using the marker information stored in the marker information database 266. The marker serves as a medium between the real image and the virtual object. The marker information may include information about the size, pattern, etc. of the marker. The marker information database 266 may be replaced with marker information stored in a predetermined storage unit.

랜더링 모듈(263)은 가상 물체의 생성 및 제거를 담당한다. 랜더링 모듈(263)은 사용자 인터페이스(265)를 통해 조정 정보 등을 획득할 수 있다. 조정 정보는 로드(load) 또는 언로드(unload), 회전, 이동(좌표 이동 등), 스케일링 등을 포함할 수 있다. 랜더링 모듈(263)은 3차원(3D) 모델링을 지원하는 엔진(간략히, 3D 모델링 엔진, 268)이나 이러한 기능을 수행하는 수단과 콘텐츠 리소스 데이터베이스(267)를 통해 연동할 수 있다. 3D 모델링 엔진(268)은 가상 현실 모델링 언어(virtual reality modeling language, VRML) 기반으로 측정 이미지의 가상 오브젝트를 생성할 수 있다. 랜더링 모듈(263)은 콘텐츠 리소스 데이터베이스(267)에서 가상 오브젝트를 받아 측정 이미지에 대한 랜더링을 수행할 수 있다.The rendering module 263 is responsible for creating and removing virtual objects. The rendering module 263 may obtain adjustment information or the like through the user interface 265. The adjustment information may include load or unload, rotation, movement (coordinate movement, etc.), scaling, and the like. The rendering module 263 may interwork with an engine that supports three-dimensional (3D) modeling (in brief, the 3D modeling engine 268) or a means for performing such a function through the content resource database 267. The 3D modeling engine 268 may generate a virtual object of the measured image based on a virtual reality modeling language (VRML). The rendering module 263 may receive the virtual object from the content resource database 267 and render the measured image.

측정 모듈(264)은 가상 물체들 간의 거리 측정, 생성된 좌표계 간의 거리와 방향 측정, 가상물체들 간의 간섭 여부 등을 확인하여 처리할 수 있다. 측정 모듈(264)은 랜더링 모듈(263)로부터 증강 이미지를 받고, 사용자 인터페이스(265)를 통해 입력되는 오브젝트 정보에 따라 증강현실 영상을 디스플레이 장치에 제공할 수 있다. 오브젝트 정보는 포지티브 또는 네거티브 정합, 3차원 포인트, 충돌 등에 대한 정보를 포함할 수 있다.The measurement module 264 may measure and process the distance between the virtual objects, the distance and the direction between the generated coordinate systems, and the interference between the virtual objects. The measurement module 264 may receive the augmented image from the rendering module 263 and provide the augmented reality image to the display device according to the object information input through the user interface 265. The object information may include information about positive or negative matching, three-dimensional point, collision, and the like.

도 19 및 도 20은 도 16의 스마트 안경의 주요 작동 원리를 설명하기 위한 순서도들이다.19 and 20 are flowcharts for describing a main operation principle of the smart glasses of FIG. 16.

도 19를 참조하면, 본 실시예에 따른 스마트 안경의 제어장치는 카메라를 통해 스테레오스코픽 이미지를 획득할 수 있다(S201). 제어장치는 스테레오스코픽 이미지에 기초하여 깊이 맵 이미지를 생성할 수 있다.Referring to FIG. 19, the control apparatus of the smart glasses according to the present embodiment may acquire a stereoscopic image through a camera (S201). The controller may generate a depth map image based on the stereoscopic image.

다음, 제어장치는 손 이미지를 검출 또는 추출할 수 있다(S203). 제어장치는 깊이 맵 이미지에서 손 이미지를 추출할 수 있다.Next, the control device may detect or extract the hand image (S203). The controller may extract the hand image from the depth map image.

다음, 제어장치는 일련의 손 이미지에 대응하는 명령을 저장부나 데이터베이스에서 추출할 수 있다(S205). 제어장치는 소정 시간 동안 추출된 손 이미지들에 의해 만들어지는 일련의 손 이미지가 가리키는 벡터 성분과 벡터 성분의 시작점과 끝점에 대응하는 이미지 영역이나 해당 이미지 영역에 위치하는 객체에 대응하여 미리 설정된 명령을 인식할 수 있다. 여기서 객체는 미리 설정된 명령에 대응하여 서로 다른 종류의 메뉴, 아이콘 등의 형태를 구비할 수 있다.Next, the control device may extract a command corresponding to the series of hand images from the storage unit or the database (S205). The controller may execute a preset command corresponding to a vector component indicated by a series of hand images generated by the extracted hand images for a predetermined time, an image region corresponding to the start and end points of the vector component, or an object located in the image region. I can recognize it. In this case, the object may have different types of menus and icons in response to a preset command.

본 실시예에 의하면, 스마트 안경의 제어장치는 손 동작을 영상 처리를 통해 감지하고 이를 토대로 스마트 안경에서 보이는 영상을 제어할 수 있다. 예컨대, 영상 제어는 영상 정방향 또는 역방향 넘김, 영상 빨리감기, 영상 되돌려 감기, 영상의 특정 영역에 대한 터치를 인식하여 미리 설정된 명령을 수행하기 등을 포함할 수 있다.According to the present embodiment, the control device of the smart glasses may detect the hand motion through image processing and control the image seen by the smart glasses based on the same. For example, the image control may include forward or reverse image forwarding, fast forwarding the image, rewinding the image, and performing a preset command by recognizing a touch on a specific region of the image.

또한, 제어장치는 손 동작 인식을 위해 입력되는 영상 프레임에서 손을 인식하고 손이 위치한 영상을 감지하거나 손의 움직임 방향을 인식 또는 예측하고, 그에 따라 화면 상에 콘텐츠를 올려놓거나 현재 영상을 이동시키거나, 현재 영상을 다른 영상과 중첩하여 배치할 수 있다. 손의 움직임 예측은 손, 손가락, 또는 이들의 조합을 인식하는 것을 포함할 수 있다. 이러한 제스처 인식은 영상처리와 미리 설정된 제스처 정보에 기초하여 수행될 있다.In addition, the controller recognizes a hand from an input image frame for hand gesture recognition, detects an image of a hand position, or recognizes or predicts a direction of movement of a hand, and accordingly puts a content on a screen or moves a current image. Alternatively, the current image may be overlapped with another image. Prediction of hand movements may include recognizing a hand, a finger, or a combination thereof. Such gesture recognition may be performed based on image processing and preset gesture information.

또한, 본 실시예에 의하면, 증강현실(augmented reality)뿐만 아니라 가상현실(virtual reality), 융합현실(mixed reality) 등에서 손 동작을 사용하는 사용자 인터페이스를 제공할 수 있고, 그에 의해 스마트 안경의 다양한 콘텐츠를 효과적으로 이용할 수 있도록 할 수 있으며, 사용자 편의성을 크게 향상시킬 수 있다.In addition, according to the present embodiment, it is possible to provide a user interface using a hand gesture in not only augmented reality, but also virtual reality, mixed reality, and the like, whereby various contents of smart glasses are provided. Can be effectively used, and can greatly improve user convenience.

일례로, 본 실시예에 의하면, 모니터없이 책상에서 업무를 보거나, 쇼핑을 할 때 스마트 안경을 착용하고 증강현실을 통해 결재를 수행하거나, 증강현실을 통해 네비게이션 기능을 이용하거나, 증강현실 게임을 하거나, 가상현실 동영상을 감상하거나, 증강현실 또는 가상현실로 영상통화를 하거나, 작업자가 스마트 안경을 착용하고 증강현실로 현장에서 작업을 하거나, 스마트폰의 기능을 스마트 안경의 화면에서 간편하게 조작 및 사용할 수 있다.For example, according to the present embodiment, when working at a desk without a monitor, or wearing smart glasses when shopping, performing payment through augmented reality, using a navigation function through augmented reality, or playing augmented reality games, , Watch a virtual reality video, make a video call with augmented reality or virtual reality, the operator can wear smart glasses and work in the field with augmented reality, or simply operate and use the functions of the smartphone on the screen of smart glasses have.

또한, 도 20을 참조하면, 본 실시예에 따른 스마트 안경의 제어장치는, 카메라를 통해 스테레오스코픽 이미지를 획득하고(S201), 이에 기초하여 손 이미지를 검출 또는 추출하며(S203), 그 다음에 일련의 손 이미지에 대응하여 휴대 단말이나 노트북 등의 모바일 컴퓨팅 장치의 화면 미러링(mirroring)을 수행할 수 있다(S206).In addition, referring to FIG. 20, the control apparatus of the smart glasses according to the present embodiment acquires a stereoscopic image through a camera (S201), and detects or extracts a hand image based on this (S203). Screen mirroring of a mobile computing device such as a mobile terminal or a notebook may be performed in response to the series of hand images (S206).

화면 미러링은, 스크린 미러링으로 지칭될 수 있으며, 별도의 선(line)을 연결하지 않고 무선으로 모바일 컴퓨팅 장치의 화면을 스마트 안경의 화면에서 볼 수 있도록 하는 기능을 말한다.Screen mirroring may be referred to as screen mirroring, and refers to a function of allowing a screen of a mobile computing device to be wirelessly viewed on a screen of smart glasses without connecting a separate line.

화면 미러링을 위해 스마트 안경의 제어장치나 제어보드의 디스플레이 인터페이스는 모바일 컴퓨팅 장치에서 화면 정보를 인코딩하여 주파수로 송신할 때, 이러한 화면 정보를 수신하여 디코딩하고 디코딩된 영상을 디스플레이를 통해 스마트 안경의 화면에 출력할 수 있다. 무선은 블루투스를 포함하나, 이에 한정되지는 않고, 다른 근거리 무선 통신 방식이 사용될 수 있다.For screen mirroring, the display device of the control device or the control board of the smart glasses receives and decodes the screen information when the mobile computing device encodes the screen information and transmits it at a frequency, and displays the screen of the smart glasses through the display. Can be output to Wireless includes, but is not limited to, Bluetooth, other short range wireless communication schemes may be used.

화면 미러링을 이용하면, 스마트 안경에서 통신 기능을 가진 휴대 단말에서 전화 수신, 전화 통화, 영상 통화 등을 수행하거나, 문자 착신, 문자 내용 확인 등을 수행하여 휴대 단말의 전화, 문자 등의 서비스를 편리하게 이용할 수 있도록 할 수 있다.With screen mirroring, you can receive calls, make phone calls, make video calls, or receive texts and check the contents of texts from a mobile device with a communication function. Can be made available.

도 21은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스를 설명하기 위한 도면이다. 도 22 및 23은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스의 변형예를 설명하기 위한 예시도들이다. 도 24는 본 실시예의 스마트 안경에 채용할 수 있는 사용자 인터페이스의 작동 원리를 설명하기 위한 도면이다. 도 25 및 26은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용된 사용자 인터페이스의 신호 처리 과정을 설명하기 위한 흐름도들이다.FIG. 21 is a diagram illustrating a user interface that may be employed in smart glasses according to another embodiment of the present invention. 22 and 23 are exemplary views for explaining a modification of the user interface that can be employed in the smart glasses according to another embodiment of the present invention. 24 is a view for explaining the principle of operation of the user interface that can be employed in the smart glasses of this embodiment. 25 and 26 are flowcharts illustrating a signal processing process of a user interface employed in smart glasses according to another embodiment of the present invention.

도 21 내지 23을 참조하면, 본 실시예에 따른 스마트 안경은 사용자 인터페이스로서 손, 손등, 팔뚝, 책상, 방문 등의 표면상에 가상의 터치패널을 띄워놓고 인터렉션 기능을 수행하는 형태로 구현될 수 있다. 이 경우, 스마트 안경에는 해당 신체 부분이나 사물을 인식하기 위한 센서 또는 카메라(도 17의 150 및 도 18의 151, 152 참조)가 탑재될 수 있다.21 to 23, the smart glasses according to the present embodiment may be implemented as a user interface by floating a virtual touch panel on a surface of a hand, a back of a hand, a forearm, a desk, a visit, and performing an interaction function. have. In this case, the smart glasses may be equipped with a sensor or a camera (see 150 in FIG. 17 and 151 and 152 in FIG. 18) for recognizing a corresponding body part or an object.

좀더 구체적으로 설명하면, 3차원 공간에서 사물을 인식하기 위해 카메라는 입체적 분석과 스테레오 기능을 위한 두 개의 적외선 센서(카메라)를 구비하고, 적외선 프로젝터가 공간에 적외선을 뿌릴 때, 해당 공간에서 반사되는 적외선을 읽어들여 사물, 좀더 구체적으로는 사물의 깊이를 감지할 수 있다. 적외선 프로젝터를 사용하면, 공간의 깊이 또는 거리를 용이하게 판단할 수 있다.More specifically, in order to recognize an object in a three-dimensional space, the camera is equipped with two infrared sensors (cameras) for stereoscopic analysis and stereo function, and when the infrared projector sprays infrared rays into the space, it is reflected from the space. By reading infrared rays, the depth of an object can be sensed. By using an infrared projector, it is possible to easily determine the depth or distance of the space.

적외선 프로젝터는 크게 2가지 디바이스 타입을 사용할 수 있다. 하나는 어떤 특정 패턴이나 무늬 형태로 적외선을 특정 공간에 조사하는, 소위, 스트럭쳐드 라이트(structured light) 구조를 가지거나, 오브젝트와 입체적 거리가 다른 것으로 적외선의 감도를 판단하는, 소위, 타임오브 플라이트(time of flight) 구조를 가질 수 있다. 한편 본 발명은 적외선 프로젝션을 사용하지 않고 두 개의 카메라를 깊이 센서(depth sensor)를 구현할 수 있다. 특히, 가까운 손의 제스처를 판독하는데 있어서 두 개의 카메라 센서만을 사용하는 것도 가능하다. 하나의 카메라 센서만으로도 깊이 인식을 할 수 있는 방법은 있으나 그 방법은 구현 및 사용이 복잡하므로 여기에서는 생략하기로 한다.Infrared projectors are available in two device types. One is the so-called time-of-flight, which has a so-called structured light structure that irradiates infrared rays into a specific space in a certain pattern or pattern, or determines the sensitivity of the infrared rays by different distances from objects. (time of flight) can have a structure. Meanwhile, the present invention may implement a depth sensor of two cameras without using infrared projection. In particular, it is also possible to use only two camera sensors for reading gestures of close hands. Although there is a method of recognizing depth with only one camera sensor, the method is complicated to implement and use, and thus it will be omitted here.

본 실시예에 따른 센서 또는 카메라를 이용한 깊이 인식(depth perception)과 관련하여 설명하면, 먼저 공간의 형태와 사물의 좌표를 얻을 수 있다. 물론, 이 단계는 신체 표면상에 구현하는 경우에 생략될 수 있다.Referring to depth perception using a sensor or a camera according to the present embodiment, first, a shape of a space and a coordinate of an object may be obtained. Of course, this step can be omitted if implemented on a body surface.

다음, 가상의 오브젝크가 그려질 공간의 위치를 찾을 수 있다. 이 단계에서는, 깊이 센서를 이용하여 가상의 오브젝트가 위치할 최적으로 장소를 찾을 수 있다. 이 경우, 스마트 안경에 적용되는 사용자 인터페이스 제어장치는 제어장치의 적어도 일부 구성부로서 손, 손등, 팔뚝 등의 해당 신체를 인식할 수 있도록 구현될 수 있다. 또한, 냉장고 문이나 방문의 표면에 오브젝트를 위치시키기 위해 해당 사물을 인식할 수 있도록 구현될 수 있다.Next, you can find the location of the space where the virtual object is to be drawn. In this step, the depth sensor can be used to find the best place to locate the virtual object. In this case, the user interface control device applied to the smart glasses may be implemented to recognize a corresponding body such as a hand, a back of a hand, a forearm, or the like as at least some components of the control device. In addition, it may be implemented to recognize the object in order to place the object on the surface of the refrigerator door or visit.

다음, 가상의 오브젝트를 크기, 방향, 곡면, 원근감의 속성을 갖도록 생성할 수 있다. 이 단계에서는, 가상의 오브젝트의 위치가 정해질 때, 사용자 인터페이스의 이미지 표면을 따라서 자연스럽게 오브젝트의 속성을 반영하여 해당 오브젝트를 그릴 수 있다. 오브젝트는 같은 평면이나 굴곡을 따라 적절한 크기와 방향 및 원근감을 갖도록 그려질 수 있다.Next, the virtual object may be created to have attributes of size, direction, curved surface, and perspective. In this step, when the virtual object is positioned, the object can be drawn naturally reflecting the object's attributes along the image surface of the user interface. Objects can be drawn to have the appropriate size, direction, and perspective along the same plane or curvature.

다음, 오브젝트를 터치하기 위해 접근하는 다른 손의 손가락이나 이에 대응하는 포인터의 끝을 인식할 수 있다. 이 단계에서, 구현에 따라서 특정 손가락을 지정하여 인식하도록 설정될 수 있다(도 34 참조). 이 경우, 중첩 터치 등의 동작 오류를 예방할 수 있다.Next, the finger of the other hand approaching to touch the object or the end of the corresponding pointer may be recognized. In this step, a specific finger may be designated and recognized according to an implementation (see FIG. 34). In this case, an operation error such as an overlapping touch can be prevented.

다음, 가상 오브젝트에 대응하는 특정 영역과 지정된 손가락 끝이 실질적으로 동일한 위치에 있는지를 인식하여 가상 접촉(터치)를 판단할 수 있다. 이 단계에서는 가상의 오브젝트가 가상 이미지 상에 그려진 상태에서 특정 오브젝트에 손가락이 중첩되어 인식되면 그 움직임의 제스처에 따라 프로세서가 미리 설정된 명령을 수행하도록 이루어질 수 있다.Next, the virtual contact (touch) may be determined by recognizing whether the specific region corresponding to the virtual object and the designated fingertip are substantially at the same position. In this step, when a finger is superimposed on a specific object while the virtual object is drawn on the virtual image, the processor may perform a preset command according to the gesture of the movement.

이를 위해 센서 또는 카메라에 연결된 프로세서는 신체 부분이나 사물을 감지하여 그 표면, 크기, 바닥 등을 인식할 수 있고, 모션 트랙킹 등의 기능을 이용하여 에지나 점 등의 특징 포인트들 간의 거리를 측정할 수 있다. 또한, 프로세서는 컬러이미지 데이터를 참조하여 텍스처링(texturing), 매싱(mashing) 등을 위한 포인트 클라우드(point cloud)를 생성하거나 포인트 클라우드의 색상을 검색하도록 구현될 수 있다.To this end, a processor connected to a sensor or camera can detect a body part or object and recognize the surface, size, floor, etc., and measure the distance between feature points such as an edge or a point using a function such as motion tracking. Can be. In addition, the processor may be implemented to generate a point cloud for texturing, mashing, or the like, or retrieve a color of the point cloud with reference to the color image data.

또한, 센서, 카메라, 프로세서 또는 이들의 조합은 0.5 내지 4M 정도의 거리에서 그리고 실내에서 가장 잘 작동하도록 설계될 수 있다. 이러한 구성은 적외선 조명과 깊이 신호처리(depth processing)에 필요한 전력을 균형 있게 유지하면서 좋은 성능을 발휘하는데 기여할 수 있다. 다만, 적외선을 잘 반사하지 않는 물체에 대하여는 스캔 성능이 저하될 수 있다.In addition, sensors, cameras, processors, or a combination thereof may be designed to work best at distances on the order of 0.5 to 4M and indoors. This configuration can contribute to good performance while balancing the power required for infrared illumination and depth processing. However, scanning performance may be deteriorated with respect to an object that does not reflect infrared rays well.

아울러, 본 실시예에서는 가상의 오브젝트가 실제 오브젝트와 같이 자연스럽게 섞여있는 것처럼 사용자에게 보여지도록 하기 위하여 추가 정보가 보강될 수 있다. 예를 들어, 가상 오브젝트의 위치에 따라 크기를 조정하거나, 입체면의 위치나 크기를 조정하거나, 조명의 색상이나 밝기 등의 상태를 조정할 수 있다. 게다가, 가상의 오브젝트가 표시되는 대상이 움직이는 상태라면, 위의 조건들을 조정함으로써 더욱 실제 같은 느낌을 사용자에게 제공할 수 있다.In addition, in the present embodiment, the additional information may be augmented so that the virtual objects are shown to the user as if they are naturally mixed with the real objects. For example, the size may be adjusted according to the position of the virtual object, the position or size of the three-dimensional surface, or the state of the color or brightness of the lighting may be adjusted. In addition, if the object on which the virtual object is displayed is in a moving state, the above conditions can be adjusted to provide the user with a more realistic feeling.

또한, 센서 또는 카메라에 연결된 프로세서는 입체시(stereopsis)를 처리하도록 구현될 수 있다. 입체시의 패넘 융합 영역은 사람의 눈에 의해 사용되는 양안 입체시(binocular stereopsis)에 대한 사용자 인터페이스 영역을 포함할 수 있다. 사용자 인터페이스 영역은 단일 비전의 영역일 수 있다. 이 경우, 프로세서에서 실행되는 소프트웨어와 같은 입체시 처리 시스템은 사용자의 시야 내에서 사용자의 현재 초점 영역을 결정할 수 있다. 이를 위해, 프로세서는 각 눈에 대한 눈 추적 카메라에 의해 캡처되는 데이터에 기초하여 눈 추적 처리를 수행할 수 있다. 눈 추적 처리는 사용자의 현재 초점 영역을 획득하고, 이에 기초하여 처리 동작을 수행할 수 있다. 안구 사이의 컨버전스(convergence)는 사용자의 얼굴 위치를 나타내는 데이터와 함께 초점 곡선, 호롭터(horopter) 상의 초점으로 삼각측량을 수행하는데 사용될 수 있다. 프로세서 내 초점 영역 조정 모듈은 제어 회로를 통해 현재 사용자의 초점 영역에서 적어도 하나의 눈의 초점을 맞추기 위해 배치된 가변 초점 렌즈를 조정할 수 있다.In addition, a processor coupled to the sensor or camera may be implemented to handle stereopsis. The phantom fusion region of stereoscopic vision may comprise a user interface region for binocular stereopsis used by the human eye. The user interface area may be an area of a single vision. In this case, a stereoscopic vision processing system, such as software running on a processor, may determine the user's current focus area within the user's field of view. To this end, the processor may perform eye tracking processing based on the data captured by the eye tracking camera for each eye. The eye tracking process may acquire a current focus area of the user and perform a processing operation based on the current focus area. Convergence between the eyes can be used to perform triangulation with focus curves, focus on the horopter, along with data indicative of the position of the user's face. The focus area adjustment module in the processor may adjust the variable focus lens disposed to focus the at least one eye in the focus area of the current user through the control circuit.

일례로, 실제 공간의 특정 위치에 가상의 오브젝트를 입체로 그리는 방법을 설명하면 다음과 같다.As an example, a method of drawing a virtual object in three dimensions at a specific position in a real space will be described below.

먼저, 가상의 오브젝트가 표시되는 사용자 인터페이스 이미지의 표면을 기본 허상 위치로 설정할 수 있다. 그리고, 기본 허상 위치 앞이나 뒤에는 공간 속에 그려질 가상 오브젝트가 그려질 수 있다. 이때, 가상 오브젝트는 그 위치에 따라 사용자의 왼쪽 눈과 오른쪽 눈에서 볼 때 그 위치와 크기가 다르게 된다. 즉, 각각의 눈에 비친 가상 오브젝트의 2차원 이미지가 사용자의 뇌로 전달되어 3차원의 가상 오브젝트를 인식하게 된다. 여기에서 역으로 계산하여 보면, 왼쪽 눈이 보게 될 이미지와 오른쪽 눈이 보게 될 이미지를 각각의 영상으로 그리게 되면 사용자의 뇌는 그것을 입체로 인식할 수 있다.First, the surface of the user interface image on which the virtual object is displayed may be set as the default virtual image position. In addition, a virtual object to be drawn in space may be drawn before or after the basic virtual image position. At this time, the virtual object has a different position and size when viewed from the left eye and the right eye of the user according to its position. That is, the two-dimensional image of the virtual object reflected in each eye is transmitted to the user's brain to recognize the three-dimensional virtual object. Inversely, if the user draws an image for the left eye and an image for the right eye, the user's brain can recognize it in three dimensions.

따라서, 본 실시예에서는 도 21의 (a) 내지 (c)와 도 22 및 도 23에 나타낸 바와 같이 깊이 센서(depth sensor)로 손바닥(510), 손등(520), 팔뚝(530), 책상(540), 냉장고 도어(door), 방문(550), 벽 등의 이미지 출사 대상을 추적하고, 실제 공간과 사물의 위치 및 크기를 판단하고 좌표계를 만들고 이에 기초하여 원하는 위치에 가상 오브젝트(600, 610)를 위치시킬 수 있다. 가상 오브젝트는 사용자 인터페이스 이미지를 포함하거나 그 역도 가능하다. 아울러 본 실시예의 프로세서 내 입체시 처리 시스템, 가상 오브젝트 제어부 또는 이들의 조합은 가상 오브젝트에 접근하는 지시 포인터의 중첩을 인식하여 미리 설정된 명령이나 일련의 동작을 수행할 수 있다.Therefore, in the present embodiment, as shown in FIGS. 21A to 21, and FIGS. 22 and 23, the palm 510, the back of the hand 520, the forearm 530, and the desk (a depth sensor) are used as the depth sensor. 540, a target of image output such as a refrigerator door, a visit 550, a wall, and the like, determine a location and size of a real space and an object, create a coordinate system, and based on the virtual object 600, 610. ) Can be placed. The virtual object includes a user interface image or vice versa. In addition, the stereoscopic vision processing system, the virtual object controller, or a combination thereof in the processor of the present embodiment may recognize a superposition of an instruction pointer for accessing the virtual object and perform a preset command or a series of operations.

깊이 센서를 이용하여 손바닥을 검출하는 과정을 좀더 살펴보면, 도 34에 도시한 바와 같이, 프로세서 내 손바닥 검출 시스템은 센서 또는 카메라에 의해 획득한 영상에서 손의 외곽선(562)을 추출하거나 손의 관절(550)과 손가락 끝(566)의 위치를 추출할 수 있다. 즉, 획득한 영상에 기초하여 얻은 포인트 클라우드에 기초하여 손의 외곽선(562)을 추출하거나 손의 관절(556)과 손가락의 끝(566)을 추출할 수 있다.Looking at the process of detecting the palm using the depth sensor, as shown in FIG. 34, the palm detection system in the processor extracts the outline of the hand 562 from the image acquired by the sensor or the camera, or the joint of the hand ( 550 and the fingertips 566 may be extracted. That is, the outline 562 of the hand may be extracted or the joint 556 of the hand and the tip 566 of the finger may be extracted based on the point cloud obtained based on the acquired image.

또한, 손바닥을 펴지 않고, 주먹을 쥐었을 때나 손바닥을 뒤집었을 때 가상의 오브젝트도 그것을 맞춰 보이거나 가려지는 방식을 구현하는 경우에는, 관절 추출을 이용하는 것이 바람직하다. 관절 추출을 이용하면, 손동작에 대한 제스처를 구체적으로 판단할 수 있다.In addition, it is preferable to use joint extraction when the virtual object is also matched or hidden when the fist is clenched or the palm is inverted without opening the palm. Using the joint extraction, it is possible to specifically determine the gesture for the hand gesture.

인식된 손바닥에는 가상 오브젝트(600)이 표시되고, 이러한 가상 오브젝튼(600)는 사용자의 다른 손이나 이에 대응하는 포인터와의 조합에 의해 사용자로부터의 입력 신호를 획득하는 사용자 인터페이스로서 기능할 수 있다.A virtual object 600 is displayed on the recognized palm, and the virtual object 600 may function as a user interface for acquiring an input signal from the user by a combination of another hand of the user or a pointer corresponding thereto. .

물론, 인식된 손바닥은 다른 손으로서 또한 포인터로서 사용될 수 있으며, 그 경우, 손바닥 인식을 시작으로 미리 설정된 다양한 제스처 세부동작에 따라 미리 설정된 명령을 수행하는데 사용될 수 있다.Of course, the recognized palm may be used as the other hand and also as a pointer, in which case it may be used to perform a preset command according to various gesture sub-sets preset in advance with palm recognition.

전술한 입체시 처리 시스템, 가상 오브젝트 제어부, 이들의 조합 또는 이들을 포함하는 프로세서는, 도 25 및 26에 도시한 바와 같은 일련의 동작을 수행할 수 있다.The above-described stereoscopic vision processing system, the virtual object controller, a combination thereof, or a processor including the same may perform a series of operations as shown in FIGS. 25 and 26.

먼저, 스마트 안경에 탑재된 프로세서는 손 또는 손목의 구조적 특징을 갖는 물체를 인식할 수 있다(S301). 물체는 손바닥, 손등, 팔뚝, 사물, 벽, 문 등을 포함할 수 있다.First, the processor mounted in the smart glasses may recognize an object having a structural feature of the hand or the wrist (S301). Objects may include palms, back of hands, forearms, objects, walls, doors, and the like.

다음, 복수개의 물체가 발견되었는지를 판단할 수 있다(S302). 복수의 물체가 발견되면, 프로세서는 미리 설정된 처리 정책에 따라 복수의 물체들 중 하나를 선택할 수 있다(S303). 선택 기준은 물체에 대한 우선순위이거나 영상의 중앙에 위치하거나 영상에서 가장 큰 영역을 차지하는 등의 기준을 포함하도록 설정될 수 있다.Next, it may be determined whether a plurality of objects are found (S302). If a plurality of objects is found, the processor may select one of the plurality of objects according to a preset processing policy in operation S303. The selection criterion may be set to include a criterion such as a priority of the object, a center of the image, or occupying the largest area of the image.

다음, 인식되거나 선택된 물체의 구조적 특징에 기초하여 사용자 인터페이스(user interface, UI) 이미지가 그려질 영역을 탐색할 수 있다(S304). UI 이미지는 가상 오브젝트에 대응하거나 포함할 수 있으며, 그 역도 가능하다.Next, the user interface (UI) image may be searched for based on the structural feature of the recognized or selected object (S304). The UI image may correspond to or include a virtual object and vice versa.

다음, 프로세서는 탐색된 영역에 대하여 UI 이미지를 그릴 영역의 적정 크기를 결정하거나 조정할 수 있다(S305). UI 이미지의 적정 크기나 위치 또는 배치 방향은 인식되거나 선택된 물체의 종류나 그에 따른 UI 이미지 배치 영역에 의해 미리 설정된 규칙이나 설정에 따라 결정될 수 있다.Next, the processor may determine or adjust an appropriate size of the area in which the UI image is to be drawn with respect to the searched area (S305). The appropriate size, position or arrangement direction of the UI image may be determined according to a predetermined rule or setting by the type of the recognized or selected object or the UI image arrangement region accordingly.

다음, 조정된 크기의 UI 이미지를 탐색된 영역에 생성할 수 있다. 이때 UI 이미지는 그 배경이 되는 3차원 평면이나 곡면과 함께 생성될 수 있다(S306). 3차원 평면이나 곡면은 가상 오브젝트와의 대비에 의해 사용자가 가상 오브젝트나 UI 이미지를 더욱 잘 볼 수 있도록 기능할 수 있다. Next, a UI image of the adjusted size may be generated in the searched area. In this case, the UI image may be generated together with the 3D plane or the curved surface as the background (S306). The three-dimensional plane or curved surface may function to allow the user to see the virtual object or the UI image better by contrast with the virtual object.

다음, 스마트 안경에 탑재된 프로세서는 물체 상에 출사되고 있는 UI 이미지에 근접하는 다른 손의 구조적 특징을 갖는 물체를 인식할 수 있다(S311). 다른 손이나 물체는 포인터에 포함되거나 포인터로서 지칭될 수 있다.Next, the processor mounted on the smart glasses may recognize an object having structural features of another hand approaching the UI image emitted on the object (S311). Another hand or object may be included in or referred to as a pointer.

다음, 프로세서는 포인터가 복수개 발견되었는지를 판단할 수 있다(S312). 발견된 포인터가 복수이면, 프로세서는 미리 저장된 처리 정책에 따라 복수의 포인터들 중 어느 하나를 선택할 수 있다(S313).Next, the processor may determine whether a plurality of pointers are found (S312). If there are a plurality of found pointers, the processor may select any one of the plurality of pointers according to a prestored processing policy (S313).

다음, 프로세서는 UI 내 특정 오브젝트에 손가락 끝이 특정 범위 이내로 근접했는지를 판단할 수 있다(S314). 근접은 중첩된 것을 포함할 수 있고, 근접 정도를 나타내는 인식 수치에서 중첩은, 두 물체의 거리를 기준으로 두 물체가 맞닿은 상태를 0으로 할 때, 음수 값을 가질 수 있다. 특정 범위 이내로 손가락 끝이 근접하지 않았으면, 프로세서는 다른 손이나 물체를 인식하는 단계를 유지하거나 상기 단계로 되돌아갈 수 있다.Next, the processor may determine whether a fingertip is close to a specific object in the UI within a specific range (S314). Proximity may include overlapping, and in a recognition value indicating the degree of proximity, overlap may have a negative value when the two objects are brought into contact with each other based on the distance between the two objects. If the fingertips are not within a certain range, the processor may maintain or return to the step of recognizing the other hand or object.

특정 범위 이내로 손가락 끝이 근접하였으면, 프로세서는 하나의 손가락 끝이나 이에 상응하는 포인터의 끝에 대응하는 복수개의 오브젝트가 존재하는지를 판단할 수 있다(S315).If the fingertip is within a certain range, the processor may determine whether a plurality of objects corresponding to one fingertip or the end of the pointer corresponding thereto exist (S315).

상기 단계(S315)의 판단 결과, 복수의 오브젝트가 존재하면, 프로세서는 미리 설정된 근접 우선정책에 따라 최근접을 판정할 수 있다(S316). 최근접 판정은 기본적으로 포인터 끝과 오브젝트 간의 거리나 중첩 거리를 기준으로 판단할 수 있다. 또한, 최근접 판정은 복수의 오브젝트들 중 미리 설정된 우선순위, 가중치, 근접 거리들 간의 차이, 또는 이들의 조합에 기초하여 결정될 수 있다.As a result of the determination in step S315, if a plurality of objects exist, the processor may determine the nearest point according to the preset proximity priority policy (S316). The nearest determination may be basically determined based on the distance between the pointer end and the object or the overlapping distance. In addition, the nearest determination may be determined based on a preset priority, a weight, a difference between proximity distances, or a combination thereof among the plurality of objects.

다음, 프로세서는 손가락 끝이나 포인터의 끝에 대응하는 오브젝트에 대하여 터치된 것으로 판정(터치 판정)하고, 터치 판정된 해당 UI 오브젝트의 식별자(ID)를 반환한 후 미리 설정된 터치 리액션을 실행할 수 있다(S317).Next, the processor may determine that the object corresponding to the fingertip or the end of the pointer is touched (touch determination), return the identifier (ID) of the corresponding UI object that is determined to be touched, and then execute a preset touch reaction (S317). ).

전술한 실시예에는 스마트 안경에 탑재된 스테레오 RGB 카메라가 이용되거나, 적외선 프로젝터 또는 스테레오 적외선 카메라가 이용될 수 있다. 본 실시예에 의하면, 양안 입체시를 이용한 증강현실을 구현하고 사용자의 제스처에 따라 사용자 인터페이스를 통해 입력되는 터치 신호나 이벤트를 감지하여 미리 설정된 동작을 실행할 수 있다. 따라서, 사용자 편의성을 높이고 다양한 증강현실 서비스와 이를 접목한 스마트 안경 서비스를 제공할 수 있다.In the above-described embodiment, a stereo RGB camera mounted in smart glasses may be used, or an infrared projector or a stereo infrared camera may be used. According to the present embodiment, augmented reality using binocular stereoscopic vision may be implemented, and a preset operation may be executed by detecting a touch signal or an event input through a user interface according to a gesture of a user. Therefore, it is possible to increase user convenience and provide various augmented reality services and smart glasses services incorporating the same.

도 27은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 사시도이다. 도 28은 도 27의 스마트 안경에 대한 정면도이다. 도 29 및 도 30은 도 28의 스마트 안경에 대한 사용 상태도이다.27 is a perspective view of smart glasses according to another embodiment of the present invention. FIG. 28 is a front view of the smart glasses of FIG. 27. 29 and 30 are diagrams illustrating a use state of the smart glasses of FIG. 28.

본 실시예에 따른 스마트 안경은, 도 27 내지 도 28에 도시한 바와 같은 외관을 구비할 수 있다. 스마트 안경은 양쪽의 메인렌즈를 통해 사용자의 양쪽 눈에 영상을 제공할 수 있으며, 도 29에 도시한 바와 같이, 전원 및 제어를 위한 장치와 유선 또는 무선으로 연결될 수 있다. 또한, 도 30에 도시한 바와 같이, 스마트 안경은 자외선 차단, 필터, 색상 추가 기능 등을 위한 쉴드가 결합될 수 있는 구성부를 구비할 수 있다.The smart glasses according to the present embodiment may have an appearance as shown in FIGS. 27 to 28. Smart glasses may provide an image to both eyes of the user through both main lenses, and as shown in FIG. 29, the smart glasses may be wired or wirelessly connected to a device for power and control. In addition, as shown in Figure 30, the smart glasses may be provided with a component that can be combined with the shield for UV protection, filters, color addition function and the like.

도 31은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 정면도이다. 도 32 및 도 33은 도 31의 스마트 안경에 대한 사용 상태도이다.31 is a front view of smart glasses according to another embodiment of the present invention. 32 and 33 are diagrams illustrating a use state of the smart glasses of FIG. 31.

본 실시예에 따른 스마트 안경은, 도 31에 도시한 바와 같은 외관을 구비할 수 있으며, 한쪽의 메인렌즈에만 영상을 제공할 수 있도록 설치되거나 다른 한쪽의 메인렌즈를 착탈식으로 구비하도록 구성될 수 있다. 또한, 도 32 및 도 33에 도시한 바와 같이, 전원 및 제어를 위한 장치와 유선 또는 무선으로 연결될 수 있음은 물론이다. 아울러, 도 33에 도시한 바와 같이, 스마트 안경은 쉴드가 추가로 결합될 수 있는 결합구조 등의 구성부를 구비할 수 있다.The smart glasses according to the present embodiment may have an appearance as shown in FIG. 31 and may be installed to provide an image only to one main lens or may be configured to be detachably provided with the other main lens. . In addition, as shown in FIG. 32 and FIG. 33, it is a matter of course that can be connected to the device for power and control by wire or wireless. In addition, as shown in Figure 33, the smart glasses may be provided with a component such as a coupling structure that the shield can be further coupled.

도 34 및 도 35는 본 발명의 실시예에 따른 스마트 안경의 전원 및 제어를 위한 장치의 외관을 보여주는 사시도들이다.34 and 35 are perspective views illustrating an appearance of a device for power and control of smart glasses according to an embodiment of the present invention.

도 34 및 도 35에 도시한 바와 같이, 스마트 안경의 전원 및 제어를 위한 장치는 넥 밴드(neck band) 형태를 구비할 수 있고, 제어보드, 제어시스템 등으로 지칭될 수 있으며, 카메라, 스피커, 이어폰 등을 구비하고, 리모트 컨트롤(remote control)을 위한 버튼, 조그셔틀 등의 구성부를 구비할 수 있다.34 and 35, the apparatus for powering and controlling the smart glasses may have a neck band shape, and may be referred to as a control board, a control system, a camera, a speaker, Earphones and the like may be provided, and components such as buttons and jog shuttles for remote control may be provided.

상기에서는 본 발명의 바람직한 실시예들에 관하여 설명하였지만, 본 발명의 기술분야에서 통상의 지식을 가진 사람이라면 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음은 이해할 수 있을 것이다.While preferred embodiments of the present invention have been described above, those skilled in the art will appreciate that the present invention may be modified in various ways without departing from the spirit and scope of the invention as set forth in the claims below. It will be appreciated that modifications and variations are possible.

Claims (7)

안경 프레임 형태를 구비하는 프레임 어셈블리;
상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때 상기 얼굴의 중앙부 상에 위치하는 디스플레이 장치; 및
상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때 상기 디스플레이 장치의 영상을 상기 사용자의 양쪽 눈이 위치하는 방향으로 전달하는 광학계(optical system)를 포함하고,
상기 광학계는 상기 사용자의 눈 앞에서 상기 디스플레이 장치로부터 전달되는 영상을 부분 반사 및 부분 투과하는 적어도 하나의 메인렌즈를 구비하고,
상기 사용자의 눈에 보이는 영상은 상기 메인렌즈 뒤에서 일정 거리 떨어진 허상면에 맺히는 영상인 것을 특징으로 하는 스마트 안경.
A frame assembly having a spectacle frame shape;
A display device supported by the frame assembly and positioned on a central portion of the face when the frame assembly is worn on a user's face; And
An optical system that is supported by the frame assembly and transmits an image of the display device in a direction in which both eyes of the user are located when the frame assembly is worn on the face of the user,
The optical system includes at least one main lens for partially reflecting and partially transmitting an image transmitted from the display device in front of the user's eyes,
Smart glasses, characterized in that the image is visible on the virtual image spaced a certain distance behind the main lens.
청구항 1에 있어서,
상기 광학계는,
상기 디스플레이 장치에 속한 제1 디스플레이의 제1 영상을 비구면 볼록면을 통해 확대하는 제1 보조렌즈와 상기 제1 보조렌즈에서 전달되는 제1 영상을 반사 및 투과하는 제1 메인렌즈를 구비한 제1 광학 시스템과,
상기 디스플레이 장치에 속한 제2 디스플레이의 제2 영상을 비구면 볼록면을 통해 확대하는 제2 보조렌즈와 상기 제2 보조렌즈에서 전달되는 제2 영상을 반사 및 투과하는 제2 메인렌즈를 구비한 제2 광학 시스템을 포함하는, 스마트 안경.
The method according to claim 1,
The optical system,
A first auxiliary lens for enlarging a first image of the first display belonging to the display device through an aspherical convex surface and a first main lens for reflecting and transmitting the first image transmitted from the first auxiliary lens Optical system,
A second auxiliary lens for enlarging a second image of the second display belonging to the display device through an aspherical convex surface and a second main lens for reflecting and transmitting a second image transmitted from the second auxiliary lens; Smart glasses, including an optical system.
청구항 2에 있어서,
상기 광학계는,
상기 제1 디스플레이와 상기 제1 보조렌즈 사이에 배치되어 상기 제1 영상을 반사하는 제1 미러와,
상기 제2 디스플레이와 상기 제2 보조렌즈 사이에 배치되어 상기 제2 영상을 반사하는 제2 미러를 포함하는, 스마트 안경.
The method according to claim 2,
The optical system,
A first mirror disposed between the first display and the first auxiliary lens to reflect the first image;
And a second mirror disposed between the second display and the second auxiliary lens to reflect the second image.
청구항 3에 있어서,
상기 제1 영상은 상기 제1 디스플레이에서 상기 사용자의 미간 또는 코(nose) 위에 배치되어 상기 사용자의 어느 한쪽 눈 상부에 위치하는 제1 미러로 출력되고, 상기 제1 미러에 의해 상기 눈 상부에서 눈 하부로 반사되어 상기 제1 보조렌즈에 입사되며, 상기 제1 보조렌즈에서 확대되어 상기 제1 메인렌즈에 전달되고, 상기 제1 메인렌즈에서 반사 및 투과되어 상기 사용자의 눈에 보여지며,
상기 제2 영상은 상기 제2 디스플레이에서 상기 사용자의 미간 또는 코(nose) 위에 배치되어 상기 사용자의 나머지 한쪽 눈 상부에 위치하는 제2 미러로 출력되고, 상기 제2 미러에 의해 상기 눈 상부에서 눈 하부로 반사되어 상기 제2 보조렌즈에 입사되며, 상기 제2 보조렌즈에서 확대되어 상기 제2 메인렌즈에 전달되고, 상기 제2 메인렌즈에서 반사 및 투과되어 상기 사용자의 눈에 보여지는, 스마트 안경.
The method according to claim 3,
The first image is output to a first mirror positioned on the user's forehead or nose on the first display and positioned above one eye of the user, and is first displayed on the eye by the first mirror. Reflected downward and incident on the first auxiliary lens, the first auxiliary lens is enlarged and transmitted to the first main lens, reflected and transmitted by the first main lens, and is visible to the user's eyes.
The second image is output on a second mirror positioned above the user's forehead or nose in the second display and positioned above the other eye of the user, and is output from the upper part of the eye by the second mirror. Smart glasses reflected downward and incident on the second auxiliary lens, magnified from the second auxiliary lens and transmitted to the second main lens, and reflected and transmitted from the second main lens to the user's eye. .
청구항 1에 있어서,
상기 제1 메인렌즈와 상기 제2 메인렌즈 각각은 인접한 측면 프레임과의 사이에 빈 공간을 구비하는, 스마트 안경.
The method according to claim 1,
Each of the first main lens and the second main lens has an empty space between adjacent side frames.
청구항 1에 있어서,
상기 프레임 어셈블리의 중앙 프레임 또는 메인 프레임의 좌측 또는 우측 프레임 부분에 수납되며 상기 제1 및 제2 디스플레이들 중 어느 하나 이상에 연결되는 통신 및 전원 보드를 더 포함하고, 상기 통신 및 전원 보드는 유선으로 외부의 제어 및 전원 장치와 연결되고 상기 제어 및 전원 장치와 상기 제1 및 제2 디스플레이들 간의 신호 및 데이터 통신을 전달하는 스마트 안경.
The method according to claim 1,
And a communication and power board housed in a central frame of the frame assembly or a left or right frame portion of the main frame and connected to any one or more of the first and second displays, wherein the communication and power board is wired. Smart glasses connected to an external control and power supply and transferring signal and data communication between the control and power supply and the first and second displays.
청구항 6에 있어서,
상기 통신 및 전원 보드에 연결되는 제어장치를 더 포함하며,
상기 제어장치는 양안 시차에 대응하도록 상기 제1 영상을 기준으로 상기 제2 영상을 일방향으로 일정 픽셀 쉬프트하여 출력하는, 스마트 안경.
The method according to claim 6,
Further comprising a control device connected to the communication and power board,
The control apparatus shifts the second image by one pixel in one direction based on the first image so as to correspond to binocular parallax, and outputs the smart glasses.
KR1020180017874A 2018-02-13 2018-02-13 Smart glasses capable of processing virtual objects KR102218210B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180017874A KR102218210B1 (en) 2018-02-13 2018-02-13 Smart glasses capable of processing virtual objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180017874A KR102218210B1 (en) 2018-02-13 2018-02-13 Smart glasses capable of processing virtual objects

Publications (2)

Publication Number Publication Date
KR20190097894A true KR20190097894A (en) 2019-08-21
KR102218210B1 KR102218210B1 (en) 2021-02-22

Family

ID=67808316

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180017874A KR102218210B1 (en) 2018-02-13 2018-02-13 Smart glasses capable of processing virtual objects

Country Status (1)

Country Link
KR (1) KR102218210B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110824714A (en) * 2019-12-06 2020-02-21 Oppo广东移动通信有限公司 Tie assembly for head-mounted device and head-mounted device
CN110908121A (en) * 2019-12-06 2020-03-24 Oppo广东移动通信有限公司 Head-mounted device
CN110908115A (en) * 2019-12-06 2020-03-24 Oppo广东移动通信有限公司 Head-mounted device
CN110967839A (en) * 2019-12-06 2020-04-07 Oppo广东移动通信有限公司 Protective shell and head-mounted equipment
CN110967838A (en) * 2019-12-06 2020-04-07 Oppo广东移动通信有限公司 Head-mounted device
WO2021246597A1 (en) * 2020-06-01 2021-12-09 삼성전자 주식회사 Wearable electronic device comprising display

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1184314A (en) * 1997-09-02 1999-03-26 Minolta Co Ltd Video observing device
JP2013114022A (en) * 2011-11-29 2013-06-10 Seiko Epson Corp Polarizing device and display device
JP2015087921A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
KR101549074B1 (en) 2013-12-11 2015-09-02 (주)대한특수금속 Smart glass and connecting gender thereof
KR20150104769A (en) * 2014-03-06 2015-09-16 엘지전자 주식회사 glass-type mobile terminal
KR101588402B1 (en) 2014-09-02 2016-01-25 주식회사 라온텍 Optical system for smart eyeglass

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1184314A (en) * 1997-09-02 1999-03-26 Minolta Co Ltd Video observing device
JP2013114022A (en) * 2011-11-29 2013-06-10 Seiko Epson Corp Polarizing device and display device
JP2015087921A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
KR101549074B1 (en) 2013-12-11 2015-09-02 (주)대한특수금속 Smart glass and connecting gender thereof
KR20150104769A (en) * 2014-03-06 2015-09-16 엘지전자 주식회사 glass-type mobile terminal
KR101588402B1 (en) 2014-09-02 2016-01-25 주식회사 라온텍 Optical system for smart eyeglass

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110824714A (en) * 2019-12-06 2020-02-21 Oppo广东移动通信有限公司 Tie assembly for head-mounted device and head-mounted device
CN110908121A (en) * 2019-12-06 2020-03-24 Oppo广东移动通信有限公司 Head-mounted device
CN110908115A (en) * 2019-12-06 2020-03-24 Oppo广东移动通信有限公司 Head-mounted device
CN110967839A (en) * 2019-12-06 2020-04-07 Oppo广东移动通信有限公司 Protective shell and head-mounted equipment
CN110967838A (en) * 2019-12-06 2020-04-07 Oppo广东移动通信有限公司 Head-mounted device
CN110824714B (en) * 2019-12-06 2022-04-01 Oppo广东移动通信有限公司 Tie assembly for head-mounted device and head-mounted device
CN110967838B (en) * 2019-12-06 2022-06-07 Oppo广东移动通信有限公司 Head-mounted device
WO2021246597A1 (en) * 2020-06-01 2021-12-09 삼성전자 주식회사 Wearable electronic device comprising display
EP4137871A4 (en) * 2020-06-01 2023-11-22 Samsung Electronics Co., Ltd. Wearable electronic device comprising display

Also Published As

Publication number Publication date
KR102218210B1 (en) 2021-02-22

Similar Documents

Publication Publication Date Title
KR102218210B1 (en) Smart glasses capable of processing virtual objects
US10009542B2 (en) Systems and methods for environment content sharing
US11378802B2 (en) Smart eyeglasses
US10114466B2 (en) Methods and systems for hands-free browsing in a wearable computing device
KR102218207B1 (en) Smart glasses capable of processing virtual objects
JP6433914B2 (en) Autostereoscopic augmented reality display
US9100732B1 (en) Hertzian dipole headphone speaker
KR102051202B1 (en) Smart glasses capable of processing virtual objects
US9274599B1 (en) Input detection
KR102269833B1 (en) Smart glasses
US20140085190A1 (en) Display, Imaging System and Controller for Eyewear Display Device
US20160291327A1 (en) Glass-type image display device and method for controlling same
KR102206570B1 (en) Smart glasses
AU2014281726A1 (en) Virtual object orientation and visualization
WO2013166362A2 (en) Collaboration environment using see through displays
US10734706B1 (en) Antenna assembly utilizing space between a battery and a housing
US9223451B1 (en) Active capacitive sensing on an HMD
EP3894981B1 (en) Modular accessory systems for wearable devices
KR20150070874A (en) Grass type device and control method thereof
WO2018182159A1 (en) Smart glasses capable of processing virtual object
KR102191433B1 (en) Smart glasses
US9535519B1 (en) Smart housing for extending trackpad sensing
US9800849B2 (en) Combined optical lens module and optical imaging device using the same
US11927761B1 (en) Head-mounted display systems
US11899214B1 (en) Head-mounted device with virtually shifted component locations using a double-folded light path

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant