KR102218210B1 - Smart glasses capable of processing virtual objects - Google Patents

Smart glasses capable of processing virtual objects Download PDF

Info

Publication number
KR102218210B1
KR102218210B1 KR1020180017874A KR20180017874A KR102218210B1 KR 102218210 B1 KR102218210 B1 KR 102218210B1 KR 1020180017874 A KR1020180017874 A KR 1020180017874A KR 20180017874 A KR20180017874 A KR 20180017874A KR 102218210 B1 KR102218210 B1 KR 102218210B1
Authority
KR
South Korea
Prior art keywords
image
lens
smart glasses
display device
user
Prior art date
Application number
KR1020180017874A
Other languages
Korean (ko)
Other versions
KR20190097894A (en
Inventor
문명일
Original Assignee
주식회사 메카비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메카비전 filed Critical 주식회사 메카비전
Priority to KR1020180017874A priority Critical patent/KR102218210B1/en
Publication of KR20190097894A publication Critical patent/KR20190097894A/en
Application granted granted Critical
Publication of KR102218210B1 publication Critical patent/KR102218210B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)

Abstract

디스플레이를 구비하고 가상 오브젝트를 처리할 수 있는 스마트 안경이 개시된다. 스마트 안경은 다수의 프레임들에 의해 안경 형태를 형성하는 프레임 어셈블리, 프레임 어셈블리에 탑재되는 전장부품, 전장부품의 제어장치에 의해 제어되고 프레임 어셈블리의 중앙 상부측 및 중앙 하부측에 배치되는 제1 디스플레이 장치 및 제2 디스플레이 장치, 및 제1 디스플레이 장치에서 출력되는 제1 영상과 제2 디스플레이 장치에서 출력되는 제2 영상을 전달하면서 영상 사이즈를 확대하고 축소 혹은 포커싱하여 제1 메인 렌즈와 제2 메인 렌즈 상에 각각 투사하는 광학계를 포함하며, 제1 영상 및 제2 영상은 제1 메인 렌즈와 제2 메인 렌즈 상에서 사용자의 눈에 보여진다.Smart glasses are disclosed that have a display and are capable of handling virtual objects. Smart glasses are a frame assembly that forms a shape of glasses by a plurality of frames, an electrical component mounted on the frame assembly, and a first display controlled by a control device of the electrical component and disposed at the upper center and lower center of the frame assembly. The device, the second display device, and the first main lens and the second main lens by expanding and reducing or focusing the image size while transmitting the first image output from the first display device and the second image output from the second display device Each includes an optical system projecting onto the image, and the first image and the second image are viewed by the user's eyes on the first main lens and the second main lens.

Description

가상 오브젝트의 처리가 가능한 스마트 안경{SMART GLASSES CAPABLE OF PROCESSING VIRTUAL OBJECTS}Smart glasses that can process virtual objects{SMART GLASSES CAPABLE OF PROCESSING VIRTUAL OBJECTS}

본 발명의 실시예들은 스마트 안경에 관한 것으로, 보다 상세하게는 카메라와 디스플레이 장치를 구비하고 가상 오브젝트를 처리할 수 있는 스마트 안경에 관한 것이다.Embodiments of the present invention relate to smart glasses, and more particularly, to smart glasses that have a camera and a display device and can process virtual objects.

헤드 마운트 디스플레이(Head Mount Display; HMD)는 안경처럼 얼굴에 착용하고 멀티미디어 콘텐츠를 안구에 근접한 형태로 안경 상에 가상의 영상을 디스플레이하는 디지털 디바이스를 말한다.Head Mount Display (HMD) refers to a digital device that is worn on the face like glasses and displays a virtual image on glasses in a form close to the eyeball with multimedia contents.

HMD는 단순한 디스플레이 기능을 넘어 증강현실(Augmented Reality) 기술 등과 조합하여 사용자에게 다양한 편의를 제공해 줄 수 있고, 외부 디지털 디바이스와 통신을 수행하여 해당 콘텐츠를 출력할 수 있을 뿐만 아니라 외부 디지털 디바이스를 위한 사용자 입력을 수신하거나 해당 외부 디지털 디바이스와 연동한 작업의 수행도 지원한다. 최근, HMD에 대한 연구 개발이 활발하게 이루어지고 있다.HMD can provide various conveniences to users by combining augmented reality technology, etc., beyond a simple display function, and can communicate with external digital devices to output relevant contents, as well as users for external digital devices. It also supports receiving inputs or performing tasks linked with the corresponding external digital device. Recently, research and development on HMD has been actively conducted.

증강현실은 실세계에 3차원의 가상 물체를 겹쳐서 보여주는 기술을 활용해 현실과 가상환경을 융합하는 복합형 가상현실(Virtual Reality) 기술 중 하나이다. 이러한 증강현실은 군사, 오락, 의료, 학습, 영화, 건축설계, 관광 등 다양한 분야에 활용되면서 공상과학 소설이나 영화에서 묘사되는 상상적 단계를 벗어나 점차 현실화되고 있다.Augmented reality is one of the hybrid virtual reality technologies that combine reality and virtual environments by using technology to superimpose 3D virtual objects on the real world. Such augmented reality is gradually becoming a reality, out of the imaginary stage depicted in science fiction novels and movies, as it is used in various fields such as military, entertainment, medical care, learning, film, architectural design, and tourism.

증강현실은 가상현실의 한 분야이며, 가상현실 시스템들은 창문형 시스템(Window Systems), 거울형 시스템(Mirror Systems), 탑승형 시스템(Vehicle-based Systems), 증강현실 시스템(Aumented Reality Systems) 등으로 분류될 수 있다.Augmented reality is a field of virtual reality, and virtual reality systems are classified into window systems, mirror systems, vehicle-based systems, and augmented reality systems. Can be.

가상현실 시스템은 입력장치와 출력장치를 포함한다. 출력장치는 사용자들이 감각채널을 통해 시각, 청각, 촉각, 움직임 등을 지각하게 해 주는 장치들로서 시각 디스플레이 장치, 청각 디스플레이 장치, 촉각 디스플레이 장치, 움직임 피드백 및 영상 디스플레이 장치가 포함된다. 시각 디스플레이(Visual Display) 장치 중 대표적인 하드웨어는 HMD와 스마트 안경이 있다.The virtual reality system includes an input device and an output device. Output devices are devices that allow users to perceive sight, hearing, tactile sense, movement, etc. through sensory channels, and include a visual display device, an auditory display device, a tactile display device, a motion feedback and an image display device. Representative hardware among visual display devices is HMD and smart glasses.

가상현실이 추구하는 목표는 사용자로 하여금 원격현전(Telepresence)을 경험하도록 하는 것이다. 현전(Presence)은 어떤 환경 속에서 느끼는 실재감(Sense of being)을 뜻하는데 이런 점에서 원격현전은 커뮤니케이션 매체에 의해 어떤 가상 환경 속에서 실재하고 있음을 지칭할 수 있으며, 가상현실 시스템이나 증강현실 시스템은 사용자가 원격현전을 경험할 수 있도록 한다.The goal of virtual reality is to allow users to experience telepresence. Presence means a sense of being felt in a certain environment. In this sense, remote presence can refer to being in a certain virtual environment by a communication medium, and a virtual reality system or augmented reality system. Allows users to experience remote presence.

그러나 종래의 스마트 안경은 좌측이나 우측 중에서 하나의 안구로 이미지를 공급하고 사용자는 일측 안구로만 멀티미디어 콘텐츠를 관측함에 따라 일정 시간만 관측을 하여도 어지럼증 등의 부작용이 발생하는 문제점이 있다.However, conventional smart glasses supply an image to one eyeball, either left or right, and the user observes multimedia content only with one eye, so that side effects such as dizziness occur even after observing only a certain time.

이러한 문제를 개선하기 위하여 양측 안구로 멀티미디어 콘텐츠를 공급하고자 좌측 안구로 콘텐츠를 공급하는 소형 투영기와 우측 안구로 콘텐츠를 공급하는 소형투영기를 각각 구비한 스마트 안경이 제안되었으나, 별도의 소형 투영기가 단일 영상 콘텐츠를 사용자의 양측 안구로 보내는 경우 양측 안구에 전달되는 콘텐츠가 사용자 시각의 측면에서 서로 동일하지 않고 서로 연계되지 않아 사용자가 어지러움이나 많은 피로감을 느끼는 등 사용자가 크게 불편을 느끼는 문제가 있다.In order to improve this problem, to supply multimedia contents to both eyes, smart glasses having a small projector supplying contents to the left eye and a small projector supplying contents to the right eye, respectively, have been proposed. When content is sent to both eyes of a user, there is a problem that the user feels greatly uncomfortable, such as dizziness or a lot of fatigue because the content delivered to both eyes is not identical to each other in terms of the user's perspective and is not linked to each other.

한국 등록특허공보 제10-1549074호(2015.08.26.)Korean Patent Publication No. 10-1549074 (2015.08.26.) 한국 등록특허공보 제10-1588402호(2016.01.19.)Korean Registered Patent Publication No. 10-1588402 (2016.01.19.)

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 얼굴의 상측이나 하측 방향에서 영상을 투영함으로써 사용자의 피로감과 어지럼을 크게 감소시킬 수 있는 광학 시스템을 구비한 스마트 안경을 제공하는데 있다.The present invention has been conceived to solve the above-described problems, and an object of the present invention is to provide smart glasses having an optical system capable of greatly reducing user fatigue and dizziness by projecting an image from the upper or lower direction of the face. There is.

본 발명의 다른 목적은 디스플레이에서 제공하는 멀티미디어 콘텐츠를 눈 주위의 미러를 통해 양방향에서 반사하며 확대렌즈부 또는 보조렌즈에서 확대된 콘텐츠를 빔 스플리터를 통해 양측 안구로 부분 반사하고 안구 전방으로 부분 투과하여 양측 안구에서 허상에 맺히는 동일한 영상 콘텐츠를 관측할 수 있게 하고 필요에 따라 3D 콘텐츠를 구현하거나 3D 콘텐츠를 이용하여 증강현실이나 가상현실을 용이하게 구현할 수 있는 스마트 안경을 제공하는데 있다.Another object of the present invention is to reflect the multimedia content provided by the display in both directions through a mirror around the eye, and partially reflect the content magnified by the magnifying lens unit or the auxiliary lens to both eyes through a beam splitter, and partially transmit it to the front of the eyeball. The aim is to provide smart glasses that enable observation of the same image content formed in a virtual image in both eyeballs, and implement 3D content as needed, or easily implement augmented reality or virtual reality using 3D content.

상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 스마트 안경은, 안경태 형태를 구비하는 프레임 어셈블리; 상기 프레임 어셈블리에 탑재되는 전장부품; 상기 프레임 어셈블리에 의해 지지되고 상기 전장부품의 제어장치에 의해 제어되며 상기 프레임 어셈블리의 중앙 상부측 및 중앙 하부측에 배치되는 제1 디스플레이 장치 및 제2 디스플레이 장치를 구비하는 디스플레이 시스템; 및 상기 프레임 어셈블리에 고정되는 케이스 조립체를 통해 상기 디스플레이 시스템과 수평 방향으로 결합하고, 상기 디스플레이 시스템 내의 수직 방향으로 배열되는 상기 제1 디스플레이 장치와 상기 제2 디스플레이 장치에서 각각 출력되는 제1 영상 및 제2 영상을 상기 제1 디스플레이 장치와 상기 제2 디스플레이 장치의 중간에 위치하는 미러를 통해 상기 수평 방향의 양 방향으로 전달하는 광학계를 포함한다.Smart glasses according to an aspect of the present invention for solving the above technical problem, a frame assembly having an eyeglass form; Electrical components mounted on the frame assembly; A display system including a first display device and a second display device supported by the frame assembly, controlled by a control device of the electronic component, and disposed at an upper center side and a lower center side of the frame assembly; And a first image and a first image respectively output from the first display device and the second display device, which are horizontally coupled to the display system through a case assembly fixed to the frame assembly, and are arranged in a vertical direction within the display system. 2 It includes an optical system that transmits the image in both directions in the horizontal direction through a mirror positioned between the first display device and the second display device.

일실시예에서, 상기 광학계는, 상기 중앙 상부측에서 상기 중앙 하부측을 향하는 제1 방향으로 입력되는 상기 제1 영상을 제1면에서 반사하여 상기 제1 방향과 직교하는 제2 방향으로 전달하고, 상기 중앙 하부측에서 상기 중앙 상부측을 향하는 제1 역방향으로 입력되는 상기 제2 영상을 상기 제1면의 반대측의 제2면에서 반사하여 상기 제1 역방향과 직교하고 상기 제2 방향의 반대 방향인 제2 역방향으로 전달하는 미러; 상기 미러에서 전달되는 제1 영상이 통과하는 오목 렌즈 형태의 제1 우렌즈; 상기 제1 우렌즈를 통과하는 제1 영상을 다시 통과시키는 볼록 렌즈 형태의 제2 우렌즈; 상기 제2 우렌즈를 통과하는 제1 영상을 반사하며 상기 프레임 어셈블리의 정면 일측에 지지되는 상기 제1 메인 렌즈; 상기 미러에서 전달되는 제2 영상이 통과하는 오목 렌즈 형태의 제1 좌렌즈; 상기 제1 좌렌즈를 통과하는 제2 영상을 다시 통과시키는 볼록 렌즈 형태의 제2 좌렌즈; 및 상기 제2 좌렌즈를 통과하는 제2 영상을 반사하며, 상기 프레임 어셈블리의 정면 타측에 지지되는 상기 제2 메인 렌즈를 포함할 수 있다.In one embodiment, the optical system reflects the first image input in a first direction from the upper central side toward the lower central side from a first surface and transmits the first image in a second direction orthogonal to the first direction, The second image, which is input from the lower central side toward the upper central side, is reflected from a second surface opposite to the first surface and is orthogonal to the first reverse direction, and is opposite to the second direction. A mirror transmitting in a second reverse direction; A first right lens in the form of a concave lens through which the first image transmitted from the mirror passes; A second right lens in the form of a convex lens for passing the first image passing through the first right lens again; The first main lens reflecting a first image passing through the second right lens and supported on one front side of the frame assembly; A first left lens in the form of a concave lens through which a second image transmitted from the mirror passes; A second left lens in the form of a convex lens for passing a second image passing through the first left lens again; And the second main lens reflecting a second image passing through the second left lens and supported on the other front side of the frame assembly.

일실시예에서, 상기 제1 메인 렌즈 또는 상기 제2 메인 렌즈는, 육면체 블록 형태의 몸체; 및 상기 몸체 내부에 상기 제2 우렌즈를 통과한 제1 영상 또는 상기 제2 좌렌즈를 통과한 제2 영상의 투사 방향과 경사지게 배치되는 경면, 반경면 또는 빔 스플릿트를 구비할 수 있다.In one embodiment, the first main lens or the second main lens, a hexahedral block-shaped body; And a mirror surface, a radial surface, or a beam split disposed in the body to be inclined with a projection direction of the first image passing through the second right lens or the second image passing through the second left lens.

일실시예에서, 상기 제어장치는 양안 시차에 대응하도록 상기 제1 영상을 기준으로 상기 제2 영상이 일방향으로 일정 픽셀 쉬프트되어 출력되도록 제1 디스플레이 장치 또는 제2 디스플레이 장치를 제어할 수 있다.In an embodiment, the control device may control the first display device or the second display device so that the second image is shifted by a predetermined pixel in one direction based on the first image to correspond to binocular parallax.

일실시예에서, 상기 제어장치는 3차원 영상 또는 입체 영상의 표시를 위해 상기 제1 영상과 상기 제2 영상이 순차적으로 혹은 교대로 출력되도록 제1 디스플레이 장치 또는 제2 디스플레이 장치를 제어할 수 있다.In one embodiment, the control device may control the first display device or the second display device to sequentially or alternately output the first image and the second image to display a three-dimensional image or a three-dimensional image. .

일실시예에서, 상기 제1 디스플레이 장치 또는 상기 제2 디스플레이 장치는, LCD(liquid crystal display), DLP(digtal light processing) 프로젝터, LCoS(liquid crystal on silicon) 장치, PDP(plasma dispaly panel), FED(field emission display), ELD(elelctro-luminescent display) 및 OLED(organic light emitting diode) 장치 중 어느 하나를 포함할 수 있다.In one embodiment, the first display device or the second display device includes a liquid crystal display (LCD), a digtal light processing (DLP) projector, a liquid crystal on silicon (LCoS) device, a plasma dispaly panel (PDP), and a FED. (field emission display), ELD (elelctro-luminescent display), and may include any one of OLED (organic light emitting diode) device.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 스마트 안경의 광학 시스템은, 안경 형태로 사용자 얼굴에 착용되어 사용자 눈 전방에 영상을 표시하는 스마트 안경의 광학 시스템으로서, 안경태 형태의 구비하는 프레임 어셈블리의 전면 중앙 상부측에서 전면 중앙 하부측을 향하는 제1 방향으로 입력되는 제1 영상을 제1면에서 반사하여 상기 제1 방향과 직교하는 제2 방향으로 전달하고, 상기 전면 중앙 하부측에서 상기 전면 중앙 상부측을 향하는 제1 역방향으로 입력되는 상기 제2 영상을 상기 제1면의 반대측의 제2면에서 반사하여 상기 제1 역방향과 직교하고 상기 제2 방향의 반대 방향인 제2 역방향으로 전달하는 미러; 상기 미러에서 반사되는 제1 영상이 통과하는 오목 렌즈 형태의 제1 우렌즈; 상기 제1 우렌즈를 통과하는 제1 영상을 다시 통과시키는 볼록 렌즈 형태의 제2 우렌즈; 상기 제2 우렌즈를 통과하는 제1 영상을 반사하며 상기 프레임 어셈블리의 정면 좌측에 지지되는 상기 제1 메인 렌즈; 상기 미러에서 반사되는 제2 영상이 통과하는 오목 렌즈 형태의 제1 좌렌즈; 상기 제1 좌렌즈를 통과한 제2 영상을 다시 통과시키는 볼록 렌즈 형태의 제2 좌렌즈; 및 상기 제2 좌렌즈를 통과하는 제2 영상을 반사하며 상기 프레임 어셈블리의 정면 우측에 지지되는 상기 제2 메인 렌즈를 포함한다.The optical system of smart glasses according to another aspect of the present invention for solving the above technical problem is an optical system of smart glasses that is worn on a user's face in the form of glasses to display an image in front of the user's eyes, and has a frame having an eyeglass form. The first image input in a first direction from the front center upper side of the assembly toward the front center lower side is reflected from the first surface and transmitted in a second direction orthogonal to the first direction. The second image, which is input in a first reverse direction toward the front center upper side, is reflected from a second surface opposite to the first surface, and is transmitted in a second reverse direction, which is orthogonal to the first reverse direction and opposite to the second direction. A mirror; A first right lens in the form of a concave lens through which the first image reflected from the mirror passes; A second right lens in the form of a convex lens for passing the first image passing through the first right lens again; The first main lens reflecting a first image passing through the second right lens and supported on a left front side of the frame assembly; A first left lens in the form of a concave lens through which a second image reflected from the mirror passes; A second left lens in the form of a convex lens for passing a second image that has passed through the first left lens again; And the second main lens reflecting a second image passing through the second left lens and supported on the front right side of the frame assembly.

일실시예에서, 상기 제1 우렌즈와 상기 제2 우렌즈의 결합 구조 혹은 상기 제1 좌렌즈와 상기 제2 좌렌즈의 결합 구조는 상기 미러 측에서 볼 때, 전면 또는 일면이 오목하고 배면 또는 타면이 볼록한 단일 렌즈 형태를 구비할 수 있다.In one embodiment, the combination structure of the first right lens and the second right lens or the combination structure of the first left lens and the second left lens is viewed from the mirror side, the front or one side is concave and the rear or The other surface may have a convex single lens shape.

일실시예에서, 상기 제1 메인 렌즈 또는 상기 제2 메인 렌즈는, 육면체 블록 형태의 몸체; 및 상기 몸체 내부에 상기 제2 우렌즈를 통과한 제1 영상 또는 상기 제2 좌렌즈를 통과한 제2 영상의 투사 방향과 경사지게 배치되는 경면, 반경면 또는 빔 스플릿트를 구비할 수 있다.In one embodiment, the first main lens or the second main lens, a hexahedral block-shaped body; And a mirror surface, a radial surface, or a beam split disposed in the body to be inclined with a projection direction of the first image passing through the second right lens or the second image passing through the second left lens.

일실시예에서, 상기 스마트 안경은, 상기 프레임 어셈블리에 탑재되는 카메라 또는 적외선 프로젝터; 및 상기 프레임 어셈블리 내에 탑재되거나 지지되는 제어보드 또는 프로세서를 더 포함할 수 있다. 상기 제어보드 또는 프로세서는, 손바닥, 손등, 팔뚝, 책상, 문, 벽 중 어느 하나를 포함한 물체를 인식하고, 물체의 구조적 특징에 기초하여 가상 오브젝트 또는 사용자 인터페이스(user interface, UI) 이미지를 표시할 영역을 탐색하고, 탐색된 영역에 배경과 함께 상기 가상 오브젝트 또는 UI 이미지를 생성할 수 있다.In one embodiment, the smart glasses may include a camera or an infrared projector mounted on the frame assembly; And a control board or processor mounted or supported in the frame assembly. The control board or processor recognizes an object including any one of a palm, a back of a hand, a forearm, a desk, a door, and a wall, and displays a virtual object or a user interface (UI) image based on the structural characteristics of the object. The area may be searched, and the virtual object or UI image may be generated in the searched area along with a background.

일실시예에서, 상기 제어보드 또는 프로세서는, 상기 가상 오브젝트 또는 UI 이미지에 근접하는 다른 물체의 끝을 인식하고, 상기 다른 물체의 끝에 대응하는 상기 가상 오브젝트 또는 UI 이미지에 대하여 미리 설정된 동작을 더 수행할 수 있다. 또한, 상기 제어보드 또는 프로세서는, 상기 다른 물체가 다른 손인 경우, 상기 다른 손의 외곽선을 추출하거나 관절을 추출하여 손의 제스처를 인식할 수 있다.In one embodiment, the control board or processor recognizes an end of another object that is close to the virtual object or UI image, and further performs a preset operation on the virtual object or UI image corresponding to the end of the other object. can do. In addition, when the other object is the other hand, the control board or the processor may recognize a gesture of the hand by extracting an outline of the other hand or extracting a joint.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 스마트 안경은, 안경 프레임 형태를 구비하는 프레임 어셈블리; 상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때 상기 얼굴의 중앙부 상에 위치하는 디스플레이 장치; 및 상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때 상기 디스플레이 장치의 영상을 상기 사용자의 양쪽 눈이 위치하는 방향으로 전달하는 광학계(optical system)를 포함하고, 상기 광학계는 상기 사용자의 눈 앞에서 상기 디스플레이 장치로부터 전달되는 영상을 부분 반사 및 부분 투과하는 적어도 하나의 메인렌즈를 구비하고, 상기 사용자의 눈에 보이는 영상은 상기 메인렌즈 뒤에서 일정 거리 떨어진 허상면에 맺히는 영상인 것을 특징으로 한다.Smart glasses according to another aspect of the present invention for solving the above technical problem, a frame assembly having a spectacle frame shape; A display device supported by the frame assembly and positioned on a central portion of the face when the frame assembly is worn on a user's face; And an optical system supported by the frame assembly and transmitting an image of the display device in a direction in which both eyes of the user are located when the frame assembly is worn on the user's face, wherein the optical system comprises the At least one main lens partially reflecting and partially transmitting an image transmitted from the display device in front of the user's eyes, and the image visible to the user is an image formed on a virtual image surface a predetermined distance from the back of the main lens To do.

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 측면에 따른 스마트 안경에 채용할 수 있는 광학 시스템은, 안경 프레임 형태로 사용자 얼굴에 착용되어 사용자 눈에 영상을 제공하는 스마트 안경의 광학 시스템으로서, 디스플레이 장치의 영상을 반사하는 미러; 상기 미러에서 반사되는 영상을 확대하는 보조렌즈; 상기 보조렌즈에서 확대된 영상을 부분 반사 및 부분 투과시키는 메인렌즈; 및 상기 미러, 상기 보조렌즈 및 상기 메인렌즈를 지지하는 안경 프레임 형태의 프레임 어셈블리를 포함하며, 상기 프레임 어셈블리가 사용자의 머리에 착용될 때, 상기 미러, 상기 보조렌즈 및 상기 메인렌즈는 상기 사용자의 얼굴 중앙부, 미간 또는 코 위에 위치하는 것을 특징으로 한다.An optical system that can be employed in smart glasses according to another aspect of the present invention for solving the above technical problem is an optical system of smart glasses that is worn on a user's face in the form of a glasses frame to provide an image to the user's eyes, and includes a display A mirror reflecting the image of the device; An auxiliary lens to magnify the image reflected from the mirror; A main lens partially reflecting and partially transmitting the image magnified by the auxiliary lens; And a frame assembly in the form of a spectacle frame supporting the mirror, the auxiliary lens, and the main lens, and when the frame assembly is worn on the user's head, the mirror, the auxiliary lens, and the main lens are It is characterized in that it is located in the center of the face, the brow or above the nose.

본 발명에 따른 스마트 안경 및 그 광학시스템을 채용하는 경우에는, 사용자 눈의 피로감과 어지럼을 상당히 감소시켜 착용감과 사용편의성을 향상시킬 수 있다. 또한, 무게를 최소화하고 인체공학적 구조 및 디자인으로 설계하여 우수한 착용감을 제공할 수 있다. 또한, 배터리 교체 방식으로 장시간 사용에 대한 전원 공급을 용이하게 할 수 있는 장점이 있다.In the case of employing the smart glasses and the optical system thereof according to the present invention, it is possible to significantly reduce fatigue and dizziness of the user's eyes, thereby improving the fit and convenience of use. In addition, it is possible to provide an excellent fit by minimizing weight and designing with an ergonomic structure and design. In addition, there is an advantage in that it is possible to easily supply power for a long time use by a battery replacement method.

아울러, 피로감과 어지럼 현상을 방지하고 착용감을 증대시킴으로써, 스마트 안경을 사용하여 가상현실(VR), 증강현실(AR), 융합현실(MR), 혼합현실(MR) 등의 콘텐츠를 이용할 때 장시간 이용 환경을 제공할 수 있다. 또한, 모니터없이 업무 혹은 작업을 하거나, 쇼핑을 하거나, 내비게이션 장치로 이용하거나, AR, VR 또는 MR 게임을 하거나, 동영상을 감상하거나, 영상통화를 하는 등 다양한 분야에 효과적으로 혹은 쉽게 적용할 수 있는 장점이 있다.In addition, by preventing fatigue and dizziness and increasing the fit, it is used for a long time when using contents such as virtual reality (VR), augmented reality (AR), converged reality (MR), and mixed reality (MR) using smart glasses. You can provide an environment. In addition, it can be applied effectively or easily to various fields such as working or working without a monitor, shopping, using as a navigation device, playing AR, VR or MR games, watching videos, or making video calls. There is this.

또한, 본 발명에 의하면, 스마트 안경의 전면 중앙에 배치되는 하나 또는 두 개의 디스플레이에서 양쪽 눈으로 독립적인 영상을 제공하도록 구성함으로써 측면 시야각을 확보할 수 있는 장점이 있다.In addition, according to the present invention, there is an advantage of securing a side viewing angle by configuring to provide independent images to both eyes on one or two displays disposed at the front center of the smart glasses.

또한, 하나의 스마트 안경으로 2D, 3D 이미지를 효과적으로 구현하고, 증강현실과 가상현실을 구현할 수 있는 효과가 있다.In addition, there is an effect of effectively implementing 2D and 3D images with one smart glasses, and implementing augmented reality and virtual reality.

또한, 하나 또는 두 개의 디스플레이에서 동일한 멀티미디어 콘텐츠를 양측 안구에 제공함으로써 장시간 사용에도 사용자가 불편을 느끼지 않는 효과가 있다.In addition, by providing the same multimedia content to both eyes on one or two displays, there is an effect that the user does not feel uncomfortable even when used for a long time.

또한, 정면의 메인렌즈의 두께를 줄여 장치를 경량화하고 사용감을 향상시킬 수 있다.In addition, by reducing the thickness of the front main lens, the device can be lightened and the feeling of use can be improved.

또한, 후면 카메라나 센서를 통해 사용자의 눈꺼풀을 인식하고 인식 결과에 따라 장치에 수납된 액추에이터나 구동기 또는 스피커를 통해 진동이나 알람을 발생시켜 사용자 특히, 졸음 운전 중인 운전자에게 위험을 경고할 수 있다.In addition, by recognizing the user's eyelids through a rear camera or sensor and generating vibrations or alarms through actuators, actuators, or speakers housed in the device according to the recognition result, the user, in particular, a drowsy driver can be warned of danger.

또한, 장치를 장시간 사용할 때 발생할 수 있는 열을 메인 프레임의 정면 상단부에 배치되는 방열구조나 히트싱크로 효과적으로 배출하여 스마트 안경에 대한 동작 안정성과 신뢰성을 제공할 수 있다.In addition, it is possible to provide operational stability and reliability for smart glasses by effectively discharging heat that may be generated when the device is used for a long time through a heat dissipation structure or a heat sink disposed on the front top of the main frame.

또한, 스마트 안경에서 배터리를 제거하고, 외부의 제어 및 전원 장치에 배터리를 통해 스마트 안경에 전원을 공급하는 경우, 스마트 안경을 효과적으로 경량화할 수 있고 착용감이나 사용편의성을 증대시킬 수 있다.In addition, when the battery is removed from the smart glasses and power is supplied to the smart glasses through the battery to an external control and power device, the smart glasses can be effectively lightened and the fit and convenience of use can be increased.

또한, 스마트 안경에 탑재된 스테레오 RGB 카메라, 스테레오 적외선 카메라 또는 적외선 프로젝터를 이용하여 증강현실 서비스를 제공하거나 증강현실로 표시되는 사용자 인터페이스 이미지 또는 가상 오브젝트를 통해 사용자 명령을 입력 받고 이에 따라 미리 설정된 동작을 수행할 수 있다. 이러한 구성에 의하면, 사용자 편의성을 극대화하면서 증강현실 서비스, 증강현실을 이용한 각종 입체 영상 서비스를 제공할 수 있는 장점이 있다.In addition, augmented reality service is provided using a stereo RGB camera, stereo infrared camera, or infrared projector mounted on smart glasses, or a user command is input through a user interface image or virtual object displayed in augmented reality, and a preset operation is performed accordingly. Can be done. According to this configuration, there is an advantage of providing an augmented reality service and various 3D image services using augmented reality while maximizing user convenience.

도 1은 본 발명의 일실시예에 따른 스마트 안경의 사시도이다.
도 2는 도 1의 스마트 안경의 분해사시도이다.
도 3은 도 1의 스마트 안경의 주요 작동 원리를 설명하기 위한 부분 분해 사시도이다.
도 4는 도 3의 스마트 안경의 배면 케이스의 구조를 확대하여 나타낸 사시도이다.
도 5는 본 발명의 다른 실시예에 따른 스마트 안경에 채용할 수 있는 메인 제어보드의 주요 구성을 설명하기 위한 블록도이다.
도 6은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다.
도 7은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다.
도 8은 도 7의 스마트 안경에 대한 정면도이다.
도 9는 도 8의 스마트 안경의 내부 구조를 설명하기 위한 부분 투영 정면도이다.
도 10은 도 7의 스마트 안경에 대한 우측면도이다.
도 11은 도 10의 스마트 안경의 내부 구조를 보여주는 부분 투영 우측면도이다.
도 12는 도 7의 스마트 안경의 구성요소를 설명하기 위한 부분 분해사시도이다.
도 13 및 도 14는 도 7의 스마트 안경의 광학 시스템을 설명하기 위한 도면들이다.
도 15는 도 7의 스마트 안경에 채용할 수 있는 제어보드에 대한 블록도이다.
도 16은 본 발명의 또 다른 실시예에 따른 스마트 안경과 제어 시스템에 대한 사시도이다.
도 17은 도 16의 스마트 안경의 주요 구성을 설명하기 위한 블록도이다.
도 18은 도 16의 스마트 안경에 채용할 수 있는 제어 모듈을 설명하기 위한 블록도이다.
도 19 및 도 20은 도 16의 스마트 안경의 주요 작동 원리를 설명하기 위한 순서도들이다.
도 21은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스를 설명하기 위한 도면이다.
도 22 및 23은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스의 변형예를 설명하기 위한 예시도들이다.
도 24는 본 실시예의 스마트 안경에 채용할 수 있는 사용자 인터페이스의 작동 원리를 설명하기 위한 도면이다.
도 25 및 26은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용된 사용자 인터페이스의 신호 처리 과정을 설명하기 위한 흐름도들이다.
도 27은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 사시도이다.
도 28은 도 27의 스마트 안경에 대한 정면도이다.
도 29 및 도 30은 도 28의 스마트 안경에 대한 사용 상태도이다.
도 31은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 정면도이다.
도 32 및 도 33은 도 31의 스마트 안경에 대한 사용 상태도이다.
도 34 및 도 35는 본 발명의 실시예에 따른 스마트 안경의 전원 및 제어를 위한 장치의 외관을 보여주는 사시도들이다.
1 is a perspective view of smart glasses according to an embodiment of the present invention.
2 is an exploded perspective view of the smart glasses of FIG. 1.
3 is a partial exploded perspective view for explaining the main operating principle of the smart glasses of FIG. 1.
4 is a perspective view showing an enlarged structure of the rear case of the smart glasses of FIG. 3.
5 is a block diagram illustrating a main configuration of a main control board that can be employed in smart glasses according to another embodiment of the present invention.
6 is a perspective view of smart glasses according to another embodiment of the present invention.
7 is a perspective view of smart glasses according to another embodiment of the present invention.
8 is a front view of the smart glasses of FIG. 7.
9 is a partial projection front view for explaining the internal structure of the smart glasses of FIG. 8.
10 is a right side view of the smart glasses of FIG. 7.
11 is a partial projection right side view showing the internal structure of the smart glasses of FIG. 10.
12 is a partial exploded perspective view for explaining the components of the smart glasses of FIG. 7.
13 and 14 are views for explaining the optical system of the smart glasses of FIG. 7.
15 is a block diagram of a control board that can be employed in the smart glasses of FIG. 7.
16 is a perspective view of smart glasses and a control system according to another embodiment of the present invention.
17 is a block diagram illustrating a main configuration of the smart glasses of FIG. 16.
18 is a block diagram illustrating a control module that can be employed in the smart glasses of FIG. 16.
19 and 20 are flowcharts illustrating a main operating principle of the smart glasses of FIG. 16.
21 is a view for explaining a user interface that can be employed in smart glasses according to another embodiment of the present invention.
22 and 23 are exemplary diagrams for explaining a modified example of a user interface that can be employed in smart glasses according to another embodiment of the present invention.
24 is a diagram for explaining the operating principle of a user interface that can be employed in the smart glasses of the present embodiment.
25 and 26 are flowcharts illustrating a signal processing process of a user interface employed in smart glasses according to another embodiment of the present invention.
27 is a perspective view of smart glasses according to another embodiment of the present invention.
28 is a front view of the smart glasses of FIG. 27.
29 and 30 are diagrams illustrating a state of use of the smart glasses of FIG. 28.
31 is a front view of smart glasses according to another embodiment of the present invention.
32 and 33 are diagrams illustrating a state of use of the smart glasses of FIG. 31.
34 and 35 are perspective views showing the appearance of a device for powering and controlling smart glasses according to an embodiment of the present invention.

이하에서는 첨부된 도면을 참조하여, 본 발명의 바람직한 실시예를 상세히 설명한다. 각 도면에 제시된 동일한 도면부호는 동일한 부재를 나타낸다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals shown in each drawing indicate the same member.

도 1은 본 발명의 일실시예에 따른 스마트 안경의 사시도이다. 도 2는 도 1의 스마트 안경의 분해사시도이다. 도 3은 도 1의 스마트 안경의 주요 작동 원리를 설명하기 위한 부분 분해 사시도이다. 그리고 도 4는 도 3의 스마트 안경의 배면 케이스의 구조를 확대하여 나타낸 사시도이다.1 is a perspective view of smart glasses according to an embodiment of the present invention. 2 is an exploded perspective view of the smart glasses of FIG. 1. 3 is a partial exploded perspective view for explaining the main operating principle of the smart glasses of FIG. 1. And Figure 4 is a perspective view showing an enlarged structure of the rear case of the smart glasses of Figure 3;

도 1 내지 도 4를 참조하면, 본 실시예에 따른 스마트 안경(100)은, 프레임 어셈블리(10), 전장부품, 디스플레이 시스템(30) 및 광학계(50)를 포함한다. 디스플레이 시스템(30)은 제1 디스플레이 장치(31)와 제2 디스플레이 장치(32)에 더하여 케이스 조립체(60)와 광학계(50)를 포함할 수 있다.1 to 4, the smart glasses 100 according to the present embodiment include a frame assembly 10, an electronic component, a display system 30, and an optical system 50. The display system 30 may include a case assembly 60 and an optical system 50 in addition to the first display device 31 and the second display device 32.

디스플레이 장치들과 광학계(50) 및 케이스 조립체(60)는 직교 좌표계에서 서로 다른 3개의 축상으로 나열되는 형태로 서로 교차 배열될 수 있으며, 이러한 교차 배열 구조의 중심에는 미러(51)가 배치되며, 제1 디스플레이 장치(31)와 제2 디스플레이 장치(32)는 미러(51)를 사이에 두고 양측에 배치될 수 있다.The display devices, the optical system 50, and the case assembly 60 may be cross-arranged in a form arranged on three different axes in a Cartesian coordinate system, and a mirror 51 is disposed at the center of this cross-array structure, The first display device 31 and the second display device 32 may be disposed on both sides with the mirror 51 interposed therebetween.

프레임 어셈블리(10)는 다수의 프레임들에 의해 안경 형태를 형성한다. 프레임 어셈블리는 상부 프레임(upper frame, 11), 하부 프레임(lower frame, 12), 바디 프레임(body frame, 13), 우측 커버 프레임(right cover frame, 14) 및 좌측 커버 프레임(left cover frame, 15)을 포함할 수 있다. 바디 프레임(13)에는 코패드(nose pad, 18)가 결합될 수 있다.The frame assembly 10 forms a shape of glasses by a plurality of frames. The frame assembly includes an upper frame (11), a lower frame (12), a body frame (13), a right cover frame (14) and a left cover frame (15). ) Can be included. A nose pad 18 may be coupled to the body frame 13.

하부 프레임(12)은 중앙 수납부에 메인 제어보드(21)를 수용한다. 중앙 수납부는 상부 프레임(11)에 의해 덮일 수 있다. 하부 프레임(12)은 중앙 수납부의 오른쪽에 연결되는 우측 측면 연장부 내의 제1 수납부에 제1 인쇄회로기판(23)과 제1 인쇄회로기판(23)에 연결되는 제1 배터리 팩(24)을 수납할 수 있다. 제1 수납부는 우측 커버 프레임(14)에 의해 덮일 수 있다. 우측 커버 프레임(14)에는 버튼식 파워버튼(22)이 설치되고, 파워버튼(22)은 제1 인쇄회로기판(23)에 연결될 수 있다. 제1 인쇄회로기판(23)은 제1 배터리 팩(24) 내의 배터리 관리 시스템과 메인 제어보드(21)의 제어장치(210)를 연결할 수 있다.The lower frame 12 accommodates the main control board 21 in the central receiving portion. The central receiving portion may be covered by the upper frame 11. The lower frame 12 includes a first printed circuit board 23 and a first battery pack 24 connected to the first printed circuit board 23 in a first receiving part in a right side extension connected to the right side of the central receiving part. ) Can be stored. The first accommodating part may be covered by the right cover frame 14. A button-type power button 22 is installed on the right cover frame 14, and the power button 22 may be connected to the first printed circuit board 23. The first printed circuit board 23 may connect the battery management system in the first battery pack 24 and the control device 210 of the main control board 21.

또한, 하부 프레임(12)은 중앙 수납부의 왼쪽에 연결되는 좌측 측면 연장부 내의 제2 수납부에 제2 인쇄회로기판(25)과 제2 인쇄회로기판(25)에 연결되는 제2 배터리 팩(26)을 수납할 수 있다. 제2 수납부는 좌측 커버 프레임(15)에 의해 덮일 수 있다. 제2 인쇄회로기판(25)은 제2 배터리 팩(26) 내의 배터리 관리 시스템과 메인 제어보드(21)의 제어장치(210)를 연결할 수 있다.In addition, the lower frame 12 is a second printed circuit board 25 and a second battery pack connected to the second printed circuit board 25 in the second receiving portion in the left side extension connected to the left side of the central receiving portion. (26) can be stored. The second storage unit may be covered by the left cover frame 15. The second printed circuit board 25 may connect the battery management system in the second battery pack 26 and the control device 210 of the main control board 21.

바디 프레임(13)은 하부 프레임(12)의 하부에 결합한다. 바디 프레임(13)은 하부 프레임(12)과 케이스 시스템(60) 사이에서 이들의 결합을 지지하도록 설치된다. 또한, 바디 프레임(13)은 하부 프레임(12)의 하부에 결합하여 스마트 안경의 전체적인 내구성을 보완하고 증대시킨다.The body frame 13 is coupled to the lower portion of the lower frame 12. The body frame 13 is installed between the lower frame 12 and the case system 60 to support their coupling. In addition, the body frame 13 is coupled to the lower portion of the lower frame 12 to complement and increase the overall durability of the smart glasses.

전장부품은 프레임 어셈블리(10)에 탑재되거나 수납될 수 있다. 전장부품은 메인 제어보드(main control board, 21), 파워스위치(power switch, 22), 제1 제어보드(23), 제1 배터리 팩(24), 제2 제어보드(25) 및 제2 배터리 팩(26)을 포함할 수 있다. 제1 제어보드(23)은 제1 인쇄회로보드에 대응하고, 제2 제어보드(25)는 제2 인쇄회로기판에 대응할 수 있으며, 배터리 팩은 간략히 배터리로 지칭될 수 있다.The electronic components may be mounted or accommodated in the frame assembly 10. Electrical components include a main control board (21), a power switch (22), a first control board (23), a first battery pack (24), a second control board (25) and a second battery. Pack 26 may be included. The first control board 23 may correspond to a first printed circuit board, the second control board 25 may correspond to a second printed circuit board, and the battery pack may be simply referred to as a battery.

제1 디스플레이 장치(31) 및 제2 디스플레이 장치(32)는, 전장부품의 제어장치에 의해 제어되고, 프레임 어셈블리의 중앙 상부측 및 중앙 하부측에 각각 배치될 수 있다.The first display device 31 and the second display device 32 are controlled by a control device of an electronic component, and may be disposed at an upper center side and a lower center side of the frame assembly, respectively.

본 실시예에서 제1 디스플레이 장치(31) 또는 제2 디스플레이 장치(32)는, LCD(liquid crystal display)를 포함한다. 이 경우, 제1 디스플레이 장치(31) 및 제2 디스플레이 장치(32)는 백라이트 유닛(backlight units, 33, 34)을 구비할 수 있다.In this embodiment, the first display device 31 or the second display device 32 includes an LCD (liquid crystal display). In this case, the first display device 31 and the second display device 32 may include backlight units 33 and 34.

한편, 본 발명의 디스플레이 장치는 LCD로 한정되지 않으며, 반사형 마이크로 디스플레이(liquid crystal on silicon, LCoS), PDP(plasma dispaly panel), FED(field emission display), ELD(elelctro-luminescent display) 및 OLED(organic light emitting diode) 중 어느 하나로 대체되어 사용될 수 있다.On the other hand, the display device of the present invention is not limited to LCD, and reflective micro-display (liquid crystal on silicon, LCoS), plasma dispaly panel (PDP), field emission display (FED), electro-luminescent display (ELD), and OLED It can be replaced with any one of (organic light emitting diode).

광학계(50)는 제1 디스플레이 장치(31)에서 출력되는 제1 영상과 제2 디스플레이 장치(32)에서 출력되는 제2 영상을 사용자의 양쪽 눈으로 전달하면서 영상 사이즈를 제어하여 제1 메인 렌즈(54)와 제2 메인 렌즈(57) 상에 각각 투사할 수 있다.The optical system 50 transmits the first image output from the first display device 31 and the second image output from the second display device 32 to both eyes of the user and controls the image size to control the first main lens ( 54) and the second main lens 57, respectively.

광학계(50)는 미러(51), 제1 우렌즈(the first right lens, 52), 제2 우렌즈(the second right lens, 53), 제1 메인 렌즈(the first main lens, 54), 제1 좌렌즈(the first left lens, 55), 제2 좌렌즈(the second left lens, 56) 및 제2 메인 렌즈(the second main lens, 57)를 포함할 수 있다.The optical system 50 includes a mirror 51, the first right lens 52, the second right lens 53, the first main lens 54, and A first left lens (55), a second left lens (56), and a second main lens (the second main lens) 57 may be included.

미러(51)는 스마트 안경의 전면 중앙이나 광학계 중앙의 상부측에서 중앙의 하부측을 향하는 방향(제1 방향)으로 입력되는 제1 영상을 제1면에서 반사하여 제1 방향과 직교하는 제2 방향으로 전달한다. 또한, 미러(51)는 상기 중앙의 하부측에서 중앙의 상부측을 향하는 방향(제1 방향과 마주하는 제1 역방향)으로 입력되는 제2 영상을 제1면의 반대측인 제2면에서 반사하여 제1 역방향과 직교하고 제2 방향의 반대 방향인 제2 역방향으로 전달할 수 있다.The mirror 51 reflects a first image input in a direction (first direction) from the front center of the smart glasses or from the upper side of the center of the optical system toward the lower side of the center (first direction), and reflects the second image orthogonal to the first direction. Pass in the direction. In addition, the mirror 51 reflects the second image input in a direction from the lower side of the center toward the upper side of the center (a first reverse direction facing the first direction) from a second surface opposite to the first surface. It can be transmitted in a second reverse direction orthogonal to the first reverse direction and opposite to the second direction.

제1 우렌즈(52)는 오목 렌즈 형태를 구비하고 미러(51)에서 전달되는 제1 영상을 통과시킬 수 있다. 제1 우렌즈(52)는 제1 영상을 1차로 통과시킬 수 있다. 제2 우렌즈(53)는 볼록 렌즈 형태를 구비하고 제1 우렌즈(52)를 통과한 제1 영상을 2차로 통과시킬 수 있다. 이러한 제1 우렌즈(52)와 제2 우렌즈(53)는 일단의 오목한 면을 통해 입사되는 빛은 타면의 볼목한 면을 통해 출사하는 단일 렌즈 형태를 형성할 수 있다.The first right lens 52 may have a concave lens shape and may pass the first image transmitted from the mirror 51. The first right lens 52 may first pass the first image. The second right lens 53 may have a convex lens shape and may secondly pass the first image passing through the first right lens 52. The first right lens 52 and the second right lens 53 may form a single lens shape in which light incident through the concave surface of one end is emitted through the concave surface of the other surface.

제1 메인 렌즈(54)는 제2 우렌즈(54)를 통과한 제1 영상을 반사시키면서 투과시킬 수 있다. 제1 메인 렌즈(54)는 프레임 어셈블리나 커버에 의해 지지되고 스마트 안경의 정면 일측에 배치될 수 있다. 제1 메인 렌즈(54)는 사용자의 오른쪽 눈 전방에 배열될 수 있다.The first main lens 54 may reflect and transmit the first image that has passed through the second right lens 54. The first main lens 54 may be supported by a frame assembly or a cover and may be disposed on one front side of the smart glasses. The first main lens 54 may be arranged in front of the user's right eye.

제1 좌렌즈(55)는 오목 렌즈 형태를 구비하고 미러(51)에서 전달되는 제2 영상을 통과시킬 수 있다. 제1 좌렌즈(55)는 제1 우렌즈(52)와는 반대 방향으로 제2 영상을 1차로 통과시킬 수 있다. 제2 좌렌즈(56)는 볼록 렌즈 형태를 구비하고 제1 좌렌즈(55)를 통과한 제2 영상을 2차로 통과시킬 수 있다. 이러한 제1 좌렌즈(55)와 제2 좌렌즈(56)는 일단의 오목한 면을 통해 입사되는 빛을 타면의 볼목한 면을 통해 출사하는 단일 렌즈 구조에 대응할 수 있으나, 이에 한정되지는 않는다.The first left lens 55 has a concave lens shape and may pass a second image transmitted from the mirror 51. The first left lens 55 may first pass the second image in a direction opposite to the first right lens 52. The second left lens 56 may have a convex lens shape and may secondly pass the second image passing through the first left lens 55. The first left lens 55 and the second left lens 56 may correspond to a single lens structure in which light incident through one concave surface is emitted through the convex surface of the other surface, but is not limited thereto.

제2 메인 렌즈(57)는 제2 좌렌즈(56)를 통과한 제2 영상을 반사시키면서 투과시킬 수 있다. 제2 메인 렌즈(57)는 프레임 어셈블리나 커버에 의해 지지되고 스마트 안경의 정면 일측에 배치될 수 있다. 제2 메인 렌즈(57)는 사용자의 왼쪽 눈 전방에 배열될 수 있다.The second main lens 57 may reflect and transmit the second image passing through the second left lens 56. The second main lens 57 may be supported by a frame assembly or a cover and may be disposed on one front side of the smart glasses. The second main lens 57 may be arranged in front of the user's left eye.

전술한 디스플레이 장치들과 광학계(50)의 신뢰성 있는 구조를 형성하기 위해, 본 실시예에서는 광학계의 두 디스플레이 장치들을 광학계(50)의 구성요소들이 나열되는 제2 방향 (또는 수평 방향)과 직교하는 제1 방향 (또는 수직 방향)으로 배치한다. 두 디스플레이 장치들(31, 32)는 광학계(50)의 미러(51)를 중심에 두고 그 상측과 하측에 배치될 수 있다. 미러(51)는 또한 제2 방향으로 나열되는 광학계(50)의 구성요소들의 중앙에 위치하고 그에 의해 광학계(50)의 구성요소들이 서로 대향하는 두 방향으로 영상 신호를 전달하기 위한 배치를 갖추도록 한다.In order to form a reliable structure of the above-described display devices and the optical system 50, in this embodiment, the two display devices of the optical system are orthogonal to the second direction (or horizontal direction) in which the components of the optical system 50 are arranged. Arrange in the first direction (or vertical direction). The two display devices 31 and 32 may be disposed above and below the mirror 51 of the optical system 50 at the center. The mirror 51 is also located in the center of the components of the optical system 50 arranged in the second direction, thereby having the components of the optical system 50 arranged to transmit image signals in two directions opposite to each other. .

이를 위해 본 실시예의 배면 케이스(62)는, 도 4에 도시한 바와 같이, 미러(51)가 안착되는 제1 안착홈(620), 제1 디스플레이 장치(31)를 안착하기 위한 제1 상부 안착홈(621)과 제2 디스플레이 장치(32)를 안착하기 위한 제1 하부 안착홈(622)을 구비한다. 제1 디스플레이 장치(31)가 LCD 패널인 경우, 제1 상부 안착홈(621) 상부에서 백라이트 유닛(33)을 수용하기 위한 제2 상부 안착홈(631)이 더 구비될 수 있다. 이와 유사하게 제1 하부 안착홈(622)의 하부에도 제2 디스플레이 장치(32)의 백라이트 유닛(34)을 수용하기 하기 위한 제2 하부 안착홈이 구비될 수 있다.To this end, the rear case 62 of the present embodiment, as shown in FIG. 4, the first seating groove 620 in which the mirror 51 is seated, and the first upper seating for seating the first display device 31 It includes a groove 621 and a first lower seating groove 622 for seating the second display device 32. When the first display device 31 is an LCD panel, a second upper mounting groove 631 for accommodating the backlight unit 33 may be further provided above the first upper mounting groove 621. Similarly, a second lower seating groove for accommodating the backlight unit 34 of the second display device 32 may be provided under the first lower seating groove 622.

또한, 배면 케이스(62)는, 도 4에 나타낸 바와 같이, 제1 우렌즈(52)와 제2 우렌즈(53)를 안착하기 위한 제2 안착홈(625), 제1 메인 렌즈(54)를 수용하고 지지하기 위한 제3 안착홈(626)을 구비할 수 있다. 이와 유사하게, 배면 케이스(62)는 제1 좌렌즈(55)와 제2 좌렌즈(56)를 안착하기 위한 제4 안착홈(627), 제2 메인 렌즈(57)를 수용하고 지지하기 위한 제5 안착홈(628)을 구비할 수 있다. 제1 메인 렌즈(54)와 제2 메인 렌즈(57)는 전면 케이스(61)와 배면 케이스(62)에 의해 1차적으로 지지되고, 전면 케이스(61)의 외측을 둘러싸는 전면 커버(63)와, 배면 케이스(62)의 외측을 둘러싸는 배면 커버(64)의 결합에 의해 견고하게 지지될 수 있다.Further, as shown in FIG. 4, the rear case 62 includes a second seating groove 625 for seating the first right lens 52 and the second right lens 53, and a first main lens 54. It may be provided with a third seating groove 626 for receiving and supporting. Similarly, the rear case 62 has a fourth seating groove 627 for seating the first left lens 55 and the second left lens 56, and for receiving and supporting the second main lens 57. A fifth seating groove 628 may be provided. The first main lens 54 and the second main lens 57 are primarily supported by the front case 61 and the rear case 62, and a front cover 63 surrounding the outside of the front case 61 Wow, it can be firmly supported by the coupling of the rear cover 64 surrounding the outside of the rear case 62.

또한, 배면 케이스(62)는 바디 프레임(13)과의 체결을 위한 체결부(629)를 구비할 수 있다. 체결부(629)는 나사홀을 구비할 수 있다.In addition, the rear case 62 may include a fastening portion 629 for fastening with the body frame 13. The fastening part 629 may have a screw hole.

전면 커버(63)는 제1 외부 케이스로 지칭될 수 있고, 그 경우 전면 케이스(61)는 제1 내부 케이스로 지칭될 수 있다. 이와 유사하게, 배면 커버(64)는 제2 외부 케이스로 지칭될 수 있고, 그 경우 배면 케이스(63)는 제2 내부 케이스로 지칭될 수 있다.The front cover 63 may be referred to as a first outer case, in which case the front case 61 may be referred to as a first inner case. Similarly, the back cover 64 may be referred to as a second outer case, in which case the back case 63 may be referred to as a second inner case.

본 실시예에서 광학계는 제1 영상과 제2 영상을 사용자 얼굴의 측면에서 제공하는 것이 아니라 사용자 얼굴의 이마측과 코측에서 미간측으로 1차로 전달하고, 제1 영상과 제2 영상을 미간측에서 눈 앞쪽으로 전달하면서 오목렌즈와 볼록렌즈를 통해 영상 사이즈 조절 및 포커싱을 수행하고, 사용자 시각을 기준으로 눈 전방의 제1 메인 렌즈(54)와 제2 메인 렌즈(57) 상에서 사용자의 눈에 보이는 제1 영상 및 제2 영상을 표시할 수 있다.In this embodiment, the optical system does not provide the first image and the second image from the side of the user's face, but transmits the first image and the second image from the forehead and nose side to the glabellar side of the user's face. The image size is adjusted and focused through the concave lens and the convex lens while being transferred to the front, and the first main lens 54 and the second main lens 57 in front of the user's eyes are visible based on the user's perspective. One image and a second image can be displayed.

본 실시예에 따른 스마트 안경(100)은 사용자에게 실질적인 불편함을 주지 않고 3차원 프로그램을 구현할 수 있다. 즉, 본 실시예에 의하면, 단순화된 구조를 가진 스마트 안경을 사용하여 제스처 인식, 3D 구현, 가상 현실 영상 재생, 증강 현실 서비스 등을 제공할 수 있다. 특히, 스마트 안경을 이용하여 3차원 콘텐츠를 이용하는 중에 어지러움이나 매스꺼움 등 기존 헤드마운트 디스플레이 사용자가 많이 느끼는 사용상의 문제점을 해결하여 사용자가 사용하기 편리하면서 장치의 구조가 단순하여 제조비용을 절감할 수 있는 장점이 있다.The smart glasses 100 according to the present embodiment can implement a 3D program without causing substantial inconvenience to the user. That is, according to the present embodiment, gesture recognition, 3D implementation, virtual reality image playback, augmented reality service, and the like can be provided using smart glasses having a simplified structure. In particular, it is convenient for users to use and simple structure of the device to reduce manufacturing cost by solving the problems of use that many existing head mounted display users feel, such as dizziness and nausea while using 3D content using smart glasses. There is an advantage.

전술한 본 실시예에 따른 스마튼 안경에서 제공하는 서비스 중 제스처 인식, 3D 구현, 가상 현실 영상 재생, 증강 현실 서비스를 위한 기본적인 신호 처리 기술은 본 기술분야에 이미 잘 알려져 있으므로 그에 대한 상세 설명은 생략한다.The basic signal processing technologies for gesture recognition, 3D realization, virtual reality image playback, and augmented reality service among the services provided by the smarton glasses according to the present embodiment are well known in the art, and thus detailed descriptions thereof will be omitted. do.

도 5는 본 발명의 다른 실시예에 따른 스마트 안경에 채용할 수 있는 메인 제어보드의 주요 구성을 설명하기 위한 블록도이다.5 is a block diagram illustrating a main configuration of a main control board that can be employed in smart glasses according to another embodiment of the present invention.

도 5를 참조하면, 본 실시예에 따른 메인 제어보드(21)는 제어장치(210)는 통신부(211), 프로세서(212) 및 메모리(213)를 포함할 수 있다. 제어장치(2120)는 컨트롤러 또는 컴퓨팅 장치를 포함할 수 있다. 프로세서(212)는 제어부로 지칭될 수 있다.Referring to FIG. 5, in the main control board 21 according to the present embodiment, the control device 210 may include a communication unit 211, a processor 212, and a memory 213. The control device 2120 may include a controller or a computing device. The processor 212 may be referred to as a control unit.

통신부(211)는 제어장치(210)를 네트워크에 연결한다. 통신부(211)는 네트워크를 통해 인터넷이나 네트워크 상의 다양한 서버에 접속할 수 있으며, 다양한 서버와 상호 협력하거나 연동하여 동작할 수 있다. 서버는 가상 현실을 지원하는 서버, 증강 현실을 지원하는 서버 등을 포함할 수 있다.The communication unit 211 connects the control device 210 to a network. The communication unit 211 may access the Internet or various servers on the network through a network, and may operate in cooperation or interworking with various servers. The server may include a server supporting virtual reality, a server supporting augmented reality, and the like.

통신부(211)는 하나 이상의 통신 프로토콜을 지원하는 하나 이상의 유선 및/또는 무선 통신 서브시스템을 포함할 수 있다. 유선 통신 서브시스템은 PSTN(public switched telephone network), ADSL(Asymmetric Digital SubscriberLine) 또는 VDSL(Very high-data rate Digital SubscriberLine) 네트워크, PES(PSTN Emulation Service)를 위한 서브시스템, IP(internet protocol) 멀티미디어 서브시스템(IMS) 등을 포함할 수 있다. 무선 통신 서브시스템은 무선 주파수(radio frequency, RF) 수신기, RF 송신기, RF 송수신기, 광(예컨대, 적외선) 수신기, 광 송신기, 광 송수신기 또는 이들의 조합을 포함할 수 있다.The communication unit 211 may include one or more wired and/or wireless communication subsystems supporting one or more communication protocols. The wired communication subsystem is a public switched telephone network (PSTN), ADSL (Asymmetric Digital SubscriberLine) or VDSL (Very high-data rate Digital SubscriberLine) network, a subsystem for PES (PSTN Emulation Service), and an IP (internet protocol) multimedia subsystem. System (IMS), and the like. The wireless communication subsystem may include a radio frequency (RF) receiver, an RF transmitter, an RF transceiver, an optical (eg, infrared) receiver, an optical transmitter, an optical transceiver, or a combination thereof.

무선 네트워크는 기본적으로 Wi-Fi를 지칭하나, 이에 한정되지 않는다. 본 실시예에서 통신부(211)는 다양한 무선 네트워크 예를 들어, GSM(Global System for Mobile Communication), EDGE(Enhanced Data GSM Environment), CDMA(Code Division MultipleAccess), W-CDMA(W-Code Division MultipleAccess), LTE(Long Term Evolution), LET-A(LET-Advanced), OFDMA(Orthogonal Frequency Division Multiple Access), WiMax, Wi-Fi(Wireless Fidelity), Bluetooth 등에서 선택되는 적어도 하나 이상을 지원하도록 구현될 수 있다.The wireless network basically refers to Wi-Fi, but is not limited thereto. In this embodiment, the communication unit 211 includes various wireless networks, for example, Global System for Mobile Communication (GSM), Enhanced Data GSM Environment (EDGE), Code Division Multiple Access (CDMA), and W-Code Division Multiple Access (W-CDMA). , LTE (Long Term Evolution), LET-A (LET-Advanced), OFDMA (Orthogonal Frequency Division Multiple Access), WiMax, Wi-Fi (Wireless Fidelity), may be implemented to support at least one selected from Bluetooth. .

프로세서(212)는 내장 메모리 혹은 메모리(213)에 저장되는 소프트웨어 모듈이나 프로그램을 수행하여 스마트 안경을 통해 다양한 서비스를 제공할 수 있다. 프로세서(212)는 마이크로프로세서로 지칭될 수 있다.The processor 212 may provide various services through smart glasses by executing a software module or program stored in the internal memory or the memory 213. The processor 212 may be referred to as a microprocessor.

프로세서(212)는 적어도 하나 이상의 중앙 처리 장치(CPU) 또는 코어를 포함하는 프로세서나 마이크로프로세서로 구현될 수 있다. 중앙처리장치 또는 코어는 처리할 명령어를 저장하는 레지스터(register)와, 비교, 판단, 연산을 담당하는 산술논리연산장치(arithmetic logical unit, ALU)와, 명령어의 해석과 실행을 위해 CPU를 내부적으로 제어하는 제어유닛(control unit)과, 이들을 연결하는 내부 버스 등을 구비할 수 있다. 중앙처리장치 혹은 코어는 MCU(micro control unit)와 주변 장치(외부 확장 장치를 위한 집적회로)가 함께 배치되는 SOC(system on chip)로 구현될 수 있으나, 이에 한정되지는 않는다.The processor 212 may be implemented as a processor or microprocessor including at least one central processing unit (CPU) or core. The central processing unit or core is a register storing instructions to be processed, an arithmetic logical unit (ALU) in charge of comparison, judgment, and operation, and the CPU internally for interpretation and execution of instructions. It may be provided with a control unit (control unit) to control, and an internal bus connecting them. The central processing unit or core may be implemented as a system on chip (SOC) in which a micro control unit (MCU) and a peripheral device (an integrated circuit for an external expansion device) are disposed together, but is not limited thereto.

또한, 프로세서(212)는 하나 이상의 데이터 프로세서, 이미지 프로세서 또는 코덱(CODEC)을 포함할 수 있으나, 이에 한정되지는 않는다. 제어부(212)는 주변장치 인터페이스와 메모리 인터페이스를 구비할 수 있다. 주변장치 인터페이스는 프로세서(212)와 출력장치 등의 입출력 시스템이나 다른 주변 장치를 연결하고, 메모리 인터페이스는 프로세서(212)와 메모리(213)를 연결할 수 있다.Further, the processor 212 may include one or more data processors, image processors, or codecs, but is not limited thereto. The control unit 212 may include a peripheral device interface and a memory interface. The peripheral device interface may connect the processor 212 and an input/output system such as an output device or other peripheral devices, and the memory interface may connect the processor 212 and the memory 213.

본 실시예에서 프로세서(212)는 영상 디스플레이에 의해 상대적으로 많은 전력을 소모하는 동작 조건하에서도 배터리의 1회 충전에 상대적으로 긴 작동 시간을 확보하기 위해 제1 배터리 팩(24) 및 제2 배터리 팩(26)을 제어한다. 이를 위해 프로세서(212)는 각 배터리 팩의 배터리 관리 시스템(BMS, 240)과 연결되고 통신할 수 있다. 또한, 프로세서(212)는 디스플레이 시스템(30)의 두 디스플레이 장치들의 적어도 하나 또는 둘 모두의 제어장치나 타이밍 제어기 등에 접속할 수 있고, 이를 통해 디스플레이 장치의 동작을 제어할 수 있다.In this embodiment, the processor 212 includes the first battery pack 24 and the second battery in order to secure a relatively long operating time for a single charge of the battery even under an operating condition that consumes a relatively large amount of power by the image display. Controls the pack 26. To this end, the processor 212 may be connected to and communicate with the battery management system (BMS) 240 of each battery pack. In addition, the processor 212 may be connected to a control device or a timing controller of at least one or both of the two display devices of the display system 30, and control the operation of the display device through this.

메모리(213)는 스마트 안경을 통한 사물 인식, 제스처 인식, 가상 현실, 증강 현실 등의 서비스를 제공하기 위한 소프트웨어 모듈을 저장할 수 있다. 예를 들어, 소프트웨어 모듈은, 제어처 인식을 위한 제1 모듈(215); 3차원 영상 제공이나 3차원 제어를 위한 제2 모듈(216); 가상 현실의 디스플레이 영상 서비스를 제공하기 위한 제3 모듈(217); 현재 보이는 실제 세계의 영상에 가상체를 부가하는 증강 현실의 디스플레이 영상 서비스를 제공하기 위한 제4 모듈(218) 등을 포함할 수 있다. 이러한 모듈은 프로세서(212)에 의해 수행되어 프로세서(212) 내에서 특정 기능이나 동작을 수행하는 적어도 하나의 태스크 프로세서로서 구현될 수 있다.The memory 213 may store a software module for providing services such as object recognition, gesture recognition, virtual reality, and augmented reality through smart glasses. For example, the software module includes: a first module 215 for recognizing a control destination; A second module 216 for providing a 3D image or controlling 3D; A third module 217 for providing a display image service of virtual reality; It may include a fourth module 218 and the like for providing a display image service of an augmented reality that adds a virtual object to the currently visible real world image. Such a module may be implemented by the processor 212 and implemented as at least one task processor that performs a specific function or operation within the processor 212.

전술한 메모리(213)는 비휘발성 랜덤 액세스 메모리(non-volatile RAM, NVRAM), 대표적 휘발성 메모리인 DRAM(dynamic random access memory) 등의 반도체 메모리, 하드디스크 드라이브(hard disk drive, HDD), 광 저장 장치, 플래시 메모리 등으로 구현될 수 있다. 그리고 메모리(56)는 인쇄물 제작 서비스 방법을 구현하기 위한 소프트웨어 모듈들 외에 운영체제, 프로그램, 명령어 집합 등을 저장할 수 있다.The above-described memory 213 is a semiconductor memory such as non-volatile random access memory (NVRAM), a typical volatile memory such as dynamic random access memory (DRAM), a hard disk drive (HDD), and optical storage. It can be implemented as a device, flash memory, or the like. In addition, the memory 56 may store an operating system, a program, an instruction set, and the like, in addition to software modules for implementing the print production service method.

한편, 전술한 실시예에 있어서, 스마트 안경 장치의 구성요소들은 비휘발성 메모리(NVRAM) 기반의 다양한 컴퓨팅 장치에 탑재되는 기능 블록 또는 모듈로 구현될 수 있다. 예컨대, 도 5의 프로세서의 메모리에 저장되는 소프트웨어 모듈은 이들이 수행하는 일련의 기능을 구현하기 위한 소프트웨어 형태로 컴퓨터 판독 가능 매체(기록매체)에 저장되거나 혹은 캐리어 형태로 원격지의 서버 장치 내 저장장치에 저장되고 서버 장치와 네트워크를 통해 연결되는 특정 컴퓨팅 장치에서 동작하도록 구현될 수 있다. 여기서 컴퓨터 판독 가능 매체는 네트워크를 통해 연결되는 복수의 컴퓨터 장치나 클라우드 시스템의 메모리나 저장 장치를 포함할 수 있고, 복수의 컴퓨터 장치나 클라우드 시스템 중 적어도 하나 이상은 본 실시예의 스마트 안경에서 다양한 서비스를 구현하기 위한 프로그램이나 소스 코드를 저장할 수 있다.Meanwhile, in the above-described embodiment, components of the smart glasses device may be implemented as functional blocks or modules mounted on various computing devices based on nonvolatile memory (NVRAM). For example, the software modules stored in the memory of the processor of FIG. 5 are stored in a computer-readable medium (recording medium) in the form of software for implementing a series of functions performed by them, or in a storage device in a remote server device in the form of a carrier. It may be implemented to operate on a specific computing device that is stored and connected via a network with the server device. Here, the computer-readable medium may include a plurality of computer devices connected through a network or a memory or storage device of a cloud system, and at least one of the plurality of computer devices or cloud systems provides various services in the smart glasses of the present embodiment. You can save the program or source code to implement.

또한, 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하는 형태로 구현될 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것을 포함할 수 있다.Further, the computer-readable medium may be implemented in a form of singly or in combination with program instructions, data files, and data structures. The programs recorded on the computer-readable medium may include those specially designed and configured for the present invention or those known and usable to those skilled in computer software.

또한, 컴퓨터 판독 가능 매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 여기서 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 하드웨어 장치는 본 실시예의 스마트 안경을 통해 제공가능한 모든 서비스의 구현을 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the computer-readable medium may include a hardware device specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Here, the program instruction may include a high-level language code that can be executed by a computer using an interpreter or the like as well as a machine language code that is generated by a compiler. The hardware device may be configured to operate as at least one software module to implement all services that can be provided through the smart glasses of the present embodiment, and vice versa.

한편, 본 실시예의 제어장치(210)는 설명의 편의상 제어부, 메모리 및 통신부를 단일 기판이나 단일 하우징에 포함하는 컨트롤러로 구현될 수 있으나, 이에 한정되지 않고, 제어부와 메모리를 포함하거나 제어부만을 포함하는 형태로 구현될 수 있다.Meanwhile, the control device 210 of the present embodiment may be implemented as a controller including a control unit, a memory, and a communication unit in a single substrate or a single housing for convenience of description, but is not limited thereto, and includes a control unit and a memory or only a control unit. It can be implemented in a form.

도 6은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다.6 is a perspective view of smart glasses according to another embodiment of the present invention.

도 6을 참조하면, 본 실시예에 따른 스마트 안경(100a)은 안경 프레임 형태의 프레임 어셈블리(10); 및 사용자가 스마트 안경을 착용할 때 사용자의 얼굴 전면 중앙부에서 영상을 출력하는 디스플레이와, 디스플레이의 영상을 반사, 확대, 부분 반사 및 부분 투과시키는 광학계를 일체로 지지하는 케이스 조립체(60)를 포함한다.Referring to FIG. 6, the smart glasses 100a according to the present embodiment include a frame assembly 10 in the form of a glasses frame; And a case assembly 60 integrally supporting a display that outputs an image from the front central portion of the user's face when the user wears smart glasses, and an optical system that reflects, enlarges, partially reflects, and partially transmits the image of the display. .

본 실시예에 있어서, 참조번호 50a로 표시된 제1 메인렌즈(도 2의 54 참조)와 제2 메인렌즈(도 2의 57 참조)는 앞서 설명한 실시예와 달리 판상의 반사 및 투과 부재로 이루어지며, 제1 메인렌즈와 제2 메인렌즈 각각의 중심축과 일정 각도 범위에서 경사지게 배치된다. 제1 메인렌즈와 제2 메인렌즈는 수 밀리미터 이하의 두께를 가지는 판상 부재 형태의 빔 스플리터일 수 있다.In this embodiment, the first main lens (see 54 in FIG. 2) and the second main lens (see 57 in FIG. 2) denoted by reference numeral 50a are made of plate-shaped reflective and transmissive members, unlike the above-described embodiment. , The first main lens and the second main lens are disposed to be inclined in a predetermined angle range with the central axis of each. The first main lens and the second main lens may be a beam splitter in the form of a plate member having a thickness of several millimeters or less.

제1 메인렌즈와 제2 메인렌즈는 영상을 부분 반사 및 부분 투과시켜 스마트 안경을 착용한 사용자가 허상면에 맺히는 영상을 보게 함으로써 실질적으로 스마트 안경을 통해 상대적으로 큰 영상을 볼 수 있도록 한다.The first main lens and the second main lens partially reflect and partially transmit the image so that the user wearing the smart glasses sees the image formed on the virtual image so that a relatively large image can be viewed through the smart glasses.

도 7은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다. 도 8은 도 7의 스마트 안경에 대한 정면도이다. 도 9는 도 8의 스마트 안경의 내부 구조를 설명하기 위한 부분 투영 정면도이다. 도 10은 도 7의 스마트 안경에 대한 우측면도이다. 도 11은 도 10의 스마트 안경의 내부 구조를 보여주는 부분 투영 우측면도이다. 그리고 도 12는 도 7의 스마트 안경의 구성요소를 설명하기 위한 부분 분해사시도이다.7 is a perspective view of smart glasses according to another embodiment of the present invention. 8 is a front view of the smart glasses of FIG. 7. 9 is a partial projection front view for explaining the internal structure of the smart glasses of FIG. 8. 10 is a right side view of the smart glasses of FIG. 7. 11 is a partial projection right side view showing the internal structure of the smart glasses of FIG. 10. And FIG. 12 is a partial exploded perspective view for explaining the components of the smart glasses of FIG. 7.

본 실시예에서는 설명의 편의상 앞서 설명한 실시예들의 스마트 안경(100 또는 100a)과 동일한 참조번호 100으로 표시하기로 한다.In this embodiment, for convenience of description, the same reference numeral 100 as the smart glasses 100 or 100a of the above-described embodiments will be designated.

본 실시예에 따른 스마트 안경(100)은, 메인 프레임(110), 제1 디스플레이(131), 제2 디스플레이(132), 제1 미러(133), 제2 미러(134), 제1 메인렌즈(137) 및 제2 메인렌즈(138)를 포함한다. 또한, 스마트 안경(100)은 제1 보조렌즈(135) 및 제2 보조렌즈(136)를 더 구비할 수 있다.The smart glasses 100 according to the present embodiment include a main frame 110, a first display 131, a second display 132, a first mirror 133, a second mirror 134, and a first main lens. (137) and a second main lens (138). In addition, the smart glasses 100 may further include a first auxiliary lens 135 and a second auxiliary lens 136.

또한, 스마트 안경(100)은 프로세서를 포함한 컨트롤러(도 15의 210 참조)와, 제1 및 제2 디스플레이(131, 132)를 위한 디스플레이 인터페이스(display interface, 160)와 이들 사이를 연결하는 연성인쇄회로기판(flexible printed circit board, FPCB, 164)을 구비할 수 있다. 컨트롤러는 제어 및 전원 장치로서 지칭될 수 있고, 내장되거나 별도의 통신 및 전원 보드를 구비할 수 있다. 통신 및 전원 보드는 커넥터나 통신 또는 전원을 중계하거나 상호 연결하는 수단이나 구성부를 포함할 수 있다.In addition, the smart glasses 100 includes a controller including a processor (refer to 210 of FIG. 15), a display interface 160 for the first and second displays 131 and 132, and a flexible print connecting them. A flexible printed circuit board (FPCB) 164 may be provided. The controller may be referred to as a control and power device, and may be built-in or have separate communication and power boards. The communication and power board may include a connector or a means or component for relaying or interconnecting communication or power.

또한, 스마트 안경(100)은 하나 이상의 전면 카메라(151)와 하나 이상의 후면 카메라(153)를 구비할 수 있다. 전면 카메라(151)가 서로 일정 간격 이격되는 제1 전면 카메라와 제2 전면 카메라를 포함하는 경우, 3D 코텐츠에 대한 입력이나 적용을 용이하게 할 수 있다. 전면 또는 후면 카메라는 센서의 일종이거나 센서로서 기능할 수 있다. 특히, 후면 카메라(153)나 센서는 사용자의 눈꺼풀 동작을 감지하는 수단이나 이러한 수단에 상응하는 기능을 수행하는 장치일 수 있다.In addition, the smart glasses 100 may include one or more front cameras 151 and one or more rear cameras 153. When the front camera 151 includes a first front camera and a second front camera that are spaced apart from each other by a predetermined interval, it is possible to easily input or apply 3D content. The front or rear camera is a kind of sensor or can function as a sensor. In particular, the rear camera 153 or the sensor may be a means for detecting a user's eyelid motion or a device for performing a function corresponding to such a means.

또한, 스마트 안경(100)은, 카메라나 센서 혹은 제어 및 전원 장치로부터의 신호에 따라 진동 동작하는 액추에이터나 구동기(194)를 더 구비하거나 혹은 상기 신호에 응하여 음향 신호를 출력하는 스피커를 더 구비할 수 있다. 구동기(194)는 진동 모터를 포함할 수 있다.In addition, the smart glasses 100 may further include an actuator or actuator 194 that vibrates in response to signals from a camera or sensor or a control and power supply device, or a speaker that outputs an acoustic signal in response to the signal. I can. The driver 194 may include a vibration motor.

또한, 스마트 안경(100)은 제1 디스플레이(131), 제2 디스플레이(132), 디스플레이 인터페이스(160) 등에서 발생하는 열을 방출하는 방열구조 또는 히트싱크를 더 구비할 수 있다. 제1 디스플레이(131) 및 제2 디스플레이(132) 중 적어도 하나는 디스플레이부로 지칭될 수 있다. 디스플레이는 디스플레이 장치를 간략히 지칭하는 것이며, 디스플레이가 액정표시장치인 경우, 디스플레이는 백라이트 유닛을 포함할 수 있다. In addition, the smart glasses 100 may further include a heat dissipation structure or a heat sink for dissipating heat generated from the first display 131, the second display 132, and the display interface 160. At least one of the first display 131 and the second display 132 may be referred to as a display unit. The display simply refers to a display device, and when the display is a liquid crystal display device, the display may include a backlight unit.

각 구성요소를 좀더 구체적으로 설명하면, 메인 프레임(110)은 대략 U-자 모양을 구비한 단단한 재질로 형성하고 안경테 모양이나 안경테의 뼈대 모양을 가진다. 메인 프레임(110)은 단일 구조물로 형성될 수 있으며, 그 경우 메인 프레임(110)은 중앙 프레임 부분(110c)과 그 양단에 결합하여 안경테 형태를 형성하는 좌측 프레임 부분(110a) 및 우측 프레임 부분(110b)을 구비할 수 있다. 좌측 및 우측은 사용자 입장에서 반대측일 수 있다.To describe each component in more detail, the main frame 110 is formed of a solid material having an approximately U-shape and has a shape of a frame or a frame of a frame. The main frame 110 may be formed of a single structure, and in that case, the main frame 110 includes a central frame portion 110c and a left frame portion 110a and a right frame portion ( 110b) may be provided. The left and right sides may be opposite sides from the user's point of view.

한편, 본 실시예에 메인 프레임(110)은 제조의 용이성과 경량화를 위해 중간부에 배치되는 지지 프레임과 지지 프레임의 좌측에 결합하는 제1 측면 프레임 및 우측에 결합하는 제2 측면 프레임의 결합 구조를 구비할 수 있다. 이 경우, 지지 프레임은 디스플레이, 미러, 보조렌즈 및 메인렌즈의 지지와 배치 그리고 조립을 용이하게 하기 위하여 제1 지지 프레임(120a) 및 제2 지지 프레임(120b)로 착탈가능하게 형성될 수 있다.On the other hand, in this embodiment, the main frame 110 is a combination structure of a support frame disposed in the middle for ease of manufacture and weight reduction, a first side frame coupled to the left side of the support frame, and a second side frame coupled to the right side. It can be provided. In this case, the support frame may be detachably formed as the first support frame 120a and the second support frame 120b in order to facilitate support, arrangement, and assembly of the display, mirror, auxiliary lens, and main lens.

여기서, 설명의 편의상 좌측 프레임 부분 및 제1 측면 프레임을 단일 참조부호 110a로 표현하고, 우측 프레임 부분 및 제2 측면 프레임을 단일 참조부호 110b로 표현하기로 한다. 지지 프레임(120)은 제1 지지 프레임(120a) 및 제2 지지 프레임(120b)이 결합된 형태를 지칭할 수 있다.Here, for convenience of explanation, the left frame portion and the first side frame are denoted by a single reference numeral 110a, and the right frame portion and the second side frame are denoted by a single reference numeral 110b. The support frame 120 may refer to a form in which the first support frame 120a and the second support frame 120b are combined.

지지 프레임(120)의 중앙부에는 디스플레이 인터페이스(160)가 삽입되고 중앙 상부측에 배치되는 연성인쇄회로기판(flexible printed circuit board, FPCB, 164)의 터미널을 통해 컨트롤러와 전기적으로 연결될 수 있다. 그리고 디스플레이 인터페이스(160)는 제1 디스플레이(131) 및 제2 디스플레이(132)에 연결된다.The display interface 160 is inserted in the central portion of the support frame 120 and may be electrically connected to the controller through a terminal of a flexible printed circuit board (FPCB) 164 disposed on the upper central side. In addition, the display interface 160 is connected to the first display 131 and the second display 132.

FPCB(164)는 중앙 전면부의 터미널에서 메인 프레임(110) 또는 지지 프레임(120)의 상부면을 따라 제1 측면 프레임(110a)과 제2 측면 프레임(110b)까지 연장 설치될 수 있다.The FPCB 164 may be installed extending from the terminal at the central front portion to the first side frame 110a and the second side frame 110b along the upper surface of the main frame 110 or the support frame 120.

지지 프레임(120)의 박스 형태의 중앙부의 양측면에는 제1 디스플레이(131)와 제2 디스플레이(132)가 배치되어 서로 반대방향으로 제1 영상 및 제2 영상을 출력한다. 제1 디스플레이(131) 또는 제2 디스플레이(132)는 박막트랜지스터 액정 디스플레이(thin film transtor liquid crystal display, TFT LCD), 유기발광다이오드(organic light emitting diode, OLED), LCoS(liquid crystal on silicon), 디지털 광원 처리(digital light processing, DLP) 기반 디스플레이에서 선택되는 적어도 어느 하나를 포함할 수 있다.The first display 131 and the second display 132 are disposed on both side surfaces of the box-shaped central portion of the support frame 120 to output a first image and a second image in opposite directions. The first display 131 or the second display 132 is a thin film transistor liquid crystal display (TFT LCD), an organic light emitting diode (OLED), a liquid crystal on silicon (LCoS), It may include at least one selected from a digital light processing (DLP) based display.

제1 디스플레이(131)의 전면에는 지지 프레임(120)의 좌측 경사면 지지구조부분에 의해 지지되는 제1 미러(133)가 설치되고 제1 디스플레이(131)의 제1 영상을 좌측 방향과 대략 직교하는 제1 하측 방향으로 반사할 수 있다. 이와 유사하게, 제2 디스플레이(132)의 전면에는 지지 프레임(120)의 우측 경사면 지지구조부분에 의해 지지되는 제2 미러(134)가 설치되고 제2 디스플레이(132)의 제2 영상을 우측 방향과 대략 직교하는 제2 하측 방향으로 반사할 수 있다. 제2 하측 방향은 대략 사용자의 두 눈들 사이의 간격 정도의 거리를 두고 서로 평행한 방향일 수 있다.A first mirror 133 supported by a support structure portion on the left inclined surface of the support frame 120 is installed in the front of the first display 131, and the first image of the first display 131 is substantially perpendicular to the left direction. It can reflect in the first downward direction. Similarly, a second mirror 134 supported by a support structure portion of the right inclined surface of the support frame 120 is installed on the front of the second display 132 and the second image of the second display 132 is directed to the right. It may reflect in a second downward direction approximately orthogonal to. The second downward direction may be a direction parallel to each other with a distance approximately equal to a distance between two eyes of the user.

제1 미러(133)에서 반사되는 제1 영상은 제1 보조렌즈(135)에서 확대된다. 제1 보조렌즈(135)는 지지 프레임(120)의 요철구조 형태의 지지구조에 삽입되어 지지될 수 있다. 제1 보조렌즈(135)는 제1 영상을 확대하여 제1 메인렌즈(137)에 전달한다.The first image reflected by the first mirror 133 is enlarged by the first auxiliary lens 135. The first auxiliary lens 135 may be supported by being inserted into a support structure having an uneven structure of the support frame 120. The first auxiliary lens 135 magnifies the first image and transmits it to the first main lens 137.

이와 유사하게, 제2 미러(134)에서 반사되는 제2 영상은 제2 보조렌즈(136)에서 확대된다. 제2 보조렌즈(136)는 지지 프레임(120)의 요철구조 형태의 지지구조에 삽입되어 지지될 수 있다. 제2 보조렌즈(136)는 제2 영상을 확대하여 제2 메인렌즈(138)에 전달한다.Similarly, the second image reflected by the second mirror 134 is enlarged by the second auxiliary lens 136. The second auxiliary lens 136 may be supported by being inserted into a support structure having an uneven structure of the support frame 120. The second auxiliary lens 136 magnifies the second image and transmits it to the second main lens 138.

제1 보조렌즈(135) 또는 제2 보조렌즈(136)는, 영상이 입력단 측에서 볼 때를 기준으로, 일면 볼록 렌즈(타면 오목 렌즈), 양면 볼록 렌즈 및 일면 볼록면 렌즈의 적층 구조나 중첩 배열을 구비할 수 있다. 전술한 제1 및 제2 보조렌즈들(135, 136)은 제1 영상과 제2 영상을 원하는 크기로 확대하고 구면 수차를 제거하기 위한 것으로, 구현에 따라 다양한 변형이 가능하다.The first auxiliary lens 135 or the second auxiliary lens 136 is a stacked structure or overlapping of a single-sided convex lens (the other-sided concave lens), a double-sided convex lens, and a single-sided convex lens when the image is viewed from the input end side. May have an arrangement. The above-described first and second auxiliary lenses 135 and 136 are for enlarging the first image and the second image to a desired size and removing spherical aberration, and various modifications are possible according to implementation.

제1 메인렌즈(137)는 제1 보조렌즈(135)의 하부에 배치된다. 제1 메인렌즈(137)는 도 1에 참조번호 50으로 표시되거나 도 6에 참조부호 50a로 표시된 제1 메인렌즈 또는 제2 메인렌즈에 대응될 수 있다.The first main lens 137 is disposed under the first auxiliary lens 135. The first main lens 137 may correspond to a first main lens or a second main lens indicated by reference numeral 50 in FIG. 1 or 50a in FIG. 6.

제1 메인렌즈(137)은 상대적으로 얇은 판상의 렌즈 부재를 제1 보조렌즈(135)의 중심축과 경사지게 설치한 배치 구조를 구비할 수 있다. 제1 메인렌즈(137)는 제1 보조렌즈(135)의 하부측에서 지지 프레임(120)이나 중앙 프레임 부분(110c, 이하 간략히 중앙 프레임)의 하부에 결합될 수 있다. 제1 메인렌즈(137)는 빔 스플리터(beam splitter)로서 제1 영상 또는 제1 보조렌즈(135)를 통과한 제1 영상을 사용자의 눈을 향해 대략 직각으로 반사할 수 있다.The first main lens 137 may have an arrangement structure in which a relatively thin plate-shaped lens member is installed to be inclined with a central axis of the first auxiliary lens 135. The first main lens 137 may be coupled to the lower side of the support frame 120 or the central frame portion 110c (hereinafter, briefly the central frame) at the lower side of the first auxiliary lens 135. The first main lens 137 is a beam splitter and may reflect a first image or a first image passing through the first auxiliary lens 135 toward the user's eyes at a substantially right angle.

일례로 제1 미러(133)에서 대략 수직 방향으로 내려오는 제1 영상은 제1 메인렌즈(137)의 반사면을 중심으로 사용자의 눈을 향하는 영상과 사용자 눈의 전방을 향하는 허상을 형성한다. 반사면에서 하상이 맺히는 위치 혹은 영상면까지의 거리는 약 20미터일 수 있다.For example, a first image descending from the first mirror 133 in a substantially vertical direction forms an image directed toward the user's eyes and a virtual image toward the front of the user's eyes, centered on the reflective surface of the first main lens 137. The distance from the reflective surface to the location where the bed forms or the image plane may be about 20 meters.

유사하게, 제2 메인렌즈(138)는 제2 보조렌즈(136)의 하부에 배치된다. 제2 메인렌즈(138)은 상대적으로 얇은 판상의 렌즈 부재를 제2 보조렌즈(136)의 중심축과 경사지게 설치한 배치 구조를 구비할 수 있다. 제2 메인렌즈(138)는 제2 보조렌즈(136)의 하부측에서 지지 프레임(120)이나 중앙 프레임(110c)의 하부에 결합될 수 있다. 제2 메인렌즈(138)는 빔 스플리터(beam splitter)로서 제2 보조렌즈(136)를 통과한 제2 영상을 사용자의 눈을 향해 대략 직각으로 반사할 수 있다.Similarly, the second main lens 138 is disposed under the second auxiliary lens 136. The second main lens 138 may have an arrangement structure in which a relatively thin plate-shaped lens member is installed to be inclined with a central axis of the second auxiliary lens 136. The second main lens 138 may be coupled to a lower side of the support frame 120 or the central frame 110c from the lower side of the second auxiliary lens 136. The second main lens 138 is a beam splitter and may reflect a second image that has passed through the second auxiliary lens 136 toward the user's eye at a substantially right angle.

일례로 제2 미러(134)에서 대략 수직 방향으로 내려오는 제2 영상은 제2 메인렌즈(138)의 반사면을 중심으로 사용자의 눈을 향하는 영상과 사용자 눈의 전방을 향하는 허상을 형성한다.For example, the second image descending from the second mirror 134 in a substantially vertical direction forms an image directed toward the user's eye and a virtual image toward the front of the user's eye based on the reflective surface of the second main lens 138.

전술한 보조렌즈(135, 136)의 볼록한 면은 영상 또는 콘텐츠를 확대하고 구면 수차를 없애기 위하여 3개의 비구면 렌즈를 포함하도록 설치될 수 있다.The convex surfaces of the auxiliary lenses 135 and 136 described above may be installed to include three aspherical lenses to enlarge an image or content and eliminate spherical aberration.

또한, 지지 프레임(120)의 중앙 하부측에는 코걸이 부재(140)가 연결될 수 있다. 코걸이 부재(140)는 적어도 일부가 상대적인 연성 재질로 이루어질 수 있다. 연성 재질은 합성수지를 포함할 수 있다.In addition, the nose ring member 140 may be connected to the lower central side of the support frame 120. At least a portion of the nose ring member 140 may be made of a relatively soft material. The soft material may include synthetic resin.

메인 프레임(110)의 중앙 상부측에는 상부 커버(113)가 결합하고, 중앙 전면상부측에는 전면상부커버(114)가 결합하고, 중앙 전면 최상부 중앙에는 전면보조커버(115)가 결합될 수 있다. 전면상부커버(114)는 제1 및 제2 지지 프레임(120a, 120b)을 게재하고 후면커버(112c)와 나사나 볼트 등의 체결수단에 의해 중앙 프레임(120c)에 결합할 수 있다. 전면보조커버(115)는 전면 카메라(151)의 노출 렌즈 부분을 덮을 수 있으며, 그 경우 전면보조커버(115)의 적어도 일부분은 투명 혹은 반투명 재질로 형성될 수 있다. 또한, 구현에 따라서 전면보조커버(115)는 전면 카메라(151)의 렌즈 노출을 위한 개구부나 관통홀을 구비할 수 있다.The upper cover 113 is coupled to the central upper side of the main frame 110, the front upper cover 114 is coupled to the central front upper side, and the front auxiliary cover 115 may be coupled to the upper center of the central front. The front upper cover 114 may include the first and second support frames 120a and 120b, and may be coupled to the central frame 120c by fastening means such as a rear cover 112c and screws or bolts. The front auxiliary cover 115 may cover the exposed lens portion of the front camera 151, and in that case, at least a portion of the front auxiliary cover 115 may be formed of a transparent or translucent material. In addition, depending on implementation, the front auxiliary cover 115 may have an opening or a through hole for exposing the lens of the front camera 151.

제1 측면 프레임(110a)의 일단은 지지 프레임(120)의 좌측에 연결되고, 그 타단은 제1 측면 연결 프레임(121)에 연결될 수 있다. 제1 측면 연결 프레임(121)은 제1 측면 종단 프레임(a first side end frame, 122)에 연결될 수 있다. 제1 측면 종단 프레임(122)은 제1 배터리(172)를 수납하는 내부 공간을 구비하며, 후술하는 제2 측면 종단 프레임(125)과 마주하는 내부 공간의 개구부는 제1 연성 커버(123)에 의해 탈착가능하게 덮힐 수 있다. 제1 측면 연결 프레임(121)과 제1 연성 커버(123)는 적어도 그 표면 부분이 사용자의 귀와 그 뒤쪽에 접하는 부분으로 착용감을 좋게 하기 위해 고무나 연질의 합성수지 재질로 형성될 수 있다.One end of the first side frame 110a may be connected to the left side of the support frame 120, and the other end may be connected to the first side connection frame 121. The first side connection frame 121 may be connected to a first side end frame 122. The first side end frame 122 has an inner space for accommodating the first battery 172, and the opening of the inner space facing the second side end frame 125 to be described later is in the first flexible cover 123 It can be covered detachably. The first side connection frame 121 and the first flexible cover 123 may be formed of rubber or a soft synthetic resin material in order to improve a fit with at least a surface portion thereof in contact with a user's ear and a rear portion thereof.

유사하게, 제2 측면 프레임(110b)의 일단은 지지 프레임(120)의 우측에 연결되고, 그 타단은 제2 측면 연결 프레임(124)에 연결될 수 있다. 제2 측면 연결 프레임(124)은 제2 측면 종단 프레임(a second side end frame, 125)에 연결될 수 있다. 제2 측면 종단 프레임(125)은 제2 배터리(171)를 수납하는 내부 공간을 구비하며, 전술한 제1 측면 종단 프레임(122)이나 제1 연성 커버(123)와 마주하는 내부 공간의 개구부는 제2 연성 커버(126)에 의해 탈착가능하게 폐쇄될 수 있다. 제2 측면 연결 프레임(124)과 제2 연성 커버(126)는 적어도 그 표면 부분이 사용자의 왼쪽 귀와 그 뒤쪽에 접하는 부분으로 착용감을 좋게 하기 위해 고무나 연질의 합성수지 재질로 형성될 수 있다. 제1 배터리(171) 및 제2 배터리(172)는 전원장치로 지칭될 수 있고, 구현에 따라서 하나의 배터리가 탑재되거나 하나의 배터리도 탑재되지 않고 모두 생략될 수 있다.Similarly, one end of the second side frame 110b may be connected to the right side of the support frame 120 and the other end of the second side frame 110b may be connected to the second side connection frame 124. The second side connection frame 124 may be connected to a second side end frame 125. The second side end frame 125 has an inner space for accommodating the second battery 171, and the opening of the inner space facing the first side end frame 122 or the first flexible cover 123 described above is It may be detachably closed by the second flexible cover 126. The second side connection frame 124 and the second flexible cover 126 may be formed of rubber or a soft synthetic resin material in order to improve the fit with at least a portion of the surface portion in contact with the left ear and the rear of the user. The first battery 171 and the second battery 172 may be referred to as a power supply device, and depending on implementation, one battery may be mounted or a battery may not be mounted and all may be omitted.

제1 측면 프레임(110a)의 외측면에는 제1 인쇄회로기판(a first PCB, 161)을 수용하도록 제1 측면 커버(112a)가 설치될 수 있다. 제1 인쇄회로기판(161)은 제1 배터리(172)에 연결되고 FPCB(164)의 일단에 연결될 수 있다. 유사하게, 제2 측면 프레임(110b)의 외측면에는 제2 인쇄회로기판(a second PCB, 162)을 수납하도록 제2 측면 커버(112b)가 결합될 수 있다. 제2 인쇄회로기판(162)은 제2 배터리(171)에 연결되고 FPCB(164)의 다른 타단에 연결될 수 있다.A first side cover 112a may be installed on an outer surface of the first side frame 110a to accommodate a first printed circuit board 161. The first printed circuit board 161 may be connected to the first battery 172 and may be connected to one end of the FPCB 164. Similarly, a second side cover 112b may be coupled to an outer surface of the second side frame 110b to accommodate a second printed circuit board (a second PCB) 162. The second printed circuit board 162 may be connected to the second battery 171 and may be connected to the other end of the FPCB 164.

제1 측면 프레임(110a)과 제2 측면 프레임(110b)의 전면측에는 쉴드(도 16의 180 참조)의 결합에서 결합력 확보 및 위치 지정을 위한 돌기 혹은 요철부를 구비할 수 있다. 또한, 요철부 대신에 그 형성면 부근에는 자석이나 자석을 붙는 금속성 재질이 내재하여 구비될 수 있으며, 그에 의해 쉴드와의 결합을 용이하게 하고 안정적인 결합 상태를 유지하도록 할 수 있다.The front side of the first side frame 110a and the second side frame 110b may be provided with a protrusion or convex portion for securing a coupling force and designating a position when the shield (refer to 180 in FIG. 16) is coupled. In addition, instead of the uneven portion, a magnet or a metallic material to which the magnet is attached may be provided in the vicinity of the formed surface, thereby facilitating coupling with the shield and maintaining a stable coupling state.

제1 인쇄회로기판(161)은 외부와의 데이터 송수신이나 전원을 받기 위한 적어도 하나의 포트 혹은 제1 커넥터를 구비할 수 있다. 제2 인쇄회로기판(162)은 외부와의 데이터 송수신이나 전원을 받기 위한 적어도 하나의 포트 혹은 제2 커넥터를 구비할 수 있다. 또한, 제1 또는 제2 인쇄회로기판(161; 162)은 이어폰 단자를 구비할 수 있다.The first printed circuit board 161 may include at least one port or a first connector for transmitting/receiving data to/from the outside or receiving power. The second printed circuit board 162 may include at least one port or a second connector for transmitting/receiving data to/from the outside or receiving power. In addition, the first or second printed circuit board 161; 162 may include an earphone terminal.

전면 카메라(151)는 메인 프레임(110) 또는 중앙 프레임(120c)의 전면에 노출되는 렌즈를 구비할 수 있다. 전면 카메라(151)는 두 개가 설치될 수 있으나 이에 한정되지는 않는다. 전면 카메라(151)의 렌즈나 그 주변 부분은 전면보조커버(115)에 보호될 수 있다. 전면 카메라(151)은 FPCB(164)의 또 다른 일단이나 연장부에 전기적으로 연결될 수 있다.The front camera 151 may include a lens exposed to the front of the main frame 110 or the central frame 120c. Two front cameras 151 may be installed, but the present invention is not limited thereto. The lens of the front camera 151 or a peripheral portion thereof may be protected by the front auxiliary cover 115. The front camera 151 may be electrically connected to another end or extension of the FPCB 164.

후면 카메라(153)는 메인 프레임(110) 또는 지지 프레임(120)의 후면에 노출되는 렌즈를 구비할 수 있다. 후면 카메라(153)는 하나가 설치될 수 있으나 이에 한정되지는 않는다. 후면 카메라(153)은 FPCB(164)의 또 다른 일단이나 연장부에 전기적으로 연결될 수 있다.The rear camera 153 may include a lens exposed to the rear of the main frame 110 or the support frame 120. One rear camera 153 may be installed, but is not limited thereto. The rear camera 153 may be electrically connected to another end or extension of the FPCB 164.

프로세서(도 5의 212 참조)는 제1 또는 제2 인쇄회로기판(161, 162)에 배치될 수 있다. 프로세서는 스마트 안경(100)의 구성요소들을 제어하여 스마트 안경(100)의 동작이나 기능을 운영 및 관리할 수 있다. 프로세서는 어플리케이션 프로세서(application processor, AP)를 포함할 수 있다. 프로세서는 디스플레이 인터페이스를 포함할 수 있다.The processor (see 212 of FIG. 5) may be disposed on the first or second printed circuit boards 161 and 162. The processor may operate and manage an operation or function of the smart glasses 100 by controlling the components of the smart glasses 100. The processor may include an application processor (AP). The processor may include a display interface.

디스플레이 인터페이스는 프로세서의 제어에 따라 제1 디스플레이(131) 및 제2 디스플레이(132)에 전달되는 신호의 타이밍을 제어할 수 있다. 신호는 영상 신호를 포함할 수 있다. 본 실시예에서 디스플레이 인터페이스로는 제1 및 제2 디스플레이들(131, 132)과 3D 콘텐츠에 적용하기 적합한 듀얼 및 3D MIPI DSI(Dual & 3D Mobile Industry Processor Interface Digital Serial Interface)(이하 간략히 DSI라고 한다)(도 17 210a 참조) 또는 이와 유사한 기능을 수행하는 수단이나 장치일 수 있다.The display interface may control timing of signals transmitted to the first display 131 and the second display 132 under control of the processor. The signal may include an image signal. In this embodiment, the display interface is a dual and 3D MIPI DSI (Dual & 3D Mobile Industry Processor Interface Digital Serial Interface) suitable for application to the first and second displays 131 and 132 and 3D content (hereinafter referred to as DSI for short). ) (See FIG. 17 210A) or a means or device that performs a similar function.

또한, 제1 또는 제2 측면 프레임(110a, 110b)에는 구동기(194)가 내장될 수 있다. 구동기(194)는 제1 또는 제2 인쇄회로기판(161, 162)에 전기적으로 연결되고 전면 카메라(151), 후면 카메라(153), 센서 또는 프로세서의 신호에 따라 동작하여 진동을 발생시킬 수 있다. 일례로, 후면 카메라(153)를 통해 사용자의 눈꺼풀을 인식하고 눈꺼풀이 일정 시간 이상동안 안구를 덮고 있다고 인식되는 경우, 후면 카메라(153)의 신호에 따라 졸음 방지 알람용 진동을 발생시킬 수 있다.In addition, a driver 194 may be incorporated in the first or second side frames 110a and 110b. The driver 194 may be electrically connected to the first or second printed circuit boards 161 and 162 and operate according to signals from the front camera 151, the rear camera 153, a sensor, or a processor to generate vibration. . As an example, when the user's eyelid is recognized through the rear camera 153 and it is recognized that the eyelid is covering the eyeball for a predetermined period of time or longer, a vibration for the anti-drowsiness alarm may be generated according to a signal from the rear camera 153.

또한, 지지 프레임(120)의 상부나 상부 커버(113)의 하부 또는 일부분에는 방열구조가 설치될 수 있다. 방열구조의 일단은 디스플레이 인터페이스(160), 제1 디스플레이(131), 제2 디스플레이(132), LCD용 백라이트 등에 연결되어 상기의 구성요소들 중 적어도 어느 하나에서 발생하는 열을 방출할 수 있다. 효과적인 열 방출을 위해, 방열구조는 중앙 프레임(120c)의 상단부의 길이 방향의 외곽선을 따라 연장할 수 있으며, 적어도 일면에 다수의 핀(fins)을 구비하여 단면적을 확장한 상태로 설치될 수 있다. 또한, 구현에 따라서, 방열구조는 상부 커버(113)의 길이 방향을 따라 일정 폭으로 설치되는 전도성이 우수한 재료에 연결되거나 상기의 고전도성 재료와 일체로 형성될 수 있다.In addition, a heat dissipation structure may be installed on the upper portion of the support frame 120 or at a lower portion or a portion of the upper cover 113. One end of the heat dissipation structure may be connected to the display interface 160, the first display 131, the second display 132, a backlight for an LCD, and the like to emit heat generated from at least one of the above components. For effective heat dissipation, the heat dissipation structure may extend along an outline in the longitudinal direction of the upper end of the central frame 120c, and may be installed in a state in which the cross-sectional area is expanded by providing a plurality of fins on at least one surface. . In addition, depending on the implementation, the heat dissipation structure may be connected to a material having excellent conductivity installed in a predetermined width along the length direction of the upper cover 113 or may be formed integrally with the highly conductive material.

도 13 및 도 14는 도 7의 스마트 안경에 채용할 수 있는 광학 시스템을 설명하기 위한 도면들이다.13 and 14 are diagrams for explaining an optical system that can be employed in the smart glasses of FIG. 7.

본 실시예에서는 제1 미러(133), 제1 보조렌즈(135a, 135b, 1372) 및 제1 메인렌즈(137)를 포함하는 광학 시스템을 중심으로 설명하나 제2 미러(134), 제2 보조렌즈(136) 및 제2 메인렌즈(138)를 포함하는 광학 시스템에도 동일하게 적용할 수 있음은 물론이다.In the present embodiment, the description is focused on the optical system including the first mirror 133, the first auxiliary lenses 135a, 135b, and 1372, and the first main lens 137, but the second mirror 134, the second auxiliary lens It goes without saying that the same can be applied to an optical system including the lens 136 and the second main lens 138.

도 13 및 도 14를 참조하면, 본 실시예에 따른 스마트 안경은 제1 미러(133), 제1 보조렌즈(135a, 135b, 1372) 및 제1 메인렌즈(137)를 포함하는 제1 또는 우측 광학 시스템과, 제2 미러, 제2 보조렌즈 및 제2 메인렌즈를 포함하는 제2 또는 좌측 광학 시스템(도 9의 134, 136 및 138 참조)을 포함한다.13 and 14, the smart glasses according to the present embodiment include a first mirror 133, a first auxiliary lens (135a, 135b, 1372), and a first or right side including a first main lens (137). An optical system, and a second or left optical system (see 134, 136 and 138 in FIG. 9) including a second mirror, a second auxiliary lens, and a second main lens.

본 실시예에서, 제1 메인렌즈와 제2 메인렌즈는 판상의 반사 및 투과 부재로 이루어지며, 제1 메인렌즈와 제2 메인렌즈 각각의 중심축과 일정 각도 범위에서 경사지게 배치된다. 제1 메인렌즈와 제2 메인렌즈는 수 밀리미터 이하의 두께를 가지는 판상 부재 형태의 빔 스플리터일 수 있다.In this embodiment, the first main lens and the second main lens are formed of plate-shaped reflective and transmissive members, and are disposed to be inclined at a predetermined angle range with the central axis of each of the first and second main lenses. The first main lens and the second main lens may be a beam splitter in the form of a plate member having a thickness of several millimeters or less.

또한, 본 실시예의 스마트 안경은 적어도 하나의 디스플레이 장치, 바람직하게는 두 개의 디스플레이 장치를 구비할 수 있고, 구현에 따라서 하나의 미러를 구비하거나 두 개의 미러(133, 134)를 구비할 수 있다.In addition, the smart glasses of the present embodiment may include at least one display device, preferably two display devices, and may include one mirror or two mirrors 133 and 134 depending on implementation.

디스플레이 장치는 스마트 안경을 착용하는 사용자의 전면 방향이나 얼굴 방향에서 최초 영상을 출력하도록 배치되거나, 얼굴의 상부측에서 하부측으로 혹은 하부측에서 상부측으로 향하는 수직 방향에서 최초 영상을 출력하도록 배치되거나, 얼굴의 눈(eyes) 사이(미간) 혹은 코(nose) 위에서 양쪽 눈을 향해 최초 영상을 출력하도록 배치될 수 있다. 양쪽 눈 사이의 거리는 대략 제1 및 제2 메인렌즈들의 중심들 간의 거리에 대응될 수 있다.The display device is arranged to output an initial image in a front direction or a face direction of a user wearing smart glasses, or is arranged to output an initial image in a vertical direction from the upper side of the face to the lower side or from the lower side to the upper side. It may be arranged to output an initial image toward both eyes between the eyes (glabellar) or above the nose. The distance between both eyes may approximately correspond to the distance between the centers of the first and second main lenses.

본 실시예에 따른 스마트 안경에서 제1 메인렌즈(137)는 제1 보조렌즈(135a, 135b, 1372)와 마주하며 제1 보조렌즈의 광 경로의 중심 라인과 대략 30도 내지 60도 범위에서 경사져 배치된다. 이러한 제1 보조렌즈(137)는 제1 일면볼록렌즈(135a), 제1 양면볼록렌즈(135b) 및 제1 볼록면렌즈(1372)를 구비하여 구성될 수 있다.In the smart glasses according to the present embodiment, the first main lens 137 faces the first auxiliary lenses 135a, 135b, and 1372 and is inclined in a range of approximately 30 to 60 degrees with the center line of the optical path of the first auxiliary lens. Is placed. The first auxiliary lens 137 may include a first one-sided convex lens 135a, a first two-sided convex lens 135b, and a first one-sided convex lens 1372.

제1 일면볼록렌즈(135a)의 일면은 볼록면을 구비하고, 타면은 오목면을 구비한다. 제1 일면볼록렌즈(135a)의 오목면의 곡률은 제1 양면볼록렌즈(135b)의 마주하는 볼록면의 곡률과 대략 유사하거나 동일하게 설정될 수 있다.One surface of the first one-sided convex lens 135a has a convex surface, and the other surface has a concave surface. The curvature of the concave surface of the first convex lens 135a may be set to be substantially similar to or equal to the curvature of the convex surface facing the first convex lens 135b.

제1 양면볼록렌즈(135b)는 그 일면과 타면 모두에 볼록면을 구비한다. 일면의 볼록면과 타면의 볼록면의 곡률 반경을 동일할 수 있으나, 이에 한정되지는 않는다.The first double-sided convex lens 135b has a convex surface on both its one side and the other side. The radius of curvature of the convex surface of one surface and the convex surface of the other surface may be the same, but is not limited thereto.

제1 볼록면렌즈(1372)는 제1 양면볼록렌즈(135b)의 타면 볼록면과 마주하는 볼록면을 구비하고 볼록면의 반대면은 평면 형태를 구비할 수 있다.The first convex lens 1372 may have a convex surface facing the convex surface of the other surface of the first double-convex lens 135b, and a surface opposite to the convex surface may have a planar shape.

전술한 구성에 의하면, 본 실시예에 따른 스마트 안경의 제1 및 제2 디스플레이들에서 출력되는 제1 영상과 제2 영상은 제1 미러(133) 및 제2 미러에서 각각 반사된 후 제1 보조렌즈 및 제2 보조렌즈 각각의 볼록면의 조합에 의해 확대된 후 제1 메인렌즈(137)의 반사면과 제2 메인렌즈의 반사면에서 부분 반사되고 부분 투과된다. 반사면은 빔 스플리트 면으로 지칭될 수 있다.According to the above configuration, the first image and the second image output from the first and second displays of the smart glasses according to the present embodiment are reflected from the first mirror 133 and the second mirror, respectively, and then the first auxiliary After being enlarged by a combination of the convex surface of each of the lens and the second auxiliary lens, the reflection surface of the first main lens 137 and the reflection surface of the second main lens are partially reflected and partially transmitted. The reflective surface may be referred to as a beam split surface.

여기서, 제1 보조렌즈의 볼록면의 조합과 제2 보조렌즈의 볼록면의 조합에 의해 제1 영상과 제2 영상은 확대되고, 제1 보조렌즈와 제2 보조렌즈의 비구면 볼록면에 의해 구면 수차는 제거될 수 있다.Here, the first image and the second image are enlarged by the combination of the convex surface of the first auxiliary lens and the convex surface of the second auxiliary lens, and the spherical surface by the aspherical convex surface of the first auxiliary lens and the second auxiliary lens. The aberration can be eliminated.

또한, 제1 및 제2 메인렌즈들의 전면의 소정 위치에서 초점이 맞춰지는 제1 영상 및 제2 영상은 소정의 단일 영상면 또는 허상면을 형성할 수 있다. 물론, 입체(3D) 영상, 가상현실영상, 증강현실 영상 등의 경우에는 다층 영상면 또는 허상면을 구비할 수 있음은 물론이다.In addition, the first image and the second image to be focused at a predetermined position on the front surface of the first and second main lenses may form a predetermined single image plane or a virtual image plane. Of course, in the case of a stereoscopic (3D) image, a virtual reality image, an augmented reality image, and the like, a multilayer image surface or a virtual image surface may be provided.

또한, 본 실시예의 스마트 안경에서 메인렌즈들 각각은 측면 프레임(도 7의 112b 참조)과의 사이에 빈 공간을 구비한다. 이와 같이, 각 메인렌즈의 측면 외측에 어떠한 구성요소도 배치하지 않음으로써 스마트 안경 착용자의 시야각을 제한하지 않고 최대한의 광시야각을 제공할 수 있는 장점이 있다.In addition, in the smart glasses of the present embodiment, each of the main lenses has an empty space between the side frame (see 112b in FIG. 7 ). As described above, by not disposing any components outside the side surfaces of each main lens, there is an advantage in that the maximum wide viewing angle can be provided without limiting the viewing angle of the smart glasses wearer.

또한, 본 실시예에 의하면, 디스플레이의 화면(A1)에서 출력되는 콘텐츠는 보조렌즈를 이용하여 확대될 수 있다. 그러한 경우, 보조렌즈로부터 확대된 이미지까지의 거리는 필요에 따라 조절될 수 있다. 즉, 보조렌즈에 의해 확대된 이미지는 실상이 아닌 허상(B1)으로서 사용자의 눈(C1)에 스마트 안경 너머로 보이도록 그 크기나 해상도가 용이하게 조절될 수 있다.In addition, according to the present embodiment, the content output from the screen A1 of the display can be enlarged using the auxiliary lens. In such a case, the distance from the auxiliary lens to the magnified image can be adjusted as necessary. That is, the image enlarged by the auxiliary lens is a virtual image B1, not a real image, and its size or resolution can be easily adjusted so that the user's eye C1 can see it through the smart glasses.

메인렌즈를 통해 사용자가 느끼는 허상까지의 거리(li)는, 메인렌즈의 초점거리(f)와 디스플레이로부터 메인렌즈의 반사면까지의 거리(lo) 사이의 관계에 의해 조절될 수 있다. 상기 거리들 사이의 관계는 수학식 1을 만족한다.The distance (li) to the virtual image felt by the user through the main lens may be adjusted by a relationship between the focal length (f) of the main lens and the distance (lo) from the display to the reflective surface of the main lens. The relationship between the distances satisfies Equation 1.

Figure 112018015867336-pat00001
Figure 112018015867336-pat00001

본 실시예에 의하면, 사용자가 원하는 위치에 확대된 이미지가 형성될 수 있도록 설계하여 제작할 수 있다. 또한, 스마트 안경으로부터 약 2.4미터 전방에 약 20 인치 크기의 콘텐츠를 구현하도록 구성할 수 있다. 즉, 스마트 안경으로부터 약 2미터 전방에 약 20 인치의 콘텐츠를 제공할 수 있으며, 사용자는 필요에 따라 증강현실이나 가상현실을 용이하게 구현하여 이용할 수 있다.According to this embodiment, it can be designed and manufactured so that an enlarged image can be formed at a location desired by the user. In addition, it can be configured to implement content of about 20 inches in front of the smart glasses about 2.4 meters. That is, about 20 inches of content can be provided about 2 meters in front of the smart glasses, and users can easily implement and use augmented reality or virtual reality as needed.

도 15는 도 7의 스마트 안경에 채용할 수 있는 제어보드에 대한 블록도이다.15 is a block diagram of a control board that can be employed in the smart glasses of FIG. 7.

도 5를 참조하면, 본 실시예에 따른 스마트 안경(100)은 제1 및 제2 디스플레이(D1, D2; 131, 132)에 연결되는 컨트롤러(210)를 구비할 수 있다. 또한, 스마트 안경(100)은 전원부(170)와 통신부(190)를 구비할 수 있다. 전원부(170)는 전원장치 혹은 전원공급장치로 지칭될 수 있고, 배터리나 전원공급용 단자를 포함할 수 있다. 그리고 통신부(190)는 유선 또는 무선 통신을 위한 서브시스템을 포함할 수 있다. 전술한 전원부(170)의 적어도 일부와 통신부(190)는 인쇄회로기판에 실장될 수 있다. 그 경우, 이러한 인쇄회로기판은 통신 및 전원 보드로 지칭될 수 있다.Referring to FIG. 5, the smart glasses 100 according to the present embodiment may include a controller 210 connected to the first and second displays D1 and D2 131 and 132. In addition, the smart glasses 100 may include a power supply unit 170 and a communication unit 190. The power supply unit 170 may be referred to as a power supply device or a power supply device, and may include a battery or a power supply terminal. In addition, the communication unit 190 may include a subsystem for wired or wireless communication. At least a portion of the above-described power supply unit 170 and the communication unit 190 may be mounted on a printed circuit board. In that case, such a printed circuit board may be referred to as a communication and power board.

컨트롤러(210)는 프로세서와 메모리(220)를 포함할 수 있다. 컨트롤러(210)는 메모리(220)에 저장되는 프로그램에 의해 전원부(170)와 통신부(190)의 동작으로 제어하고, 스마트 안경(100)의 동작을 제어할 수 있다. 본 실시예에서 컨트롤러(210) 및 전원부(190)는 스마트 안경(100)에 수납 형태 등으로 일체로 형성되나 이에 한정되지는 않는다.The controller 210 may include a processor and a memory 220. The controller 210 may control the operation of the power supply unit 170 and the communication unit 190 by a program stored in the memory 220 and control the operation of the smart glasses 100. In this embodiment, the controller 210 and the power supply unit 190 are integrally formed in the smart glasses 100 in a storage form, but are not limited thereto.

전술한 실시예에서는 디스플레이 인터페이스를 컨트롤러(210)와 별도의 구성인 듯이 설명하고 있으나, 본 발명은 그러한 구성으로 한정되지 않고, 디스플레이 인터페이스가 컨트롤러에 일체로 형성되도록 구현될 수 있다.In the above-described embodiment, the display interface is described as being a separate configuration from the controller 210, but the present invention is not limited to such a configuration, and the display interface may be implemented to be integrally formed with the controller.

또한, 본 실시예에 따른 스마트 안경(100)은 보조전원부로서 하나의 소형 배터리 또는 보조 배터리를 포함하고, 대형, 대용량 또는 메인 배터리를 포함하는 별도의 메인전원공급장치를 스마트 안경의 외부에 배치한 후 데이터 및 전원 라인(도 26의 192 참조)을 통해 연결되도록 구성될 수 있다.In addition, the smart glasses 100 according to the present embodiment includes one small battery or auxiliary battery as an auxiliary power supply unit, and a separate main power supply device including a large, large capacity or main battery is disposed outside the smart glasses. Then, it may be configured to be connected through a data and power line (see 192 in FIG. 26).

도 16은 본 발명의 또 다른 실시예에 따른 스마트 안경과 제어 시스템에 대한 사시도이다. 도 17은 도 16의 스마트 안경의 주요 구성을 설명하기 위한 블록도이다.16 is a perspective view of smart glasses and a control system according to another embodiment of the present invention. 17 is a block diagram illustrating a main configuration of the smart glasses of FIG. 16.

도 16 및 도 17을 참조하면, 본 실시예에 따른 스마트 안경(100)은 디스플레이 인터페이스를 구비하고, 디스플레이 인터페이스에 연결되는 제어장치를 스마트 안경(100)의 외부에 배치하도록 구현될 수 있다. 또한, 스마트 안경(100)은 실질적으로 모든 배터리를 스마트 안경(100)의 외부에 배치하도록 구현된다.Referring to FIGS. 16 and 17, the smart glasses 100 according to the present embodiment may be implemented to have a display interface and to place a control device connected to the display interface outside the smart glasses 100. In addition, the smart glasses 100 are implemented to place substantially all batteries outside the smart glasses 100.

여기서, 디스플레이 인터페이스는 듀얼 및 3D MIPI DSI(Dual & 3D Mobile Industry Processor Interface Digital Serial Interface, 210a)(이하 간략히 DSI라고 한다) 또는 이와 유사한 기능을 수행하는 수단이나 장치일 수 있다. 이러한 디스플레이 인터페이스를 사용하면, 제1 및 제2 디스플레이들(131, 132)과 3D 콘텐츠를 구현하기에 적합하다.Here, the display interface may be a dual and 3D MIPI DSI (Dual & 3D Mobile Industry Processor Interface Digital Serial Interface, 210a) (hereinafter referred to as a DSI for short) or a means or device that performs a similar function. Using such a display interface, it is suitable for implementing 3D content with the first and second displays 131 and 132.

전술한 구성을 위해, 스마트 안경(100)은 제1 디스플레이(131), 제2 디스플레이(132), 디스플레이 인터페이스(160), 카메라(150), 통신 및 전원 보드(164)를 포함한다.For the above-described configuration, the smart glasses 100 include a first display 131, a second display 132, a display interface 160, a camera 150, and a communication and power board 164.

카메라(150)는 전면 또는 후면 카메라를 포함할 수 있고, 통신 및 전원 보드(164)는 제1 또는 제2 인쇄회로기판의 설치 위치에 설치되면서 외부의 메인 전력 공급 장치(main power supply,MPS, 240)와 어플리케이션 프로세서(AP, 260)에 연결될 수 있다. 이 경우, 외부 장치(300)는 제어 및 전원 장치로서 스마트 안경(100)의 동작을 외부에서 제어하고 모니터링할 수 있다.The camera 150 may include a front or rear camera, and the communication and power board 164 is installed at an installation position of the first or second printed circuit board, and an external main power supply (MPS) 240) and the application processor (AP, 260). In this case, the external device 300 may externally control and monitor the operation of the smart glasses 100 as a control and power device.

본 실시예의 경우, 컨트롤러나 제1 인쇄회로기판(161), 제2 인쇄회로기판(162)의 대부분과 함께 제1 배터리(172) 및 제2 배터리(171)가 생략될 수 있다. 즉, 제2 인쇄회로기판(162)의 위치에 상대적으로 단순한 구조를 갖는 통신 및 전원 보드(164)를 설치하여 스마트 안경(100)과 외부 장치(300) 간의 통신 및 전원 연결을 중계하고 나머지 전자부품에 대한 구성요소들 대부분을 생략할 수 있다.In the present embodiment, the first battery 172 and the second battery 171 may be omitted along with most of the controller, the first printed circuit board 161 and the second printed circuit board 162. That is, a communication and power board 164 having a relatively simple structure is installed at the location of the second printed circuit board 162 to relay communication and power connection between the smart glasses 100 and the external device 300, and Most of the components for the part can be omitted.

본 실시예들에 의하면, 스마트 안경(100)의 무게를 상당히 감소시킬 수 있고, 사용편의성을 증대시킬 수 있는 장점이 있다. 또한, 외부 배터리 사용에 따라 상대적으로 배터리 용량을 일정량 증대시킬 수 있고, 필요에 따라 전원단자를 통해 상용전원이나 다른 보조 배터리를 통해 전원을 공급받음으로써 스마트 안경의 장시간 사용에 따른 필요 전원을 원활하게 공급할 수 있는 장점이 있다.According to the present embodiments, the weight of the smart glasses 100 can be significantly reduced, and there is an advantage of increasing the usability. In addition, it is possible to increase the battery capacity by a relatively certain amount according to the use of external batteries, and by receiving power through commercial power or other auxiliary batteries through the power terminal as necessary, the necessary power for long-term use of smart glasses can be smoothly supplied. There are advantages to supply.

도 18은 도 16의 스마트 안경에 채용할 수 있는 제어 모듈을 설명하기 위한 블록도이다.18 is a block diagram illustrating a control module that can be employed in the smart glasses of FIG. 16.

도 18을 참조하면, 본 실시예에 따른 스마트 안경의 제어장치는, 애플리케이션 프로세서로 지칭될 수 있으며, 비디오 인터페이스(261), 트래킹 모듈(262), 랜더링 모듈(263) 및 측정 모듈(264)을 포함할 수 있다. 트래킹 모듈(262), 랜더링 모듈(263) 및 측정 모듈(264)은 사용자 인터페이스(user interface, U/I, 265)에 연결될 수 있다.Referring to FIG. 18, the control device for smart glasses according to the present embodiment may be referred to as an application processor, and includes a video interface 261, a tracking module 262, a rendering module 263, and a measurement module 264. Can include. The tracking module 262, the rendering module 263, and the measurement module 264 may be connected to a user interface (U/I, 265).

비디오 인터페이스(261)는 비디오 카메라(151; 152)로부터 입력되는 비디오 이미지 스트림을 받고 원하는 구간의 이미지를 트래킹 모듈(262)로 전달할 수 있다.The video interface 261 may receive a video image stream input from the video cameras 151 or 152 and transmit an image of a desired section to the tracking module 262.

트래킹 모듈(262)는 비디오 인터페이스(261)로부터 이미지 데이터를 받고 측정 이미지 및 포즈 추정 결과를 랜더링 모듈로 전달할 수 있다. 이때, 트래킹 모듈(262)는 사용자 인터페이스(265)를 통해 조정 파라미터 등을 포함하는 조정 정보 등을 수신하고, 마커 정보 데이터베이스(266)에 저장된 마커 정보를 이용하여 마커를 인식할 수 있다. 마커는 실제 영상과 가상 물체 사이의 매개체로서 기능한다. 마커 정보는 마커의 사이즈, 패턴 등에 대한 정보를 포함할 수 있다. 마커 정보 데이터베이스(266)는 소정의 저장부에 저장된 마커 정보로 대체될 수 있다.The tracking module 262 may receive image data from the video interface 261 and transmit a measurement image and a pose estimation result to the rendering module. In this case, the tracking module 262 may receive adjustment information including adjustment parameters, etc. through the user interface 265 and recognize the marker using marker information stored in the marker information database 266. The marker functions as a medium between the real image and the virtual object. The marker information may include information on the size and pattern of the marker. The marker information database 266 may be replaced with marker information stored in a predetermined storage unit.

랜더링 모듈(263)은 가상 물체의 생성 및 제거를 담당한다. 랜더링 모듈(263)은 사용자 인터페이스(265)를 통해 조정 정보 등을 획득할 수 있다. 조정 정보는 로드(load) 또는 언로드(unload), 회전, 이동(좌표 이동 등), 스케일링 등을 포함할 수 있다. 랜더링 모듈(263)은 3차원(3D) 모델링을 지원하는 엔진(간략히, 3D 모델링 엔진, 268)이나 이러한 기능을 수행하는 수단과 콘텐츠 리소스 데이터베이스(267)를 통해 연동할 수 있다. 3D 모델링 엔진(268)은 가상 현실 모델링 언어(virtual reality modeling language, VRML) 기반으로 측정 이미지의 가상 오브젝트를 생성할 수 있다. 랜더링 모듈(263)은 콘텐츠 리소스 데이터베이스(267)에서 가상 오브젝트를 받아 측정 이미지에 대한 랜더링을 수행할 수 있다.The rendering module 263 is responsible for creating and removing virtual objects. The rendering module 263 may obtain adjustment information or the like through the user interface 265. The adjustment information may include load or unload, rotation, movement (coordinate movement, etc.), scaling, and the like. The rendering module 263 may interwork with an engine supporting 3D (3D) modeling (briefly, a 3D modeling engine 268) or a means for performing such a function and a content resource database 267. The 3D modeling engine 268 may generate a virtual object of a measurement image based on a virtual reality modeling language (VRML). The rendering module 263 may receive a virtual object from the content resource database 267 and perform rendering on the measured image.

측정 모듈(264)은 가상 물체들 간의 거리 측정, 생성된 좌표계 간의 거리와 방향 측정, 가상물체들 간의 간섭 여부 등을 확인하여 처리할 수 있다. 측정 모듈(264)은 랜더링 모듈(263)로부터 증강 이미지를 받고, 사용자 인터페이스(265)를 통해 입력되는 오브젝트 정보에 따라 증강현실 영상을 디스플레이 장치에 제공할 수 있다. 오브젝트 정보는 포지티브 또는 네거티브 정합, 3차원 포인트, 충돌 등에 대한 정보를 포함할 수 있다.The measurement module 264 may determine and process a distance between virtual objects, a distance and a direction between the generated coordinate systems, and whether there is interference between virtual objects. The measurement module 264 may receive an augmented image from the rendering module 263 and provide an augmented reality image to the display device according to object information input through the user interface 265. The object information may include information on positive or negative matching, 3D point, collision, and the like.

도 19 및 도 20은 도 16의 스마트 안경의 주요 작동 원리를 설명하기 위한 순서도들이다.19 and 20 are flowcharts illustrating a main operating principle of the smart glasses of FIG. 16.

도 19를 참조하면, 본 실시예에 따른 스마트 안경의 제어장치는 카메라를 통해 스테레오스코픽 이미지를 획득할 수 있다(S201). 제어장치는 스테레오스코픽 이미지에 기초하여 깊이 맵 이미지를 생성할 수 있다.Referring to FIG. 19, the control device for smart glasses according to the present embodiment may acquire a stereoscopic image through a camera (S201). The control device may generate a depth map image based on the stereoscopic image.

다음, 제어장치는 손 이미지를 검출 또는 추출할 수 있다(S203). 제어장치는 깊이 맵 이미지에서 손 이미지를 추출할 수 있다.Next, the control device may detect or extract the hand image (S203). The control device may extract a hand image from the depth map image.

다음, 제어장치는 일련의 손 이미지에 대응하는 명령을 저장부나 데이터베이스에서 추출할 수 있다(S205). 제어장치는 소정 시간 동안 추출된 손 이미지들에 의해 만들어지는 일련의 손 이미지가 가리키는 벡터 성분과 벡터 성분의 시작점과 끝점에 대응하는 이미지 영역이나 해당 이미지 영역에 위치하는 객체에 대응하여 미리 설정된 명령을 인식할 수 있다. 여기서 객체는 미리 설정된 명령에 대응하여 서로 다른 종류의 메뉴, 아이콘 등의 형태를 구비할 수 있다.Next, the control device may extract a command corresponding to a series of hand images from a storage unit or a database (S205). The control device provides a vector component indicated by a series of hand images created by the hand images extracted for a predetermined period of time, and an image area corresponding to the start and end points of the vector component, or a preset command corresponding to an object located in the image area. I can recognize it. Here, the object may have different types of menus, icons, etc. in response to a preset command.

본 실시예에 의하면, 스마트 안경의 제어장치는 손 동작을 영상 처리를 통해 감지하고 이를 토대로 스마트 안경에서 보이는 영상을 제어할 수 있다. 예컨대, 영상 제어는 영상 정방향 또는 역방향 넘김, 영상 빨리감기, 영상 되돌려 감기, 영상의 특정 영역에 대한 터치를 인식하여 미리 설정된 명령을 수행하기 등을 포함할 수 있다.According to the present embodiment, the control device of the smart glasses may detect hand motions through image processing and control an image viewed in the smart glasses based on this. For example, the image control may include forward or reverse an image, fast forward an image, rewind an image, and execute a preset command by recognizing a touch on a specific area of an image.

또한, 제어장치는 손 동작 인식을 위해 입력되는 영상 프레임에서 손을 인식하고 손이 위치한 영상을 감지하거나 손의 움직임 방향을 인식 또는 예측하고, 그에 따라 화면 상에 콘텐츠를 올려놓거나 현재 영상을 이동시키거나, 현재 영상을 다른 영상과 중첩하여 배치할 수 있다. 손의 움직임 예측은 손, 손가락, 또는 이들의 조합을 인식하는 것을 포함할 수 있다. 이러한 제스처 인식은 영상처리와 미리 설정된 제스처 정보에 기초하여 수행될 있다.In addition, the control device recognizes a hand in an image frame input for hand motion recognition, detects an image in which the hand is located, or recognizes or predicts the movement direction of the hand, and places content on the screen or moves the current image accordingly. Alternatively, the current image can be arranged by overlapping with other images. Predicting hand motion may include recognizing a hand, a finger, or a combination thereof. Such gesture recognition may be performed based on image processing and preset gesture information.

또한, 본 실시예에 의하면, 증강현실(augmented reality)뿐만 아니라 가상현실(virtual reality), 융합현실(mixed reality) 등에서 손 동작을 사용하는 사용자 인터페이스를 제공할 수 있고, 그에 의해 스마트 안경의 다양한 콘텐츠를 효과적으로 이용할 수 있도록 할 수 있으며, 사용자 편의성을 크게 향상시킬 수 있다.In addition, according to the present embodiment, it is possible to provide a user interface using hand gestures in not only augmented reality, but also virtual reality, mixed reality, etc., thereby providing various contents of smart glasses. Can be used effectively, and user convenience can be greatly improved.

일례로, 본 실시예에 의하면, 모니터없이 책상에서 업무를 보거나, 쇼핑을 할 때 스마트 안경을 착용하고 증강현실을 통해 결재를 수행하거나, 증강현실을 통해 네비게이션 기능을 이용하거나, 증강현실 게임을 하거나, 가상현실 동영상을 감상하거나, 증강현실 또는 가상현실로 영상통화를 하거나, 작업자가 스마트 안경을 착용하고 증강현실로 현장에서 작업을 하거나, 스마트폰의 기능을 스마트 안경의 화면에서 간편하게 조작 및 사용할 수 있다.As an example, according to the present embodiment, when working at a desk without a monitor, wearing smart glasses when shopping, performing payment through augmented reality, using a navigation function through augmented reality, or playing an augmented reality game, , You can watch virtual reality videos, make video calls in augmented reality or virtual reality, work in the field with augmented reality while the worker wears smart glasses, or easily manipulate and use the functions of the smartphone on the screen of the smart glasses. have.

또한, 도 20을 참조하면, 본 실시예에 따른 스마트 안경의 제어장치는, 카메라를 통해 스테레오스코픽 이미지를 획득하고(S201), 이에 기초하여 손 이미지를 검출 또는 추출하며(S203), 그 다음에 일련의 손 이미지에 대응하여 휴대 단말이나 노트북 등의 모바일 컴퓨팅 장치의 화면 미러링(mirroring)을 수행할 수 있다(S206).In addition, referring to FIG. 20, the control device of the smart glasses according to the present embodiment acquires a stereoscopic image through a camera (S201), detects or extracts a hand image based thereon (S203), and then In response to a series of hand images, screen mirroring of a mobile computing device such as a portable terminal or a notebook may be performed (S206).

화면 미러링은, 스크린 미러링으로 지칭될 수 있으며, 별도의 선(line)을 연결하지 않고 무선으로 모바일 컴퓨팅 장치의 화면을 스마트 안경의 화면에서 볼 수 있도록 하는 기능을 말한다.Screen mirroring may be referred to as screen mirroring, and refers to a function of allowing a screen of a mobile computing device to be viewed on a screen of a smart glasses wirelessly without connecting a separate line.

화면 미러링을 위해 스마트 안경의 제어장치나 제어보드의 디스플레이 인터페이스는 모바일 컴퓨팅 장치에서 화면 정보를 인코딩하여 주파수로 송신할 때, 이러한 화면 정보를 수신하여 디코딩하고 디코딩된 영상을 디스플레이를 통해 스마트 안경의 화면에 출력할 수 있다. 무선은 블루투스를 포함하나, 이에 한정되지는 않고, 다른 근거리 무선 통신 방식이 사용될 수 있다.For screen mirroring, the control device of the smart glasses or the display interface of the control board receives and decodes the screen information when the mobile computing device encodes the screen information and transmits the screen information through the display. Can be printed on. Wireless includes Bluetooth, but is not limited thereto, and other short-range wireless communication methods may be used.

화면 미러링을 이용하면, 스마트 안경에서 통신 기능을 가진 휴대 단말에서 전화 수신, 전화 통화, 영상 통화 등을 수행하거나, 문자 착신, 문자 내용 확인 등을 수행하여 휴대 단말의 전화, 문자 등의 서비스를 편리하게 이용할 수 있도록 할 수 있다.If you use screen mirroring, you can receive calls, phone calls, video calls, etc. from a mobile terminal with a communication function in smart glasses, or receive text messages and check text contents to conveniently provide services such as phone calls and text messages from mobile terminals. You can make it easy to use.

도 21은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스를 설명하기 위한 도면이다. 도 22 및 23은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스의 변형예를 설명하기 위한 예시도들이다. 도 24는 본 실시예의 스마트 안경에 채용할 수 있는 사용자 인터페이스의 작동 원리를 설명하기 위한 도면이다. 도 25 및 26은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용된 사용자 인터페이스의 신호 처리 과정을 설명하기 위한 흐름도들이다.21 is a view for explaining a user interface that can be employed in smart glasses according to another embodiment of the present invention. 22 and 23 are exemplary diagrams for explaining a modified example of a user interface that can be employed in smart glasses according to another embodiment of the present invention. 24 is a diagram for explaining the operating principle of a user interface that can be employed in the smart glasses of the present embodiment. 25 and 26 are flowcharts illustrating a signal processing process of a user interface employed in smart glasses according to another embodiment of the present invention.

도 21 내지 23을 참조하면, 본 실시예에 따른 스마트 안경은 사용자 인터페이스로서 손, 손등, 팔뚝, 책상, 방문 등의 표면상에 가상의 터치패널을 띄워놓고 인터렉션 기능을 수행하는 형태로 구현될 수 있다. 이 경우, 스마트 안경에는 해당 신체 부분이나 사물을 인식하기 위한 센서 또는 카메라(도 17의 150 및 도 18의 151, 152 참조)가 탑재될 수 있다.21 to 23, the smart glasses according to the present embodiment may be implemented as a user interface in a form in which a virtual touch panel is displayed on the surface of a hand, a back of a hand, a forearm, a desk, and a visit to perform an interaction function. have. In this case, a sensor or a camera (see 150 of FIG. 17 and 151 and 152 of FIG. 18) for recognizing a corresponding body part or object may be mounted on the smart glasses.

좀더 구체적으로 설명하면, 3차원 공간에서 사물을 인식하기 위해 카메라는 입체적 분석과 스테레오 기능을 위한 두 개의 적외선 센서(카메라)를 구비하고, 적외선 프로젝터가 공간에 적외선을 뿌릴 때, 해당 공간에서 반사되는 적외선을 읽어들여 사물, 좀더 구체적으로는 사물의 깊이를 감지할 수 있다. 적외선 프로젝터를 사용하면, 공간의 깊이 또는 거리를 용이하게 판단할 수 있다.More specifically, in order to recognize an object in a three-dimensional space, the camera has two infrared sensors (cameras) for three-dimensional analysis and stereo functions, and when the infrared projector projects infrared rays into the space, By reading infrared rays, it is possible to detect the depth of an object, more specifically, an object. Using an infrared projector, it is possible to easily determine the depth or distance of a space.

적외선 프로젝터는 크게 2가지 디바이스 타입을 사용할 수 있다. 하나는 어떤 특정 패턴이나 무늬 형태로 적외선을 특정 공간에 조사하는, 소위, 스트럭쳐드 라이트(structured light) 구조를 가지거나, 오브젝트와 입체적 거리가 다른 것으로 적외선의 감도를 판단하는, 소위, 타임오브 플라이트(time of flight) 구조를 가질 수 있다. 한편 본 발명은 적외선 프로젝션을 사용하지 않고 두 개의 카메라를 깊이 센서(depth sensor)를 구현할 수 있다. 특히, 가까운 손의 제스처를 판독하는데 있어서 두 개의 카메라 센서만을 사용하는 것도 가능하다. 하나의 카메라 센서만으로도 깊이 인식을 할 수 있는 방법은 있으나 그 방법은 구현 및 사용이 복잡하므로 여기에서는 생략하기로 한다.Infrared projectors can use two main types of devices. One is the so-called time of flight, which has a so-called structured light structure, which irradiates infrared rays into a specific space in the form of a certain pattern or pattern, or judges the sensitivity of infrared rays by having a different three-dimensional distance from an object. (time of flight) structure. Meanwhile, the present invention can implement a depth sensor for two cameras without using infrared projection. In particular, it is also possible to use only two camera sensors to read a gesture of a close hand. There is a method that can recognize depth with only one camera sensor, but the method is complicated to implement and use, so it will be omitted here.

본 실시예에 따른 센서 또는 카메라를 이용한 깊이 인식(depth perception)과 관련하여 설명하면, 먼저 공간의 형태와 사물의 좌표를 얻을 수 있다. 물론, 이 단계는 신체 표면상에 구현하는 경우에 생략될 수 있다.When describing the depth perception using a sensor or a camera according to the present embodiment, first, a shape of a space and coordinates of an object can be obtained. Of course, this step can be omitted if implemented on the body surface.

다음, 가상의 오브젝크가 그려질 공간의 위치를 찾을 수 있다. 이 단계에서는, 깊이 센서를 이용하여 가상의 오브젝트가 위치할 최적으로 장소를 찾을 수 있다. 이 경우, 스마트 안경에 적용되는 사용자 인터페이스 제어장치는 제어장치의 적어도 일부 구성부로서 손, 손등, 팔뚝 등의 해당 신체를 인식할 수 있도록 구현될 수 있다. 또한, 냉장고 문이나 방문의 표면에 오브젝트를 위치시키기 위해 해당 사물을 인식할 수 있도록 구현될 수 있다.Next, you can find the location of the space where the virtual object will be drawn. In this step, the depth sensor can be used to find an optimal location for the virtual object. In this case, the user interface control device applied to the smart glasses may be implemented to recognize a corresponding body such as a hand, a back of a hand, and a forearm as at least some components of the control device. In addition, it may be implemented to recognize a corresponding object in order to place an object on a refrigerator door or a surface of a visitor.

다음, 가상의 오브젝트를 크기, 방향, 곡면, 원근감의 속성을 갖도록 생성할 수 있다. 이 단계에서는, 가상의 오브젝트의 위치가 정해질 때, 사용자 인터페이스의 이미지 표면을 따라서 자연스럽게 오브젝트의 속성을 반영하여 해당 오브젝트를 그릴 수 있다. 오브젝트는 같은 평면이나 굴곡을 따라 적절한 크기와 방향 및 원근감을 갖도록 그려질 수 있다.Next, a virtual object can be created to have properties of size, direction, curved surface, and perspective. In this step, when the location of the virtual object is determined, it is possible to draw the corresponding object by naturally reflecting the properties of the object along the image surface of the user interface. Objects can be drawn along the same plane or curve to have an appropriate size, direction, and perspective.

다음, 오브젝트를 터치하기 위해 접근하는 다른 손의 손가락이나 이에 대응하는 포인터의 끝을 인식할 수 있다. 이 단계에서, 구현에 따라서 특정 손가락을 지정하여 인식하도록 설정될 수 있다(도 34 참조). 이 경우, 중첩 터치 등의 동작 오류를 예방할 수 있다.Next, the finger of another hand approaching to touch the object or the tip of a pointer corresponding thereto may be recognized. In this step, it may be set to recognize by specifying a specific finger according to the implementation (see FIG. 34). In this case, operation errors such as overlapping touches can be prevented.

다음, 가상 오브젝트에 대응하는 특정 영역과 지정된 손가락 끝이 실질적으로 동일한 위치에 있는지를 인식하여 가상 접촉(터치)를 판단할 수 있다. 이 단계에서는 가상의 오브젝트가 가상 이미지 상에 그려진 상태에서 특정 오브젝트에 손가락이 중첩되어 인식되면 그 움직임의 제스처에 따라 프로세서가 미리 설정된 명령을 수행하도록 이루어질 수 있다.Next, a virtual contact (touch) may be determined by recognizing whether a specific area corresponding to the virtual object and a designated fingertip are substantially at the same position. In this step, when a finger is overlapped and recognized on a specific object while a virtual object is drawn on a virtual image, the processor may perform a preset command according to a gesture of the movement.

이를 위해 센서 또는 카메라에 연결된 프로세서는 신체 부분이나 사물을 감지하여 그 표면, 크기, 바닥 등을 인식할 수 있고, 모션 트랙킹 등의 기능을 이용하여 에지나 점 등의 특징 포인트들 간의 거리를 측정할 수 있다. 또한, 프로세서는 컬러이미지 데이터를 참조하여 텍스처링(texturing), 매싱(mashing) 등을 위한 포인트 클라우드(point cloud)를 생성하거나 포인트 클라우드의 색상을 검색하도록 구현될 수 있다.To this end, a processor connected to a sensor or camera can detect a body part or object to recognize its surface, size, and floor, and measure the distance between feature points such as edges or points using functions such as motion tracking. I can. In addition, the processor may be implemented to generate a point cloud for texturing, mashing, or the like by referring to color image data or to search for a color of the point cloud.

또한, 센서, 카메라, 프로세서 또는 이들의 조합은 0.5 내지 4M 정도의 거리에서 그리고 실내에서 가장 잘 작동하도록 설계될 수 있다. 이러한 구성은 적외선 조명과 깊이 신호처리(depth processing)에 필요한 전력을 균형 있게 유지하면서 좋은 성능을 발휘하는데 기여할 수 있다. 다만, 적외선을 잘 반사하지 않는 물체에 대하여는 스캔 성능이 저하될 수 있다.In addition, sensors, cameras, processors, or a combination thereof can be designed to work best indoors and at distances of the order of 0.5 to 4M. This configuration can contribute to exhibiting good performance while maintaining a balance of power required for infrared illumination and depth processing. However, for objects that do not reflect infrared rays well, scanning performance may be deteriorated.

아울러, 본 실시예에서는 가상의 오브젝트가 실제 오브젝트와 같이 자연스럽게 섞여있는 것처럼 사용자에게 보여지도록 하기 위하여 추가 정보가 보강될 수 있다. 예를 들어, 가상 오브젝트의 위치에 따라 크기를 조정하거나, 입체면의 위치나 크기를 조정하거나, 조명의 색상이나 밝기 등의 상태를 조정할 수 있다. 게다가, 가상의 오브젝트가 표시되는 대상이 움직이는 상태라면, 위의 조건들을 조정함으로써 더욱 실제 같은 느낌을 사용자에게 제공할 수 있다.In addition, in the present embodiment, additional information may be reinforced so that the virtual object is displayed to the user as if it is naturally mixed with the real object. For example, it is possible to adjust the size according to the position of the virtual object, adjust the position or size of a three-dimensional surface, or adjust the color or brightness of the lighting. In addition, if the object on which the virtual object is displayed is in a moving state, it is possible to provide a more realistic feel to the user by adjusting the above conditions.

또한, 센서 또는 카메라에 연결된 프로세서는 입체시(stereopsis)를 처리하도록 구현될 수 있다. 입체시의 패넘 융합 영역은 사람의 눈에 의해 사용되는 양안 입체시(binocular stereopsis)에 대한 사용자 인터페이스 영역을 포함할 수 있다. 사용자 인터페이스 영역은 단일 비전의 영역일 수 있다. 이 경우, 프로세서에서 실행되는 소프트웨어와 같은 입체시 처리 시스템은 사용자의 시야 내에서 사용자의 현재 초점 영역을 결정할 수 있다. 이를 위해, 프로세서는 각 눈에 대한 눈 추적 카메라에 의해 캡처되는 데이터에 기초하여 눈 추적 처리를 수행할 수 있다. 눈 추적 처리는 사용자의 현재 초점 영역을 획득하고, 이에 기초하여 처리 동작을 수행할 수 있다. 안구 사이의 컨버전스(convergence)는 사용자의 얼굴 위치를 나타내는 데이터와 함께 초점 곡선, 호롭터(horopter) 상의 초점으로 삼각측량을 수행하는데 사용될 수 있다. 프로세서 내 초점 영역 조정 모듈은 제어 회로를 통해 현재 사용자의 초점 영역에서 적어도 하나의 눈의 초점을 맞추기 위해 배치된 가변 초점 렌즈를 조정할 수 있다.In addition, a processor connected to a sensor or a camera may be implemented to process stereopsis. The phantom fusion region of stereoscopic vision may include a user interface region for binocular stereopsis used by the human eye. The user interface area may be a single vision area. In this case, a stereoscopic vision processing system such as software running on the processor may determine the user's current focus area within the user's field of view. To this end, the processor may perform eye tracking processing based on data captured by an eye tracking camera for each eye. In the eye tracking process, a current focus area of the user is acquired, and a processing operation may be performed based on this. Convergence between the eyes can be used to triangulate with a focal curve and a focal point on a horopter, along with data representing the position of a user's face. The focus area adjustment module in the processor may adjust the variable focus lens disposed to focus at least one eye in the current user's focus area through the control circuit.

일례로, 실제 공간의 특정 위치에 가상의 오브젝트를 입체로 그리는 방법을 설명하면 다음과 같다.As an example, a method of drawing a virtual object in three dimensions at a specific location in real space is as follows.

먼저, 가상의 오브젝트가 표시되는 사용자 인터페이스 이미지의 표면을 기본 허상 위치로 설정할 수 있다. 그리고, 기본 허상 위치 앞이나 뒤에는 공간 속에 그려질 가상 오브젝트가 그려질 수 있다. 이때, 가상 오브젝트는 그 위치에 따라 사용자의 왼쪽 눈과 오른쪽 눈에서 볼 때 그 위치와 크기가 다르게 된다. 즉, 각각의 눈에 비친 가상 오브젝트의 2차원 이미지가 사용자의 뇌로 전달되어 3차원의 가상 오브젝트를 인식하게 된다. 여기에서 역으로 계산하여 보면, 왼쪽 눈이 보게 될 이미지와 오른쪽 눈이 보게 될 이미지를 각각의 영상으로 그리게 되면 사용자의 뇌는 그것을 입체로 인식할 수 있다.First, a surface of a user interface image on which a virtual object is displayed may be set as a default virtual image position. In addition, a virtual object to be drawn in space may be drawn in front or behind the basic virtual image position. At this time, the location and size of the virtual object are different when viewed from the user's left eye and right eye according to the location. That is, the 2D image of the virtual object reflected in each eye is transmitted to the user's brain to recognize the 3D virtual object. In the reverse calculation here, if the image that the left eye will see and the image that the right eye will see are drawn as separate images, the user's brain can recognize them as three-dimensional.

따라서, 본 실시예에서는 도 21의 (a) 내지 (c)와 도 22 및 도 23에 나타낸 바와 같이 깊이 센서(depth sensor)로 손바닥(510), 손등(520), 팔뚝(530), 책상(540), 냉장고 도어(door), 방문(550), 벽 등의 이미지 출사 대상을 추적하고, 실제 공간과 사물의 위치 및 크기를 판단하고 좌표계를 만들고 이에 기초하여 원하는 위치에 가상 오브젝트(600, 610)를 위치시킬 수 있다. 가상 오브젝트는 사용자 인터페이스 이미지를 포함하거나 그 역도 가능하다. 아울러 본 실시예의 프로세서 내 입체시 처리 시스템, 가상 오브젝트 제어부 또는 이들의 조합은 가상 오브젝트에 접근하는 지시 포인터의 중첩을 인식하여 미리 설정된 명령이나 일련의 동작을 수행할 수 있다.Accordingly, in this embodiment, as shown in FIGS. 21A to 21C and FIGS. 22 and 23, the palm 510, the back of the hand 520, the forearm 530, the desk ( 540), refrigerator door (door), visitor (550), track image output targets, such as walls, determine the location and size of the actual space and objects, create a coordinate system based on this, and based on the virtual object (600, 610) ) Can be placed. The virtual object may contain a user interface image or vice versa. In addition, the stereoscopic vision processing system in the processor of the present embodiment, the virtual object control unit, or a combination thereof may perform a preset command or a series of operations by recognizing the overlap of instruction pointers approaching the virtual object.

깊이 센서를 이용하여 손바닥을 검출하는 과정을 좀더 살펴보면, 도 34에 도시한 바와 같이, 프로세서 내 손바닥 검출 시스템은 센서 또는 카메라에 의해 획득한 영상에서 손의 외곽선(562)을 추출하거나 손의 관절(550)과 손가락 끝(566)의 위치를 추출할 수 있다. 즉, 획득한 영상에 기초하여 얻은 포인트 클라우드에 기초하여 손의 외곽선(562)을 추출하거나 손의 관절(556)과 손가락의 끝(566)을 추출할 수 있다.Looking more at the process of detecting the palm using the depth sensor, as shown in FIG. 34, the palm detection system in the processor extracts the outline 562 of the hand from the image acquired by the sensor or the camera, or 550) and the location of the fingertip 566 may be extracted. That is, the outline 562 of the hand may be extracted or the joint 556 of the hand and the tip 566 of the finger may be extracted based on the point cloud obtained based on the acquired image.

또한, 손바닥을 펴지 않고, 주먹을 쥐었을 때나 손바닥을 뒤집었을 때 가상의 오브젝트도 그것을 맞춰 보이거나 가려지는 방식을 구현하는 경우에는, 관절 추출을 이용하는 것이 바람직하다. 관절 추출을 이용하면, 손동작에 대한 제스처를 구체적으로 판단할 수 있다.In addition, it is preferable to use joint extraction when implementing a method in which a virtual object is also shown or covered when the palm is not opened, but when a fist is clenched or when the palm is turned over. Using joint extraction, a gesture for a hand motion can be determined in detail.

인식된 손바닥에는 가상 오브젝트(600)이 표시되고, 이러한 가상 오브젝튼(600)는 사용자의 다른 손이나 이에 대응하는 포인터와의 조합에 의해 사용자로부터의 입력 신호를 획득하는 사용자 인터페이스로서 기능할 수 있다.A virtual object 600 is displayed on the recognized palm, and the virtual object 600 may function as a user interface for acquiring an input signal from the user by a combination of the user's other hand or a pointer corresponding thereto. .

물론, 인식된 손바닥은 다른 손으로서 또한 포인터로서 사용될 수 있으며, 그 경우, 손바닥 인식을 시작으로 미리 설정된 다양한 제스처 세부동작에 따라 미리 설정된 명령을 수행하는데 사용될 수 있다.Of course, the recognized palm may be used as another hand and also as a pointer, and in that case, it may be used to perform a preset command according to various gesture detailed actions set in advance starting from palm recognition.

전술한 입체시 처리 시스템, 가상 오브젝트 제어부, 이들의 조합 또는 이들을 포함하는 프로세서는, 도 25 및 26에 도시한 바와 같은 일련의 동작을 수행할 수 있다.The stereoscopic vision processing system described above, the virtual object controller, a combination thereof, or a processor including them may perform a series of operations as illustrated in FIGS. 25 and 26.

먼저, 스마트 안경에 탑재된 프로세서는 손 또는 손목의 구조적 특징을 갖는 물체를 인식할 수 있다(S301). 물체는 손바닥, 손등, 팔뚝, 사물, 벽, 문 등을 포함할 수 있다.First, the processor mounted on the smart glasses may recognize an object having structural characteristics of a hand or a wrist (S301). Objects may include palms, back of hands, forearms, objects, walls, doors, and the like.

다음, 복수개의 물체가 발견되었는지를 판단할 수 있다(S302). 복수의 물체가 발견되면, 프로세서는 미리 설정된 처리 정책에 따라 복수의 물체들 중 하나를 선택할 수 있다(S303). 선택 기준은 물체에 대한 우선순위이거나 영상의 중앙에 위치하거나 영상에서 가장 큰 영역을 차지하는 등의 기준을 포함하도록 설정될 수 있다.Next, it may be determined whether a plurality of objects are found (S302). When a plurality of objects are found, the processor may select one of the plurality of objects according to a preset processing policy (S303). The selection criterion may be set to include a criterion such as a priority for an object, a center of an image, or occupying the largest area in an image.

다음, 인식되거나 선택된 물체의 구조적 특징에 기초하여 사용자 인터페이스(user interface, UI) 이미지가 그려질 영역을 탐색할 수 있다(S304). UI 이미지는 가상 오브젝트에 대응하거나 포함할 수 있으며, 그 역도 가능하다.Next, an area in which a user interface (UI) image is to be drawn may be searched based on the structural characteristics of the recognized or selected object (S304). The UI image may correspond to or include a virtual object, and vice versa.

다음, 프로세서는 탐색된 영역에 대하여 UI 이미지를 그릴 영역의 적정 크기를 결정하거나 조정할 수 있다(S305). UI 이미지의 적정 크기나 위치 또는 배치 방향은 인식되거나 선택된 물체의 종류나 그에 따른 UI 이미지 배치 영역에 의해 미리 설정된 규칙이나 설정에 따라 결정될 수 있다.Next, the processor may determine or adjust an appropriate size of an area to draw a UI image for the searched area (S305). The appropriate size, position, or arrangement direction of the UI image may be determined according to a rule or setting preset by the type of the recognized or selected object or the UI image arrangement area accordingly.

다음, 조정된 크기의 UI 이미지를 탐색된 영역에 생성할 수 있다. 이때 UI 이미지는 그 배경이 되는 3차원 평면이나 곡면과 함께 생성될 수 있다(S306). 3차원 평면이나 곡면은 가상 오브젝트와의 대비에 의해 사용자가 가상 오브젝트나 UI 이미지를 더욱 잘 볼 수 있도록 기능할 수 있다. Next, a UI image of the adjusted size may be generated in the searched area. At this time, the UI image may be generated together with a 3D plane or a curved surface serving as the background (S306). The 3D plane or curved surface may function to allow the user to better see the virtual object or UI image by contrast with the virtual object.

다음, 스마트 안경에 탑재된 프로세서는 물체 상에 출사되고 있는 UI 이미지에 근접하는 다른 손의 구조적 특징을 갖는 물체를 인식할 수 있다(S311). 다른 손이나 물체는 포인터에 포함되거나 포인터로서 지칭될 수 있다.Next, the processor mounted on the smart glasses may recognize an object having structural features of the other hand that is close to the UI image emitted on the object (S311). The other hand or object may be included in or referred to as a pointer.

다음, 프로세서는 포인터가 복수개 발견되었는지를 판단할 수 있다(S312). 발견된 포인터가 복수이면, 프로세서는 미리 저장된 처리 정책에 따라 복수의 포인터들 중 어느 하나를 선택할 수 있다(S313).Next, the processor may determine whether a plurality of pointers are found (S312). If there are a plurality of found pointers, the processor may select any one of the plurality of pointers according to a pre-stored processing policy (S313).

다음, 프로세서는 UI 내 특정 오브젝트에 손가락 끝이 특정 범위 이내로 근접했는지를 판단할 수 있다(S314). 근접은 중첩된 것을 포함할 수 있고, 근접 정도를 나타내는 인식 수치에서 중첩은, 두 물체의 거리를 기준으로 두 물체가 맞닿은 상태를 0으로 할 때, 음수 값을 가질 수 있다. 특정 범위 이내로 손가락 끝이 근접하지 않았으면, 프로세서는 다른 손이나 물체를 인식하는 단계를 유지하거나 상기 단계로 되돌아갈 수 있다.Next, the processor may determine whether the fingertip is close to a specific object in the UI within a specific range (S314). Proximity may include overlapping, and overlapping in a recognition value indicating a degree of proximity may have a negative value when the state in which two objects are in contact with each other is 0 based on the distance between the two objects. If the fingertip is not close within a certain range, the processor may maintain the step of recognizing another hand or object or return to the step.

특정 범위 이내로 손가락 끝이 근접하였으면, 프로세서는 하나의 손가락 끝이나 이에 상응하는 포인터의 끝에 대응하는 복수개의 오브젝트가 존재하는지를 판단할 수 있다(S315).If the fingertip approaches within a specific range, the processor may determine whether there are a plurality of objects corresponding to the tip of one fingertip or the corresponding pointer (S315).

상기 단계(S315)의 판단 결과, 복수의 오브젝트가 존재하면, 프로세서는 미리 설정된 근접 우선정책에 따라 최근접을 판정할 수 있다(S316). 최근접 판정은 기본적으로 포인터 끝과 오브젝트 간의 거리나 중첩 거리를 기준으로 판단할 수 있다. 또한, 최근접 판정은 복수의 오브젝트들 중 미리 설정된 우선순위, 가중치, 근접 거리들 간의 차이, 또는 이들의 조합에 기초하여 결정될 수 있다.As a result of the determination in step S315, if a plurality of objects exist, the processor may determine the nearest proximity according to a preset proximity priority policy (S316). The closest determination can be determined based on the distance or overlapping distance between the pointer tip and the object. In addition, the closest determination may be determined based on a preset priority among a plurality of objects, a weight, a difference between proximity distances, or a combination thereof.

다음, 프로세서는 손가락 끝이나 포인터의 끝에 대응하는 오브젝트에 대하여 터치된 것으로 판정(터치 판정)하고, 터치 판정된 해당 UI 오브젝트의 식별자(ID)를 반환한 후 미리 설정된 터치 리액션을 실행할 수 있다(S317).Next, the processor may determine that the object corresponding to the tip of the finger or the tip of the pointer is touched (touch determination), return the identifier (ID) of the corresponding UI object determined to be touched, and then execute a preset touch reaction (S317). ).

전술한 실시예에는 스마트 안경에 탑재된 스테레오 RGB 카메라가 이용되거나, 적외선 프로젝터 또는 스테레오 적외선 카메라가 이용될 수 있다. 본 실시예에 의하면, 양안 입체시를 이용한 증강현실을 구현하고 사용자의 제스처에 따라 사용자 인터페이스를 통해 입력되는 터치 신호나 이벤트를 감지하여 미리 설정된 동작을 실행할 수 있다. 따라서, 사용자 편의성을 높이고 다양한 증강현실 서비스와 이를 접목한 스마트 안경 서비스를 제공할 수 있다.In the above-described embodiment, a stereo RGB camera mounted on smart glasses may be used, or an infrared projector or a stereo infrared camera may be used. According to this embodiment, augmented reality using binocular stereoscopic vision may be implemented, and a preset operation may be executed by detecting a touch signal or an event input through a user interface according to a user's gesture. Therefore, it is possible to increase user convenience and provide a variety of augmented reality services and smart glasses services combining them.

도 27은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 사시도이다. 도 28은 도 27의 스마트 안경에 대한 정면도이다. 도 29 및 도 30은 도 28의 스마트 안경에 대한 사용 상태도이다.27 is a perspective view of smart glasses according to another embodiment of the present invention. 28 is a front view of the smart glasses of FIG. 27. 29 and 30 are diagrams illustrating a state of use of the smart glasses of FIG. 28.

본 실시예에 따른 스마트 안경은, 도 27 내지 도 28에 도시한 바와 같은 외관을 구비할 수 있다. 스마트 안경은 양쪽의 메인렌즈를 통해 사용자의 양쪽 눈에 영상을 제공할 수 있으며, 도 29에 도시한 바와 같이, 전원 및 제어를 위한 장치와 유선 또는 무선으로 연결될 수 있다. 또한, 도 30에 도시한 바와 같이, 스마트 안경은 자외선 차단, 필터, 색상 추가 기능 등을 위한 쉴드가 결합될 수 있는 구성부를 구비할 수 있다.Smart glasses according to the present embodiment may have an appearance as shown in FIGS. 27 to 28. The smart glasses may provide images to both eyes of a user through both main lenses, and may be connected to a device for power and control by wire or wirelessly, as shown in FIG. 29. In addition, as shown in FIG. 30, the smart glasses may include a component to which a shield for blocking UV rays, a filter, and a color addition function may be combined.

도 31은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 정면도이다. 도 32 및 도 33은 도 31의 스마트 안경에 대한 사용 상태도이다.31 is a front view of smart glasses according to another embodiment of the present invention. 32 and 33 are diagrams illustrating a state of use of the smart glasses of FIG. 31.

본 실시예에 따른 스마트 안경은, 도 31에 도시한 바와 같은 외관을 구비할 수 있으며, 한쪽의 메인렌즈에만 영상을 제공할 수 있도록 설치되거나 다른 한쪽의 메인렌즈를 착탈식으로 구비하도록 구성될 수 있다. 또한, 도 32 및 도 33에 도시한 바와 같이, 전원 및 제어를 위한 장치와 유선 또는 무선으로 연결될 수 있음은 물론이다. 아울러, 도 33에 도시한 바와 같이, 스마트 안경은 쉴드가 추가로 결합될 수 있는 결합구조 등의 구성부를 구비할 수 있다.The smart glasses according to the present embodiment may have an appearance as shown in FIG. 31, and may be installed to provide an image to only one main lens, or may be configured to have the other main lens detachably provided. . In addition, as shown in Figs. 32 and 33, it goes without saying that the device for power and control may be connected by wire or wirelessly. In addition, as shown in FIG. 33, the smart glasses may include a component such as a coupling structure to which a shield may be additionally coupled.

도 34 및 도 35는 본 발명의 실시예에 따른 스마트 안경의 전원 및 제어를 위한 장치의 외관을 보여주는 사시도들이다.34 and 35 are perspective views showing the appearance of a device for powering and controlling smart glasses according to an embodiment of the present invention.

도 34 및 도 35에 도시한 바와 같이, 스마트 안경의 전원 및 제어를 위한 장치는 넥 밴드(neck band) 형태를 구비할 수 있고, 제어보드, 제어시스템 등으로 지칭될 수 있으며, 카메라, 스피커, 이어폰 등을 구비하고, 리모트 컨트롤(remote control)을 위한 버튼, 조그셔틀 등의 구성부를 구비할 수 있다.34 and 35, the device for powering and controlling smart glasses may have a neck band type, may be referred to as a control board, a control system, etc., and may include a camera, a speaker, and It may be provided with earphones, etc., and may be provided with a button for remote control (remote control), a component such as a jog shuttle.

상기에서는 본 발명의 바람직한 실시예들에 관하여 설명하였지만, 본 발명의 기술분야에서 통상의 지식을 가진 사람이라면 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음은 이해할 수 있을 것이다.In the above, preferred embodiments of the present invention have been described, but those of ordinary skill in the technical field of the present invention can variously modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. It will be appreciated that it can be modified and changed.

Claims (7)

안경 프레임 형태를 구비하며 전장부품이 탑재되는 프레임 어셈블리 및
상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때, 상기 얼굴의 중앙 상부측으로는 제1 디스플레이 장치가 중앙 하부측으로는 제2 디스플레이 장치가 수직으로 구비되는 디스플레이 장치;
상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때, 상기 디스플레이 장치의 영상을 상기 사용자의 양쪽 눈이 위치하는 방향으로 전달하는 광학계(optical system); 및
상기 디스플레이 장치와 광학계를 서로 교차 배열되는 구조로 결합시키는 배면케이스를 포함하며, 상기 디스플레이 장치와 광학계의 서로 교차 배열되는 구조의 중심에서 상기 디스플레이 장치에서 출력되는 영상을 상기 광학계의 구성요소들이 서로 대향하는 수평의 양방향으로 전달하는 미러가 위치하는 케이스 조립체;를 포함하며
상기 광학계는 상기 디스플레이 장치로부터 전달되는 영상을 사용자의 양쪽 눈이 위치하는 방향으로 전달하는 구성요소들이 수평으로 배열되되,
상기 디스플레이 장치에 속한 제1 디스플레이 장치의 제1 영상을 비구면 볼록면을 통해 원하는 크기로 확대하고 구면 수차를 제거하기 위한 제1 보조렌즈와 상기 제1 보조렌즈에서 전달되는 제1 영상을 부분 반사 및 부분 투과하는 제1 메인렌즈를 구비한 제1 광학 시스템과,
상기 디스플레이 장치에 속한 제2 디스플레이 장치의 제2 영상을 비구면 볼록면을 통해 원하는 크기로 확대하고 구면 수차를 제거하기 위한 제2 보조렌즈와 상기 제2 보조렌즈에서 전달되는 제2 영상을 부분 반사 및 부분 투과하는 제2 메인렌즈를 구비한 제2 광학 시스템을 포함하여,
상기 사용자의 눈에 전달된 영상이 상기 메인렌즈 뒤에서 일정 거리 떨어진 허상면에 맺히는 영상인 것을 특징으로 하는 스마트 안경.
A frame assembly having the shape of a spectacle frame and on which electrical components are mounted, and
A display device that is supported by the frame assembly, and when the frame assembly is worn on a user's face, a first display device is vertically provided at a center upper side of the face and a second display device is vertically provided at a center lower side of the face;
An optical system that is supported by the frame assembly and transmits an image of the display device in a direction in which both eyes of the user are positioned when the frame assembly is worn on a user's face; And
And a rear case that couples the display device and the optical system in a cross-arranged structure, and components of the optical system face each other at the center of the cross-arranged structure of the display device and the optical system. Includes; a case assembly in which a mirror transmitting in both horizontal directions is located
In the optical system, elements for transmitting the image transmitted from the display device in a direction in which both eyes of the user are located are arranged horizontally,
A first auxiliary lens for enlarging a first image of a first display device belonging to the display device to a desired size through an aspherical convex surface and removing spherical aberration and a first image transmitted from the first auxiliary lens are partially reflected and A first optical system having a first main lens that partially transmits,
A second auxiliary lens for enlarging a second image of a second display device belonging to the display device to a desired size through an aspherical convex surface and removing spherical aberration and a second image transmitted from the second auxiliary lens are partially reflected and Including a second optical system having a second main lens partially transmitting,
Smart glasses, characterized in that the image transmitted to the user's eyes is an image formed on a virtual image surface a predetermined distance from the back of the main lens.
삭제delete 삭제delete 청구항 1에 있어서,
상기 제1 영상은 상기 제1 디스플레이 장치에서 상기 사용자의 미간 또는 코(nose) 위에 배치되어 상기 사용자의 어느 한쪽 눈 상부에 위치하는 제1 미러로 출력되고, 상기 제1 미러에 의해 상기 눈 상부에서 눈 하부로 반사되어 상기 제1 보조렌즈에 입사되며, 상기 제1 보조렌즈에서 확대되어 상기 제1 메인렌즈에 전달되고, 상기 제1 메인렌즈에서 반사 및 투과되어 상기 사용자의 눈에 보여지며,
상기 제2 영상은 상기 제2 디스플레이 장치에서 상기 사용자의 미간 또는 코(nose) 위에 배치되어 상기 사용자의 나머지 한쪽 눈 상부에 위치하는 제2 미러로 출력되고, 상기 제2 미러에 의해 상기 눈 상부에서 눈 하부로 반사되어 상기 제2 보조렌즈에 입사되며, 상기 제2 보조렌즈에서 확대되어 상기 제2 메인렌즈에 전달되고, 상기 제2 메인렌즈에서 반사 및 투과되어 상기 사용자의 눈에 보여지는, 스마트 안경.
The method according to claim 1,
The first image is output from the first display device to a first mirror disposed on the user's eyebrow or nose and positioned above one eye of the user, and is output from the upper eye by the first mirror. It is reflected under the eye and incident on the first auxiliary lens, is enlarged from the first auxiliary lens and transmitted to the first main lens, is reflected and transmitted from the first main lens to be seen by the user's eyes,
The second image is output from the second display device to a second mirror disposed above the user's eyebrow or nose and positioned above the other eye of the user, and from the second mirror It is reflected under the eye and incident on the second auxiliary lens, is enlarged from the second auxiliary lens and transmitted to the second main lens, reflected and transmitted from the second main lens to be seen by the user's eyes. glasses.
청구항 1에 있어서,
상기 제1 메인렌즈와 상기 제2 메인렌즈 각각은 인접한 측면 프레임과의 사이에 빈 공간을 구비하는, 스마트 안경.
The method according to claim 1,
Each of the first main lens and the second main lens has an empty space between adjacent side frames.
청구항 1에 있어서,
상기 프레임 어셈블리의 중앙 프레임 또는 메인 프레임의 좌측 또는 우측 프레임 부분에 수납되며 상기 제1 디스플레이 장치 및 제2 디스플레이 장치 중 어느 하나 이상에 연결되는 통신 및 전원 보드를 더 포함하고, 상기 통신 및 전원 보드는 유선으로 외부의 제어 및 전원 장치와 연결되고 상기 제어 및 전원 장치와 상기 제1 및 제2 디스플레이들 간의 신호 및 데이터 통신을 전달하는 스마트 안경.
The method according to claim 1,
Further comprising a communication and power board accommodated in the center frame of the frame assembly or a left or right frame portion of the main frame and connected to at least one of the first display device and the second display device, the communication and power board Smart glasses that are connected to an external control and power device by wire and transmit signal and data communication between the control and power device and the first and second displays.
청구항 6에 있어서,
상기 통신 및 전원 보드에 연결되는 제어장치를 더 포함하며,
상기 제어장치는 양안 시차에 대응하도록 상기 제1 영상을 기준으로 상기 제2 영상을 일방향으로 일정 픽셀 쉬프트하여 출력하는, 스마트 안경.
The method of claim 6,
Further comprising a control device connected to the communication and power board,
The control device shifts and outputs the second image by a predetermined pixel in one direction based on the first image to correspond to binocular parallax.
KR1020180017874A 2018-02-13 2018-02-13 Smart glasses capable of processing virtual objects KR102218210B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180017874A KR102218210B1 (en) 2018-02-13 2018-02-13 Smart glasses capable of processing virtual objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180017874A KR102218210B1 (en) 2018-02-13 2018-02-13 Smart glasses capable of processing virtual objects

Publications (2)

Publication Number Publication Date
KR20190097894A KR20190097894A (en) 2019-08-21
KR102218210B1 true KR102218210B1 (en) 2021-02-22

Family

ID=67808316

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180017874A KR102218210B1 (en) 2018-02-13 2018-02-13 Smart glasses capable of processing virtual objects

Country Status (1)

Country Link
KR (1) KR102218210B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110967839B (en) * 2019-12-06 2022-08-05 Oppo广东移动通信有限公司 Protective shell and head-mounted equipment
CN110824714B (en) * 2019-12-06 2022-04-01 Oppo广东移动通信有限公司 Tie assembly for head-mounted device and head-mounted device
CN110967838B (en) * 2019-12-06 2022-06-07 Oppo广东移动通信有限公司 Head-mounted device
CN110908115B (en) * 2019-12-06 2022-06-07 Oppo广东移动通信有限公司 Head-mounted device
CN115202056B (en) * 2019-12-06 2024-04-19 Oppo广东移动通信有限公司 Head-mounted device
KR20210148602A (en) * 2020-06-01 2021-12-08 삼성전자주식회사 Wearable electronic device including display

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114022A (en) * 2011-11-29 2013-06-10 Seiko Epson Corp Polarizing device and display device
JP2015087921A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1184314A (en) * 1997-09-02 1999-03-26 Minolta Co Ltd Video observing device
KR101549074B1 (en) 2013-12-11 2015-09-02 (주)대한특수금속 Smart glass and connecting gender thereof
KR102184402B1 (en) * 2014-03-06 2020-11-30 엘지전자 주식회사 glass-type mobile terminal
KR101588402B1 (en) 2014-09-02 2016-01-25 주식회사 라온텍 Optical system for smart eyeglass

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114022A (en) * 2011-11-29 2013-06-10 Seiko Epson Corp Polarizing device and display device
JP2015087921A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device

Also Published As

Publication number Publication date
KR20190097894A (en) 2019-08-21

Similar Documents

Publication Publication Date Title
KR102218210B1 (en) Smart glasses capable of processing virtual objects
US10114466B2 (en) Methods and systems for hands-free browsing in a wearable computing device
KR102218207B1 (en) Smart glasses capable of processing virtual objects
US11378802B2 (en) Smart eyeglasses
US10009542B2 (en) Systems and methods for environment content sharing
US9804682B2 (en) Systems and methods for performing multi-touch operations on a head-mountable device
CA2913650C (en) Virtual object orientation and visualization
US9100732B1 (en) Hertzian dipole headphone speaker
US9274599B1 (en) Input detection
US20150077416A1 (en) Head mounted display for viewing and creating a media file including omnidirectional image data and corresponding audio data
US20130007668A1 (en) Multi-visor: managing applications in head mounted displays
US20130293468A1 (en) Collaboration environment using see through displays
US20160291327A1 (en) Glass-type image display device and method for controlling same
KR102051202B1 (en) Smart glasses capable of processing virtual objects
CN114402589A (en) Smart stylus beam and secondary probability input for element mapping in 2D and 3D graphical user interfaces
WO2013056187A1 (en) User controlled real object disappearance in a mixed reality display
US20170090557A1 (en) Systems and Devices for Implementing a Side-Mounted Optical Sensor
CN106067833B (en) Mobile terminal and control method thereof
US9223451B1 (en) Active capacitive sensing on an HMD
KR102269833B1 (en) Smart glasses
KR20150070874A (en) Grass type device and control method thereof
US10642050B1 (en) Modular accessory systems for wearable devices
WO2018182159A1 (en) Smart glasses capable of processing virtual object
US9496601B1 (en) Antenna assembly utilizing space between a battery and a housing
KR102191433B1 (en) Smart glasses

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant