KR102218207B1 - 가상 오브젝트의 처리가 가능한 스마트 안경 - Google Patents

가상 오브젝트의 처리가 가능한 스마트 안경 Download PDF

Info

Publication number
KR102218207B1
KR102218207B1 KR1020180028036A KR20180028036A KR102218207B1 KR 102218207 B1 KR102218207 B1 KR 102218207B1 KR 1020180028036 A KR1020180028036 A KR 1020180028036A KR 20180028036 A KR20180028036 A KR 20180028036A KR 102218207 B1 KR102218207 B1 KR 102218207B1
Authority
KR
South Korea
Prior art keywords
smart glasses
image
frame
user
lens
Prior art date
Application number
KR1020180028036A
Other languages
English (en)
Other versions
KR20190106485A (ko
Inventor
문명일
Original Assignee
주식회사 메카비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메카비전 filed Critical 주식회사 메카비전
Priority to KR1020180028036A priority Critical patent/KR102218207B1/ko
Publication of KR20190106485A publication Critical patent/KR20190106485A/ko
Application granted granted Critical
Publication of KR102218207B1 publication Critical patent/KR102218207B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1058Manufacture or assembly
    • H04R1/1075Mountings of transducers in earphones or headphones
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/30Arrangements in telecontrol or telemetry systems using a wired architecture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture

Abstract

디스플레이를 구비하고 가상 오브젝트를 처리할 수 있는 스마트 안경이 개시된다. 스마트 안경은 다수의 프레임들에 의해 안경 형태를 형성하는 프레임 어셈블리, 프레임 어셈블리에 탑재되는 전장부품, 전장부품의 제어장치에 의해 제어되는 광학계, 디스플레이 장치와 광학계의 전원 및 제어를 위한 장치를 포함하며, 상기 전원 및 제어를 위한 장치는, 넥밴드 형태로 이루어지고, 상기 넥밴드는, 사용자 목에 걸어 착용하기 위한 것으로, 사용자의 전방쪽을 개방시킨 원형 또는 타원형의 밴드프레임, 상기 밴드프레임의 전방측 양끝에 구비되는 것으로, 전원 및 제어구동을 위한 인쇄회로기판, 밧데리, 스피커, 카메라, 이어폰 및 리모트 컨트롤러가 설치되는 구동부 조립체를 포함하여 이루어진다.

Description

가상 오브젝트의 처리가 가능한 스마트 안경{SMART GLASSES CAPABLE OF PROCESSING VIRTUAL OBJECTS}
본 발명의 실시예들은 스마트 안경에 관한 것으로, 보다 상세하게는 카메라와 디스플레이 장치를 구비하고 가상 오브젝트를 처리할 수 있는 스마트 안경에 관한 것이다.
헤드 마운트 디스플레이(Head Mount Display; HMD)는 안경처럼 얼굴에 착용하고 멀티미디어 콘텐츠를 안구에 근접한 형태로 안경 상에 가상의 영상을 디스플레이하는 디지털 디바이스를 말한다.
HMD는 단순한 디스플레이 기능을 넘어 증강현실(Augmented Reality) 기술 등과 조합하여 사용자에게 다양한 편의를 제공해 줄 수 있고, 외부 디지털 디바이스와 통신을 수행하여 해당 콘텐츠를 출력할 수 있을 뿐만 아니라 외부 디지털 디바이스를 위한 사용자 입력을 수신하거나 해당 외부 디지털 디바이스와 연동한 작업의 수행도 지원한다. 최근, HMD에 대한 연구 개발이 활발하게 이루어지고 있다.
증강현실은 실세계에 3차원의 가상 물체를 겹쳐서 보여주는 기술을 활용해 현실과 가상환경을 융합하는 복합형 가상현실(Virtual Reality) 기술 중 하나이다. 이러한 증강현실은 군사, 오락, 의료, 학습, 영화, 건축설계, 관광 등 다양한 분야에 활용되면서 공상과학 소설이나 영화에서 묘사되는 상상적 단계를 벗어나 점차 현실화되고 있다.
증강현실은 가상현실의 한 분야이며, 가상현실 시스템들은 창문형 시스템(Window Systems), 거울형 시스템(Mirror Systems), 탑승형 시스템(Vehicle-based Systems), 증강현실 시스템(Aumented Reality Systems) 등으로 분류될 수 있다.
가상현실 시스템은 입력장치와 출력장치를 포함한다. 출력장치는 사용자들이 감각채널을 통해 시각, 청각, 촉각, 움직임 등을 지각하게 해 주는 장치들로서 시각 디스플레이 장치, 청각 디스플레이 장치, 촉각 디스플레이 장치, 움직임 피드백 및 영상 디스플레이 장치가 포함된다. 시각 디스플레이(Visual Display) 장치 중 대표적인 하드웨어는 HMD와 스마트 안경이 있다.
가상현실이 추구하는 목표는 사용자로 하여금 원격현전(Telepresence)을 경험하도록 하는 것이다. 현전(Presence)은 어떤 환경 속에서 느끼는 실재감(Sense of being)을 뜻하는데 이런 점에서 원격현전은 커뮤니케이션 매체에 의해 어떤 가상 환경 속에서 실재하고 있음을 지칭할 수 있으며, 가상현실 시스템이나 증강현실 시스템은 사용자가 원격현전을 경험할 수 있도록 한다.
그러나 종래의 스마트 안경은 좌측이나 우측 중에서 하나의 안구로 이미지를 공급하고 사용자는 일측 안구로만 멀티미디어 콘텐츠를 관측함에 따라 일정 시간만 관측을 하여도 어지럼증 등의 부작용이 발생하는 문제점이 있다.
이러한 문제를 개선하기 위하여 양측 안구로 멀티미디어 콘텐츠를 공급하고자 좌측 안구로 콘텐츠를 공급하는 소형 투영기와 우측 안구로 콘텐츠를 공급하는 소형투영기를 각각 구비한 스마트 안경이 제안되었으나, 별도의 소형 투영기가 단일 영상 콘텐츠를 사용자의 양측 안구로 보내는 경우 양측 안구에 전달되는 콘텐츠가 사용자 시각의 측면에서 서로 동일하지 않고 서로 연계되지 않아 사용자가 어지러움이나 많은 피로감을 느끼는 등 사용자가 크게 불편을 느끼는 문제가 있다.
한국 등록특허공보 제10-1549074호(2015.08.26.) 한국 등록특허공보 제10-1588402호(2016.01.19.)
본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 얼굴의 상측이나 하측 방향에서 영상을 투영함으로써 사용자의 피로감과 어지럼을 크게 감소시킬 수 있는 광학 시스템을 구비한 스마트 안경을 제공하는데 있다.
본 발명의 다른 목적은 디스플레이에서 제공하는 멀티미디어 콘텐츠를 눈 주위의 미러를 통해 양방향에서 반사하며 확대렌즈부 또는 보조렌즈에서 확대된 콘텐츠를 빔 스플리터를 통해 양측 안구로 부분 반사하고 안구 전방으로 부분 투과하여 양측 안구에서 허상에 맺히는 동일한 영상 콘텐츠를 관측할 수 있게 하고 필요에 따라 3D 콘텐츠를 구현하거나 3D 콘텐츠를 이용하여 증강현실이나 가상현실을 용이하게 구현할 수 있는 스마트 안경을 제공하는데 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 스마트 안경은, 안경태 형태를 구비하는 프레임 어셈블리; 상기 프레임 어셈블리에 탑재되는 전장부품; 상기 프레임 어셈블리에 의해 지지되고 상기 전장부품의 제어장치에 의해 제어되며 상기 프레임 어셈블리의 중앙 상부측 및 중앙 하부측에 배치되는 제1 디스플레이 장치 및 제2 디스플레이 장치를 구비하는 디스플레이 시스템; 및 상기 프레임 어셈블리에 고정되는 케이스 조립체를 통해 상기 디스플레이 시스템과 수평 방향으로 결합하고, 상기 디스플레이 시스템 내의 수직 방향으로 배열되는 상기 제1 디스플레이 장치와 상기 제2 디스플레이 장치에서 각각 출력되는 제1 영상 및 제2 영상을 상기 제1 디스플레이 장치와 상기 제2 디스플레이 장치의 중간에 위치하는 미러를 통해 상기 수평 방향의 양 방향으로 전달하는 광학계를 포함한다.
일실시예에서, 상기 광학계는, 상기 중앙 상부측에서 상기 중앙 하부측을 향하는 제1 방향으로 입력되는 상기 제1 영상을 제1면에서 반사하여 상기 제1 방향과 직교하는 제2 방향으로 전달하고, 상기 중앙 하부측에서 상기 중앙 상부측을 향하는 제1 역방향으로 입력되는 상기 제2 영상을 상기 제1면의 반대측의 제2면에서 반사하여 상기 제1 역방향과 직교하고 상기 제2 방향의 반대 방향인 제2 역방향으로 전달하는 미러; 상기 미러에서 전달되는 제1 영상이 통과하는 오목 렌즈 형태의 제1 우렌즈; 상기 제1 우렌즈를 통과하는 제1 영상을 다시 통과시키는 볼록 렌즈 형태의 제2 우렌즈; 상기 제2 우렌즈를 통과하는 제1 영상을 반사하며 상기 프레임 어셈블리의 정면 일측에 지지되는 상기 제1 메인 렌즈; 상기 미러에서 전달되는 제2 영상이 통과하는 오목 렌즈 형태의 제1 좌렌즈; 상기 제1 좌렌즈를 통과하는 제2 영상을 다시 통과시키는 볼록 렌즈 형태의 제2 좌렌즈; 및 상기 제2 좌렌즈를 통과하는 제2 영상을 반사하며, 상기 프레임 어셈블리의 정면 타측에 지지되는 상기 제2 메인 렌즈를 포함할 수 있다.
일실시예에서, 상기 제1 메인 렌즈 또는 상기 제2 메인 렌즈는, 육면체 블록 형태의 몸체; 및 상기 몸체 내부에 상기 제2 우렌즈를 통과한 제1 영상 또는 상기 제2 좌렌즈를 통과한 제2 영상의 투사 방향과 경사지게 배치되는 경면, 반경면 또는 빔 스플릿트를 구비할 수 있다.
일실시예에서, 상기 제어장치는 양안 시차에 대응하도록 상기 제1 영상을 기준으로 상기 제2 영상이 일방향으로 일정 픽셀 쉬프트되어 출력되도록 제1 디스플레이 장치 또는 제2 디스플레이 장치를 제어할 수 있다.
일실시예에서, 상기 제어장치는 3차원 영상 또는 입체 영상의 표시를 위해 상기 제1 영상과 상기 제2 영상이 순차적으로 혹은 교대로 출력되도록 제1 디스플레이 장치 또는 제2 디스플레이 장치를 제어할 수 있다.
일실시예에서, 상기 제1 디스플레이 장치 또는 상기 제2 디스플레이 장치는, LCD(liquid crystal display), DLP(digtal light processing) 프로젝터, LCoS(liquid crystal on silicon) 장치, PDP(plasma dispaly panel), FED(field emission display), ELD(elelctro-luminescent display) 및 OLED(organic light emitting diode) 장치 중 어느 하나를 포함할 수 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 스마트 안경은, 안경 프레임 형태를 구비하는 프레임 어셈블리; 상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때 상기 얼굴의 중앙부 상에 위치하는 디스플레이 장치; 상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때 상기 디스플레이 장치의 영상을 상기 사용자의 양쪽 눈이 위치하는 방향으로 전달하는 광학계(optical system); 및 상기 디스플레이 장치와 광학계의 전원 및 제어를 위한 장치를 포함하며, 상기 전원 및 제어를 위한 장치는, 넥밴드 형태로 이루어지고, 상기 넥밴드는, 사용자 목에 걸어 착용하기 위한 것으로, 사용자의 전방쪽을 개방시킨 원형 또는 타원형의 밴드프레임; 상기 밴드프레임의 전방측 양끝에 구비되는 것으로, 전원 및 제어구동을 위한 인쇄회로기판, 밧데리, 스피커, 카메라, 이어폰 및 리모트 컨트롤러가 설치되는 구동부 조립체를 포함하여 이루어진다.
상기 본 발명에 있어서, 구동부 조립체는 상호 결합 및 분리 가능한 상부조립커버와 하부조립커버를 구비하고, 상기 상,하부조립커버 내에 인쇄회로기판이 설치되며, 상기 인쇄회로기판 상면에는 스피커가 설치되고, 상기 인쇄회로기판 저면에는 전원공급을 위한 밧데리가 설치된다.
상기 본 발명에 있어서, 카메라는 양쪽의 구동부 조립체중 어느 한 쪽의 구동부 조립체에 구비되고, 상기 하부조립커버의 끝단에 사용자의 전방쪽을 향하도록 설치하여 인쇄회로기판과 회로적으로 연결한다.
상기 본 발명에 있어서, 이어폰은 양쪽 구동부 조립체에 각각 착탈 가능하게 설치되어 각각의 인쇄회로기판과 전기적으로 연결된다.
상기 본 발명에 있어서, 리모트 컨트롤러는 양쪽 구동부 조립체중에서 카메라가 설치되지 않은 쪽의 구동부 조립체 끝단에 착탈 가능하게 설치되고, 하나 이상의 통신 프로토콜을 지원하는 하나 이상의 유선 및/또는 무선 통신 서브시스템을 포함한다.
상기 본 발명에 있어서, 넥밴드의 밴드프레임 양쪽 끝부분과 상기 프레임 어셈블리 끝부분을 견인줄로 연결하여 넥밴드의 무게를 프레임 어셈블리에 지지시킨다.
본 발명에 따른 스마트 안경 및 그 광학시스템을 채용하는 경우에는, 사용자 눈의 피로감과 어지럼을 상당히 감소시켜 착용감과 사용편의성을 향상시킬 수 있다. 또한, 무게를 최소화하고 인체공학적 구조 및 디자인으로 설계하여 우수한 착용감을 제공할 수 있다. 또한, 배터리 교체 방식으로 장시간 사용에 대한 전원 공급을 용이하게 할 수 있는 장점이 있다.
아울러, 피로감과 어지럼 현상을 방지하고 착용감을 증대시킴으로써, 스마트 안경을 사용하여 가상현실(VR), 증강현실(AR), 융합현실(MR), 혼합현실(MR) 등의 콘텐츠를 이용할 때 장시간 이용 환경을 제공할 수 있다. 또한, 모니터없이 업무 혹은 작업을 하거나, 쇼핑을 하거나, 내비게이션 장치로 이용하거나, AR, VR 또는 MR 게임을 하거나, 동영상을 감상하거나, 영상통화를 하는 등 다양한 분야에 효과적으로 혹은 쉽게 적용할 수 있는 장점이 있다.
또한, 본 발명에 의하면, 스마트 안경의 전면 중앙에 배치되는 하나 또는 두 개의 디스플레이에서 양쪽 눈으로 독립적인 영상을 제공하도록 구성함으로써 측면 시야각을 확보할 수 있는 장점이 있다.
또한, 하나의 스마트 안경으로 2D, 3D 이미지를 효과적으로 구현하고, 증강현실과 가상현실을 구현할 수 있는 효과가 있다.
또한, 하나 또는 두 개의 디스플레이에서 동일한 멀티미디어 콘텐츠를 양측 안구에 제공함으로써 장시간 사용에도 사용자가 불편을 느끼지 않는 효과가 있다.
또한, 정면의 메인렌즈의 두께를 줄여 장치를 경량화하고 사용감을 향상시킬 수 있다.
또한, 후면 카메라나 센서를 통해 사용자의 눈꺼풀을 인식하고 인식 결과에 따라 장치에 수납된 액추에이터나 구동기 또는 스피커를 통해 진동이나 알람을 발생시켜 사용자 특히, 졸음 운전 중인 운전자에게 위험을 경고할 수 있다.
또한, 장치를 장시간 사용할 때 발생할 수 있는 열을 메인 프레임의 정면 상단부에 배치되는 방열구조나 히트싱크로 효과적으로 배출하여 스마트 안경에 대한 동작 안정성과 신뢰성을 제공할 수 있다.
또한, 스마트 안경에서 배터리를 제거하고, 외부의 제어 및 전원 장치에 배터리를 통해 스마트 안경에 전원을 공급하는 경우, 스마트 안경을 효과적으로 경량화할 수 있고 착용감이나 사용편의성을 증대시킬 수 있다.
또한, 스마트 안경에 탑재된 스테레오 RGB 카메라, 스테레오 적외선 카메라 또는 적외선 프로젝터를 이용하여 증강현실 서비스를 제공하거나 증강현실로 표시되는 사용자 인터페이스 이미지 또는 가상 오브젝트를 통해 사용자 명령을 입력 받고 이에 따라 미리 설정된 동작을 수행할 수 있다. 이러한 구성에 의하면, 사용자 편의성을 극대화하면서 증강현실 서비스, 증강현실을 이용한 각종 입체 영상 서비스를 제공할 수 있는 장점이 있다.
도 1은 본 발명의 일실시예에 따른 스마트 안경의 사시도이다.
도 2는 도 1의 스마트 안경의 분해사시도이다.
도 3은 도 1의 스마트 안경의 주요 작동 원리를 설명하기 위한 부분 분해 사시도이다.
도 4는 도 3의 스마트 안경의 배면 케이스의 구조를 확대하여 나타낸 사시도이다.
도 5는 본 발명의 다른 실시예에 따른 스마트 안경에 채용할 수 있는 메인 제어보드의 주요 구성을 설명하기 위한 블록도이다.
도 6은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다.
도 7은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다.
도 8은 도 7의 스마트 안경에 대한 정면도이다.
도 9는 도 8의 스마트 안경의 내부 구조를 설명하기 위한 부분 투영 정면도이다.
도 10은 도 7의 스마트 안경에 대한 우측면도이다.
도 11은 도 10의 스마트 안경의 내부 구조를 보여주는 부분 투영 우측면도이다.
도 12는 도 7의 스마트 안경의 구성요소를 설명하기 위한 부분 분해사시도이다.
도 13 및 도 14는 도 7의 스마트 안경의 광학 시스템을 설명하기 위한 도면들이다.
도 15는 도 7의 스마트 안경에 채용할 수 있는 제어보드에 대한 블록도이다.
도 16은 본 발명의 또 다른 실시예에 따른 스마트 안경과 제어 시스템에 대한 사시도이다.
도 17은 도 16의 스마트 안경의 주요 구성을 설명하기 위한 블록도이다.
도 18은 도 16의 스마트 안경에 채용할 수 있는 제어 모듈을 설명하기 위한 블록도이다.
도 19 및 도 20은 도 16의 스마트 안경의 주요 작동 원리를 설명하기 위한 순서도들이다.
도 21은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스를 설명하기 위한 도면이다.
도 22 및 23은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스의 변형예를 설명하기 위한 예시도들이다.
도 24는 본 실시예의 스마트 안경에 채용할 수 있는 사용자 인터페이스의 작동 원리를 설명하기 위한 도면이다.
도 25 및 26은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용된 사용자 인터페이스의 신호 처리 과정을 설명하기 위한 흐름도들이다.
도 27은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 사시도이다.
도 28은 도 27의 스마트 안경에 대한 정면도이다.
도 29 및 도 30은 도 28의 스마트 안경에 대한 사용 상태도이다.
도 31은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 정면도이다.
도 32 및 도 33은 도 31의 스마트 안경에 대한 사용 상태도이다.
도 34 및 도 35는 본 발명의 실시예에 따른 스마트 안경의 전원 및 제어를 위한 장치의 외관을 보여주는 사시도들이다.
도 36은 본 발명의 실시예에 따른 스마트 안경에 넥밴드를 설치한 사시도 이다.
도 37은 본 발명의 실시예에 따른 스마트 안경의 넥밴드를 나타낸 분해 사시도이다.
도 38은 본 발명의 실시예에 따른 스마트 안경의 넥밴드를 나타낸 사용상태 사시도이다.
이하에서는 첨부된 도면을 참조하여, 본 발명의 바람직한 실시예를 상세히 설명한다. 각 도면에 제시된 동일한 도면부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 따른 스마트 안경의 사시도이다. 도 2는 도 1의 스마트 안경의 분해사시도이다. 도 3은 도 1의 스마트 안경의 주요 작동 원리를 설명하기 위한 부분 분해 사시도이다. 그리고 도 4는 도 3의 스마트 안경의 배면 케이스의 구조를 확대하여 나타낸 사시도이다.
도 1 내지 도 4를 참조하면, 본 실시예에 따른 스마트 안경(100)은, 프레임 어셈블리(10), 전장부품, 디스플레이 시스템(30) 및 광학계(50)를 포함한다. 디스플레이 시스템(30)은 제1 디스플레이 장치(31)와 제2 디스플레이 장치(32)에 더하여 케이스 조립체(60)와 광학계(50)를 포함할 수 있다.
디스플레이 장치들과 광학계(50) 및 케이스 조립체(60)는 직교 좌표계에서 서로 다른 3개의 축상으로 나열되는 형태로 서로 교차 배열될 수 있으며, 이러한 교차 배열 구조의 중심에는 미러(51)가 배치되며, 제1 디스플레이 장치(31)와 제2 디스플레이 장치(32)는 미러(51)를 사이에 두고 양측에 배치될 수 있다.
프레임 어셈블리(10)는 다수의 프레임들에 의해 안경 형태를 형성한다. 프레임 어셈블리는 상부 프레임(upper frame, 11), 하부 프레임(lower frame, 12), 바디 프레임(body frame, 13), 우측 커버 프레임(right cover frame, 14) 및 좌측 커버 프레임(left cover frame, 15)을 포함할 수 있다. 바디 프레임(13)에는 코패드(nose pads, 18)가 결합될 수 있다.
하부 프레임(12)은 중앙 수납부에 메인 제어보드(21)를 수용한다. 중앙 수납부는 상부 프레임(11)에 의해 덮일 수 있다. 하부 프레임(12)은 중앙 수납부의 오른쪽에 연결되는 우측 측면 연장부 내의 제1 수납부에 제1 인쇄회로기판(23)과 제1 인쇄회로기판(23)에 연결되는 제1 배터리 팩(24)을 수납할 수 있다. 제1 수납부는 우측 커버 프레임(14)에 의해 덮일 수 있다. 우측 커버 프레임(14)에는 버튼식 파워버튼(22)이 설치되고, 파워버튼(22)은 제1 인쇄회로기판(23)에 연결될 수 있다. 제1 인쇄회로기판(23)은 제1 배터리 팩(24) 내의 배터리 관리 시스템과 메인 제어보드(21)의 제어장치(210)를 연결할 수 있다.
또한, 하부 프레임(12)은 중앙 수납부의 왼쪽에 연결되는 좌측 측면 연장부 내의 제2 수납부에 제2 인쇄회로기판(25)과 제2 인쇄회로기판(25)에 연결되는 제2 배터리 팩(26)을 수납할 수 있다. 제2 수납부는 좌측 커버 프레임(15)에 의해 덮일 수 있다. 제2 인쇄회로기판(25)은 제2 배터리 팩(26) 내의 배터리 관리 시스템과 메인 제어보드(21)의 제어장치(210)를 연결할 수 있다.
바디 프레임(13)은 하부 프레임(12)의 하부에 결합한다. 바디 프레임(13)은 하부 프레임(12)과 케이스 조립체(60) 사이에서 이들의 결합을 지지하도록 설치된다. 또한, 바디 프레임(13)은 하부 프레임(12)의 하부에 결합하여 스마트 안경의 전체적인 내구성을 보완하고 증대시킨다.
전장부품은 프레임 어셈블리(10)에 탑재되거나 수납될 수 있다. 전장부품은 메인 제어보드(main control board, 21), 파워버튼(22), 제1 제어보드(23), 제1 배터리 팩(24), 제2 제어보드(25) 및 제2 배터리 팩(26)을 포함할 수 있다. 제1 제어보드(23)은 제1 인쇄회로보드에 대응하고, 제2 제어보드(25)는 제2 인쇄회로기판에 대응할 수 있으며, 배터리 팩은 간략히 배터리로 지칭될 수 있다.
제1 디스플레이 장치(31) 및 제2 디스플레이 장치(32)는, 전장부품의 제어장치에 의해 제어되고, 프레임 어셈블리의 중앙 상부측 및 중앙 하부측에 각각 배치될 수 있다.
본 실시예에서 제1 디스플레이 장치(31) 또는 제2 디스플레이 장치(32)는, LCD(liquid crystal display)를 포함한다. 이 경우, 제1 디스플레이 장치(31) 및 제2 디스플레이 장치(32)는 백라이트 유닛(backlight units, 33, 34)을 구비할 수 있다.
한편, 본 발명의 디스플레이 장치는 LCD로 한정되지 않으며, 반사형 마이크로 디스플레이(liquid crystal on silicon, LCoS), PDP(plasma dispaly panel), FED(field emission display), ELD(elelctro-luminescent display) 및 OLED(organic light emitting diode) 중 어느 하나로 대체되어 사용될 수 있다.
광학계(50)는 제1 디스플레이 장치(31)에서 출력되는 제1 영상과 제2 디스플레이 장치(32)에서 출력되는 제2 영상을 사용자의 양쪽 눈으로 전달하면서 영상 사이즈를 제어하여 제1 메인 렌즈(54)와 제2 메인 렌즈(57) 상에 각각 투사할 수 있다.
광학계(50)는 미러(51), 제1 우렌즈(the first right lens, 52), 제2 우렌즈(the second right lens, 53), 제1 메인 렌즈(the first main lens, 54), 제1 좌렌즈(the first left lens, 55), 제2 좌렌즈(the second left lens, 56) 및 제2 메인 렌즈(the second main lens, 57)를 포함할 수 있다.
미러(51)는 스마트 안경의 전면 중앙이나 광학계 중앙의 상부측에서 중앙의 하부측을 향하는 방향(제1 방향)으로 입력되는 제1 영상을 제1면에서 반사하여 제1 방향과 직교하는 제2 방향으로 전달한다. 또한, 미러(51)는 상기 중앙의 하부측에서 중앙의 상부측을 향하는 방향(제1 방향과 마주하는 제1 역방향)으로 입력되는 제2 영상을 제1면의 반대측인 제2면에서 반사하여 제1 역방향과 직교하고 제2 방향의 반대 방향인 제2 역방향으로 전달할 수 있다.
제1 우렌즈(52)는 오목 렌즈 형태를 구비하고 미러(51)에서 전달되는 제1 영상을 통과시킬 수 있다. 제1 우렌즈(52)는 제1 영상을 1차로 통과시킬 수 있다. 제2 우렌즈(53)는 볼록 렌즈 형태를 구비하고 제1 우렌즈(52)를 통과한 제1 영상을 2차로 통과시킬 수 있다. 이러한 제1 우렌즈(52)와 제2 우렌즈(53)는 일단의 오목한 면을 통해 입사되는 빛은 타면의 볼목한 면을 통해 출사하는 단일 렌즈 형태를 형성할 수 있다.
제1 메인 렌즈(54)는 제2 우렌즈 (53)*를 통과한 제1 영상을 반사시키면서 투과시킬 수 있다. 제1 메인 렌즈(54)는 프레임 어셈블리나 커버에 의해 지지되고 스마트 안경의 정면 일측에 배치될 수 있다. 제1 메인 렌즈(54)는 사용자의 오른쪽 눈 전방에 배열될 수 있다.
제1 좌렌즈(55)는 오목 렌즈 형태를 구비하고 미러(51)에서 전달되는 제2 영상을 통과시킬 수 있다. 제1 좌렌즈(55)는 제1 우렌즈(52)와는 반대 방향으로 제2 영상을 1차로 통과시킬 수 있다. 제2 좌렌즈(56)는 볼록 렌즈 형태를 구비하고 제1 좌렌즈(55)를 통과한 제2 영상을 2차로 통과시킬 수 있다. 이러한 제1 좌렌즈(55)와 제2 좌렌즈(56)는 일단의 오목한 면을 통해 입사되는 빛을 타면의 볼목한 면을 통해 출사하는 단일 렌즈 구조에 대응할 수 있으나, 이에 한정되지는 않는다.
제2 메인 렌즈(57)는 제2 좌렌즈(56)를 통과한 제2 영상을 반사시키면서 투과시킬 수 있다. 제2 메인 렌즈(57)는 프레임 어셈블리나 커버에 의해 지지되고 스마트 안경의 정면 일측에 배치될 수 있다. 제2 메인 렌즈(57)는 사용자의 왼쪽 눈 전방에 배열될 수 있다.
전술한 디스플레이 장치들과 광학계(50)의 신뢰성 있는 구조를 형성하기 위해, 본 실시예에서는 광학계의 두 디스플레이 장치들을 광학계(50)의 구성요소들이 나열되는 제2 방향 (또는 수평 방향)과 직교하는 제1 방향 (또는 수직 방향)으로 배치한다. 두 디스플레이 장치들(31, 32)는 광학계(50)의 미러(51)를 중심에 두고 그 상측과 하측에 배치될 수 있다. 미러(51)는 또한 제2 방향으로 나열되는 광학계(50)의 구성요소들의 중앙에 위치하고 그에 의해 광학계(50)의 구성요소들이 서로 대향하는 두 방향으로 영상 신호를 전달하기 위한 배치를 갖추도록 한다.
이를 위해 본 실시예의 배면 케이스(62)는, 도 4에 도시한 바와 같이, 미러(51)가 안착되는 제1 안착홈(620), 제1 디스플레이 장치(31)를 안착하기 위한 제1 상부 안착홈(621)과 제2 디스플레이 장치(32)를 안착하기 위한 제1 하부 안착홈(622)을 구비한다. 제1 디스플레이 장치(31)가 LCD 패널인 경우, 제1 상부 안착홈(621) 상부에서 백라이트 유닛(33)을 수용하기 위한 제2 상부 안착홈(631)*이 더 구비될 수 있다. 이와 유사하게 제1 하부 안착홈(622)의 하부에도 제2 디스플레이 장치(32)의 백라이트 유닛(34)을 수용하기 하기 위한 제2 하부 안착홈 *이 구비될 수 있다.
또한, 배면 케이스(62)는, 도 4에 나타낸 바와 같이, 제1 우렌즈(52)와 제2 우렌즈(53)를 안착하기 위한 제2 안착홈(625), 제1 메인 렌즈(54)를 수용하고 지지하기 위한 제3 안착홈(626)을 구비할 수 있다. 이와 유사하게, 배면 케이스(62)는 제1 좌렌즈(55)와 제2 좌렌즈(56)를 안착하기 위한 제4 안착홈(627), 제2 메인 렌즈(57)를 수용하고 지지하기 위한 제5 안착홈(628)을 구비할 수 있다. 제1 메인 렌즈(54)와 제2 메인 렌즈(57)는 전면 케이스(61)와 배면 케이스(62)에 의해 1차적으로 지지되고, 전면 케이스(61)의 외측을 둘러싸는 전면 커버(63)와, 배면 케이스(62)의 외측을 둘러싸는 배면 커버(64)의 결합에 의해 견고하게 지지될 수 있다.
또한, 배면 케이스(62)는 바디 프레임(13)과의 체결을 위한 체결부(629)를 구비할 수 있다. 체결부(629)는 나사홀을 구비할 수 있다.
전면 커버(63)는 제1 외부 케이스로 지칭될 수 있고, 그 경우 전면 케이스(61)는 제1 내부 케이스로 지칭될 수 있다. 이와 유사하게, 배면 커버(64)는 제2 외부 케이스로 지칭될 수 있고, 그 경우 배면 케이스(62)*는 제2 내부 케이스로 지칭될 수 있다.
본 실시예에서 광학계는 제1 영상과 제2 영상을 사용자 얼굴의 측면에서 제공하는 것이 아니라 사용자 얼굴의 이마측과 코측에서 미간측으로 1차로 전달하고, 제1 영상과 제2 영상을 미간측에서 눈 앞쪽으로 전달하면서 오목렌즈와 볼록렌즈를 통해 영상 사이즈 조절 및 포커싱을 수행하고, 사용자 시각을 기준으로 눈 전방의 제1 메인 렌즈(54)와 제2 메인 렌즈(57) 상에서 사용자의 눈에 보이는 제1 영상 및 제2 영상을 표시할 수 있다.
본 실시예에 따른 스마트 안경(100)은 사용자에게 실질적인 불편함을 주지 않고 3차원 프로그램을 구현할 수 있다. 즉, 본 실시예에 의하면, 단순화된 구조를 가진 스마트 안경을 사용하여 제스처 인식, 3D 구현, 가상 현실 영상 재생, 증강 현실 서비스 등을 제공할 수 있다. 특히, 스마트 안경을 이용하여 3차원 콘텐츠를 이용하는 중에 어지러움이나 매스꺼움 등 기존 헤드마운트 디스플레이 사용자가 많이 느끼는 사용상의 문제점을 해결하여 사용자가 사용하기 편리하면서 장치의 구조가 단순하여 제조비용을 절감할 수 있는 장점이 있다.
전술한 본 실시예에 따른 스마튼 안경에서 제공하는 서비스 중 제스처 인식, 3D 구현, 가상 현실 영상 재생, 증강 현실 서비스를 위한 기본적인 신호 처리 기술은 본 기술분야에 이미 잘 알려져 있으므로 그에 대한 상세 설명은 생략한다.
도 5는 본 발명의 다른 실시예에 따른 스마트 안경에 채용할 수 있는 메인 제어보드의 주요 구성을 설명하기 위한 블록도이다.
도 5를 참조하면, 본 실시예에 따른 메인 제어보드(21)의* 제어장치(210)는 통신부(211), 프로세서(212) 및 메모리(213)를 포함할 수 있다. 제어장치(210)*는 컨트롤러 또는 컴퓨팅 장치를 포함할 수 있다. 프로세서(212)는 제어부로 지칭될 수 있다.
통신부(211)는 제어장치(210)를 네트워크에 연결한다. 통신부(211)는 네트워크를 통해 인터넷이나 네트워크 상의 다양한 서버에 접속할 수 있으며, 다양한 서버와 상호 협력하거나 연동하여 동작할 수 있다. 서버는 가상 현실을 지원하는 서버, 증강 현실을 지원하는 서버 등을 포함할 수 있다.
통신부(211)는 하나 이상의 통신 프로토콜을 지원하는 하나 이상의 유선 및/또는 무선 통신 서브시스템을 포함할 수 있다. 유선 통신 서브시스템은 PSTN(public switched telephone network), ADSL(Asymmetric Digital SubscriberLine) 또는 VDSL(Very high-data rate Digital SubscriberLine) 네트워크, PES(PSTN Emulation Service)를 위한 서브시스템, IP(internet protocol) 멀티미디어 서브시스템(IMS) 등을 포함할 수 있다. 무선 통신 서브시스템은 무선 주파수(radio frequency, RF) 수신기, RF 송신기, RF 송수신기, 광(예컨대, 적외선) 수신기, 광 송신기, 광 송수신기 또는 이들의 조합을 포함할 수 있다.
무선 네트워크는 기본적으로 Wi-Fi를 지칭하나, 이에 한정되지 않는다. 본 실시예에서 통신부(211)는 다양한 무선 네트워크 예를 들어, GSM(Global System for Mobile Communication), EDGE(Enhanced Data GSM Environment), CDMA(Code Division MultipleAccess), W-CDMA(W-Code Division MultipleAccess), LTE(Long Term Evolution), LET-A(LET-Advanced), OFDMA(Orthogonal Frequency Division Multiple Access), WiMax, Wi-Fi(Wireless Fidelity), Bluetooth 등에서 선택되는 적어도 하나 이상을 지원하도록 구현될 수 있다.
프로세서(212)는 내장 메모리 혹은 메모리(213)에 저장되는 소프트웨어 모듈이나 프로그램을 수행하여 스마트 안경을 통해 다양한 서비스를 제공할 수 있다. 프로세서(212)는 마이크로프로세서로 지칭될 수 있다.
프로세서(212)는 적어도 하나 이상의 중앙 처리 장치(CPU) 또는 코어를 포함하는 프로세서나 마이크로프로세서로 구현될 수 있다. 중앙처리장치 또는 코어는 처리할 명령어를 저장하는 레지스터(register)와, 비교, 판단, 연산을 담당하는 산술논리연산장치(arithmetic logical unit, ALU)와, 명령어의 해석과 실행을 위해 CPU를 내부적으로 제어하는 제어유닛(control unit)과, 이들을 연결하는 내부 버스 등을 구비할 수 있다. 중앙처리장치 혹은 코어는 MCU(micro control unit)와 주변 장치(외부 확장 장치를 위한 집적회로)가 함께 배치되는 SOC(system on chip)로 구현될 수 있으나, 이에 한정되지는 않는다.
또한, 프로세서(212)는 하나 이상의 데이터 프로세서, 이미지 프로세서 또는 코덱(CODEC)을 포함할 수 있으나, 이에 한정되지는 않는다. 제어부(212)는 주변장치 인터페이스와 메모리 인터페이스를 구비할 수 있다. 주변장치 인터페이스는 프로세서(212)와 출력장치 등의 입출력 시스템이나 다른 주변 장치를 연결하고, 메모리 인터페이스는 프로세서(212)와 메모리(213)를 연결할 수 있다.
본 실시예에서 프로세서(212)는 영상 디스플레이에 의해 상대적으로 많은 전력을 소모하는 동작 조건하에서도 배터리의 1회 충전에 상대적으로 긴 작동 시간을 확보하기 위해 제1 배터리 팩(24) 및 제2 배터리 팩(26)을 제어한다. 이를 위해 프로세서(212)는 각 배터리 팩의 배터리 관리 시스템(BMS, 240)과 연결되고 통신할 수 있다. 또한, 프로세서(212)는 디스플레이 시스템(30)의 두 디스플레이 장치들의 적어도 하나 또는 둘 모두의 제어장치나 타이밍 제어기 등에 접속할 수 있고, 이를 통해 디스플레이 장치의 동작을 제어할 수 있다.
메모리(213)는 스마트 안경을 통한 사물 인식, 제스처 인식, 가상 현실, 증강 현실 등의 서비스를 제공하기 위한 소프트웨어 모듈을 저장할 수 있다. 예를 들어, 소프트웨어 모듈은, 제스처* 인식을 위한 제1 모듈(215); 3차원 영상 제공이나 3차원 제어를 위한 제2 모듈(216); 가상 현실의 디스플레이 영상 서비스를 제공하기 위한 제3 모듈(217); 현재 보이는 실제 세계의 영상에 가상체를 부가하는 증강 현실의 디스플레이 영상 서비스를 제공하기 위한 제4 모듈(218) 등을 포함할 수 있다. 이러한 모듈은 프로세서(212)에 의해 수행되어 프로세서(212) 내에서 특정 기능이나 동작을 수행하는 적어도 하나의 태스크 프로세서로서 구현될 수 있다.
전술한 메모리(213)는 비휘발성 랜덤 액세스 메모리(non-volatile RAM, NVRAM), 대표적 휘발성 메모리인 DRAM(dynamic random access memory) 등의 반도체 메모리, 하드디스크 드라이브(hard disk drive, HDD), 광 저장 장치, 플래시 메모리 등으로 구현될 수 있다. 그리고 메모리(213)*는 인쇄물 제작 서비스 방법을 구현하기 위한 소프트웨어 모듈들 외에 운영체제, 프로그램, 명령어 집합 등을 저장할 수 있다.
한편, 전술한 실시예에 있어서, 스마트 안경 장치의 구성요소들은 비휘발성 메모리(NVRAM) 기반의 다양한 컴퓨팅 장치에 탑재되는 기능 블록 또는 모듈로 구현될 수 있다. 예컨대, 도 5의 프로세서의 메모리에 저장되는 소프트웨어 모듈은 이들이 수행하는 일련의 기능을 구현하기 위한 소프트웨어 형태로 컴퓨터 판독 가능 매체(기록매체)에 저장되거나 혹은 캐리어 형태로 원격지의 서버 장치 내 저장장치에 저장되고 서버 장치와 네트워크를 통해 연결되는 특정 컴퓨팅 장치에서 동작하도록 구현될 수 있다. 여기서 컴퓨터 판독 가능 매체는 네트워크를 통해 연결되는 복수의 컴퓨터 장치나 클라우드 시스템의 메모리나 저장 장치를 포함할 수 있고, 복수의 컴퓨터 장치나 클라우드 시스템 중 적어도 하나 이상은 본 실시예의 스마트 안경에서 다양한 서비스를 구현하기 위한 프로그램이나 소스 코드를 저장할 수 있다.
또한, 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하는 형태로 구현될 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것을 포함할 수 있다.
또한, 컴퓨터 판독 가능 매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 여기서 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 하드웨어 장치는 본 실시예의 스마트 안경을 통해 제공가능한 모든 서비스의 구현을 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
한편, 본 실시예의 제어장치(210)는 설명의 편의상 제어부, 메모리 및 통신부를 단일 기판이나 단일 하우징에 포함하는 컨트롤러로 구현될 수 있으나, 이에 한정되지 않고, 제어부와 메모리를 포함하거나 제어부만을 포함하는 형태로 구현될 수 있다.
도 6은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다.
도 6을 참조하면, 본 실시예에 따른 스마트 안경(100a)은 안경 프레임 형태의 프레임 어셈블리(10); 및 사용자가 스마트 안경을 착용할 때 사용자의 얼굴 전면 중앙부에서 영상을 출력하는 디스플레이와, 디스플레이의 영상을 반사, 확대, 부분 반사 및 부분 투과시키는 광학계를 일체로 지지하는 케이스 조립체(60)를 포함한다.
본 실시예에 있어서, 참조번호 50a로 표시된 제1 메인렌즈(도 2의 54 참조)와 제2 메인렌즈(도 2의 57 참조)는 앞서 설명한 실시예와 달리 판상의 반사 및 투과 부재로 이루어지며, 제1 메인렌즈와 제2 메인렌즈 각각의 중심축과 일정 각도 범위에서 경사지게 배치된다. 제1 메인렌즈와 제2 메인렌즈는 수 밀리미터 이하의 두께를 가지는 판상 부재 형태의 빔 스플리터일 수 있다.
제1 메인렌즈와 제2 메인렌즈는 영상을 부분 반사 및 부분 투과시켜 스마트 안경을 착용한 사용자가 허상면에 맺히는 영상을 보게 함으로써 실질적으로 스마트 안경을 통해 상대적으로 큰 영상을 볼 수 있도록 한다.
도 7은 본 발명의 또 다른 실시예에 따른 스마트 안경의 사시도이다. 도 8은 도 7의 스마트 안경에 대한 정면도이다. 도 9는 도 8의 스마트 안경의 내부 구조를 설명하기 위한 부분 투영 정면도이다. 도 10은 도 7의 스마트 안경에 대한 우측면도이다. 도 11은 도 10의 스마트 안경의 내부 구조를 보여주는 부분 투영 우측면도이다. 그리고 도 12는 도 7의 스마트 안경의 구성요소를 설명하기 위한 부분 분해사시도이다.
본 실시예에서는 설명의 편의상 앞서 설명한 실시예들의 스마트 안경(100 또는 100a)과 동일한 참조번호 100으로 표시하기로 한다.
본 실시예에 따른 스마트 안경(100)은, 메인 프레임(110), 제1 디스플레이(131), 제2 디스플레이(132), 제1 미러(133), 제2 미러(134), 제1 메인렌즈(137) 및 제2 메인렌즈(138)를 포함한다. 또한, 스마트 안경(100)은 제1 보조렌즈(135) 및 제2 보조렌즈(136)를 더 구비할 수 있다.
또한, 스마트 안경(100)은 프로세서를 포함한 컨트롤러(도 15의 210 참조)와, 제1 및 제2 디스플레이(131, 132)를 위한 디스플레이 인터페이스(display interface, 160)와 이들 사이를 연결하는 연성인쇄회로기판(flexible printed circit board, FPCB, 164)을 구비할 수 있다. 컨트롤러는 제어 및 전원 장치로서 지칭될 수 있고, 내장되거나 별도의 통신 및 전원 보드를 구비할 수 있다. 통신 및 전원 보드는 커넥터나 통신 또는 전원을 중계하거나 상호 연결하는 수단이나 구성부를 포함할 수 있다.
또한, 스마트 안경(100)은 하나 이상의 전면 카메라(151)와 하나 이상의 후면 카메라(153)를 구비할 수 있다. 전면 카메라(151)가 서로 일정 간격 이격되는 제1 전면 카메라와 제2 전면 카메라를 포함하는 경우, 3D 코텐츠에 대한 입력이나 적용을 용이하게 할 수 있다. 전면 또는 후면 카메라는 센서의 일종이거나 센서로서 기능할 수 있다. 특히, 후면 카메라(153)나 센서는 사용자의 눈꺼풀 동작을 감지하는 수단이나 이러한 수단에 상응하는 기능을 수행하는 장치일 수 있다.
또한, 스마트 안경(100)은, 카메라나 센서 혹은 제어 및 전원 장치로부터의 신호에 따라 진동 동작하는 액추에이터나 구동기(194)를 더 구비하거나 혹은 상기 신호에 응하여 음향 신호를 출력하는 스피커를 더 구비할 수 있다. 구동기(194)는 진동 모터를 포함할 수 있다.
또한, 스마트 안경(100)은 제1 디스플레이(131), 제2 디스플레이(132), 디스플레이 인터페이스(160) 등에서 발생하는 열을 방출하는 방열구조 또는 히트싱크를 더 구비할 수 있다. 제1 디스플레이(131) 및 제2 디스플레이(132) 중 적어도 하나는 디스플레이부로 지칭될 수 있다. 디스플레이는 디스플레이 장치를 간략히 지칭하는 것이며, 디스플레이가 액정표시장치인 경우, 디스플레이는 백라이트 유닛을 포함할 수 있다.
각 구성요소를 좀더 구체적으로 설명하면, 메인 프레임(110)은 대략 U-자 모양을 구비한 단단한 재질로 형성하고 안경테 모양이나 안경테의 뼈대 모양을 가진다. 메인 프레임(110)은 단일 구조물로 형성될 수 있으며, 그 경우 메인 프레임(110)은 중앙 프레임 부분(110c)과 그 양단에 결합하여 안경테 형태를 형성하는 좌측 프레임 부분(110a) 및 우측 프레임 부분(110b)을 구비할 수 있다. 좌측 및 우측은 사용자 입장에서 반대측일 수 있다.
한편, 본 실시예에 메인 프레임(110)은 제조의 용이성과 경량화를 위해 중간부에 배치되는 지지 프레임과 지지 프레임의 좌측에 결합하는 제1 측면 프레임 및 우측에 결합하는 제2 측면 프레임의 결합 구조를 구비할 수 있다. 이 경우, 지지 프레임은 디스플레이, 미러, 보조렌즈 및 메인렌즈의 지지와 배치 그리고 조립을 용이하게 하기 위하여 제1 지지 프레임(120a) 및 제2 지지 프레임(120b)로 착탈가능하게 형성될 수 있다.
여기서, 설명의 편의상 좌측 프레임 부분 및 제1 측면 프레임을 단일 참조부호 110a로 표현하고, 우측 프레임 부분 및 제2 측면 프레임을 단일 참조부호 110b로 표현하기로 한다. 지지 프레임(120)은 제1 지지 프레임(120a) 및 제2 지지 프레임(120b)이 결합된 형태를 지칭할 수 있다.
지지 프레임(120)의 중앙부에는 디스플레이 인터페이스(160)가 삽입되고 중앙 상부측에 배치되는 연성인쇄회로기판(flexible printed circuit board, FPCB, 164)의 터미널을 통해 컨트롤러와 전기적으로 연결될 수 있다. 그리고 디스플레이 인터페이스(160)는 제1 디스플레이(131) 및 제2 디스플레이(132)에 연결된다.
FPCB(164)는 중앙 전면부의 터미널에서 메인 프레임(110) 또는 지지 프레임(120)의 상부면을 따라 제1 측면 프레임(110a)과 제2 측면 프레임(110b)까지 연장 설치될 수 있다.
지지 프레임(120)의 박스 형태의 중앙부의 양측면에는 제1 디스플레이(131)와 제2 디스플레이(132)가 배치되어 서로 반대방향으로 제1 영상 및 제2 영상을 출력한다. 제1 디스플레이(131) 또는 제2 디스플레이(132)는 박막트랜지스터 액정 디스플레이(thin film transistor liquid crystal display, TFT LCD), 유기발광다이오드(organic light emitting diode, OLED), LCoS(liquid crystal on silicon), 디지털 광원 처리(digital light processing, DLP) 기반 디스플레이에서 선택되는 적어도 어느 하나를 포함할 수 있다.
제1 디스플레이(131)의 전면에는 지지 프레임(120)의 좌측 경사면 지지구조부분에 의해 지지되는 제1 미러(133)가 설치되고 제1 디스플레이(131)의 제1 영상을 좌측 방향과 대략 직교하는 제1 하측 방향으로 반사할 수 있다. 이와 유사하게, 제2 디스플레이(132)의 전면에는 지지 프레임(120)의 우측 경사면 지지구조부분에 의해 지지되는 제2 미러(134)가 설치되고 제2 디스플레이(132)의 제2 영상을 우측 방향과 대략 직교하는 제2 하측 방향으로 반사할 수 있다. 제2 하측 방향은 대략 사용자의 두 눈들 사이의 간격 정도의 거리를 두고 서로 평행한 방향일 수 있다.
제1 미러(133)에서 반사되는 제1 영상은 제1 보조렌즈(135)에서 확대된다. 제1 보조렌즈(135)는 지지 프레임(120)의 요철구조 형태의 지지구조에 삽입되어 지지될 수 있다. 제1 보조렌즈(135)는 제1 영상을 확대하여 제1 메인렌즈(137)에 전달한다.
이와 유사하게, 제2 미러(134)에서 반사되는 제2 영상은 제2 보조렌즈(136)에서 확대된다. 제2 보조렌즈(136)는 지지 프레임(120)의 요철구조 형태의 지지구조에 삽입되어 지지될 수 있다. 제2 보조렌즈(136)는 제2 영상을 확대하여 제2 메인렌즈(138)에 전달한다.
제1 보조렌즈(135) 또는 제2 보조렌즈(136)는, 영상이 입력단 측에서 볼 때를 기준으로, 일면 볼록 렌즈(타면 오목 렌즈), 양면 볼록 렌즈 및 일면 볼록면 렌즈의 적층 구조나 중첩 배열을 구비할 수 있다. 전술한 제1 및 제2 보조렌즈들(135, 136)은 제1 영상과 제2 영상을 원하는 크기로 확대하고 구면 수차를 제거하기 위한 것으로, 구현에 따라 다양한 변형이 가능하다.
제1 메인렌즈(137)는 제1 보조렌즈(135)의 하부에 배치된다. 제1 메인렌즈(137)는 도 1에 참조번호 50으로 표시되거나 도 6에 참조부호 50a로 표시된 제1 메인렌즈 또는 제2 메인렌즈에 대응될 수 있다.
제1 메인렌즈(137)은 상대적으로 얇은 판상의 렌즈 부재를 제1 보조렌즈(135)의 중심축과 경사지게 설치한 배치 구조를 구비할 수 있다. 제1 메인렌즈(137)는 제1 보조렌즈(135)의 하부측에서 지지 프레임(120)이나 중앙 프레임 부분(110c, 이하 간략히 중앙 프레임)의 하부에 결합될 수 있다. 제1 메인렌즈(137)는 빔 스플리터(beam splitter)로서 제1 영상 또는 제1 보조렌즈(135)를 통과한 제1 영상을 사용자의 눈을 향해 대략 직각으로 반사할 수 있다.
일례로 제1 미러(133)에서 대략 수직 방향으로 내려오는 제1 영상은 제1 메인렌즈(137)의 반사면을 중심으로 사용자의 눈을 향하는 영상과 사용자 눈의 전방을 향하는 허상을 형성한다. 반사면에서 하상이 맺히는 위치 혹은 영상면까지의 거리는 약 20미터일 수 있다.
유사하게, 제2 메인렌즈(138)는 제2 보조렌즈(136)의 하부에 배치된다. 제2 메인렌즈(138)은 상대적으로 얇은 판상의 렌즈 부재를 제2 보조렌즈(136)의 중심축과 경사지게 설치한 배치 구조를 구비할 수 있다. 제2 메인렌즈(138)는 제2 보조렌즈(136)의 하부측에서 지지 프레임(120)이나 중앙 프레임(110c)의 하부에 결합될 수 있다. 제2 메인렌즈(138)는 빔 스플리터(beam splitter)로서 제2 보조렌즈(136)를 통과한 제2 영상을 사용자의 눈을 향해 대략 직각으로 반사할 수 있다.
일례로 제2 미러(134)에서 대략 수직 방향으로 내려오는 제2 영상은 제2 메인렌즈(138)의 반사면을 중심으로 사용자의 눈을 향하는 영상과 사용자 눈의 전방을 향하는 허상을 형성한다.
전술한 보조렌즈(135, 136)의 볼록한 면은 영상 또는 콘텐츠를 확대하고 구면 수차를 없애기 위하여 3개의 비구면 렌즈를 포함하도록 설치될 수 있다.
또한, 지지 프레임(120)의 중앙 하부측에는 코걸이 부재(140)가 연결될 수 있다. 코걸이 부재(140)는 적어도 일부가 상대적인 연성 재질로 이루어질 수 있다. 연성 재질은 합성수지를 포함할 수 있다.
메인 프레임(110)의 중앙 상부측에는 상부 커버(113)가 결합하고, 중앙 전면상부측에는 전면상부커버(114)가 결합하고, 중앙 전면 최상부 중앙에는 전면보조커버(115)가 결합될 수 있다. 전면상부커버(114)는 제1 및 제2 지지 프레임(120a, 120b)을 게재하고 후면커버(112c)와 나사나 볼트 등의 체결수단에 의해 중앙 프레임(120c)에 결합할 수 있다. 전면보조커버(115)는 전면 카메라(151)의 노출 렌즈 부분을 덮을 수 있으며, 그 경우 전면보조커버(115)의 적어도 일부분은 투명 혹은 반투명 재질로 형성될 수 있다. 또한, 구현에 따라서 전면보조커버(115)는 전면 카메라(151)의 렌즈 노출을 위한 개구부나 관통홀을 구비할 수 있다.
제1 측면 프레임(110a)의 일단은 지지 프레임(120)의 좌측에 연결되고, 그 타단은 제1 측면 연결 프레임(121)에 연결될 수 있다. 제1 측면 연결 프레임(121)은 제1 측면 종단 프레임(a first side end frame, 122)에 연결될 수 있다. 제1 측면 종단 프레임(122)은 제1 배터리(172)를 수납하는 내부 공간을 구비하며, 후술하는 제2 측면 종단 프레임(125)과 마주하는 내부 공간의 개구부는 제1 연성 커버(123)에 의해 탈착가능하게 덮힐 수 있다. 제1 측면 연결 프레임(121)과 제1 연성 커버(123)는 적어도 그 표면 부분이 사용자의 귀와 그 뒤쪽에 접하는 부분으로 착용감을 좋게 하기 위해 고무나 연질의 합성수지 재질로 형성될 수 있다.
유사하게, 제2 측면 프레임(110b)의 일단은 지지 프레임(120)의 우측에 연결되고, 그 타단은 제2 측면 연결 프레임(124)에 연결될 수 있다. 제2 측면 연결 프레임(124)은 제2 측면 종단 프레임(a second side end frame, 125)에 연결될 수 있다. 제2 측면 종단 프레임(125)은 제2 배터리(171)를 수납하는 내부 공간을 구비하며, 전술한 제1 측면 종단 프레임(122)이나 제1 연성 커버(123)와 마주하는 내부 공간의 개구부는 제2 연성 커버(126)에 의해 탈착가능하게 폐쇄될 수 있다. 제2 측면 연결 프레임(124)과 제2 연성 커버(126)는 적어도 그 표면 부분이 사용자의 왼쪽 귀와 그 뒤쪽에 접하는 부분으로 착용감을 좋게 하기 위해 고무나 연질의 합성수지 재질로 형성될 수 있다. 제1 배터리(171) 및 제2 배터리(172)는 전원장치로 지칭될 수 있고, 구현에 따라서 하나의 배터리가 탑재되거나 하나의 배터리도 탑재되지 않고 모두 생략될 수 있다.
제1 측면 프레임(110a)의 외측면에는 제1 인쇄회로기판(a first PCB, 161)을 수용하도록 제1 측면 커버(112a)가 설치될 수 있다. 제1 인쇄회로기판(161)은 제1 배터리(172)에 연결되고 FPCB(164)의 일단에 연결될 수 있다. 유사하게, 제2 측면 프레임(110b)의 외측면에는 제2 인쇄회로기판(a second PCB, 162)을 수납하도록 제2 측면 커버(112b)가 결합될 수 있다. 제2 인쇄회로기판(162)은 제2 배터리(171)에 연결되고 FPCB(164)의 다른 타단에 연결될 수 있다.
제1 측면 프레임(110a)과 제2 측면 프레임(110b)의 전면측에는 쉴드(도 16의 180 참조)의 결합에서 결합력 확보 및 위치 지정을 위한 돌기 혹은 요철부를 구비할 수 있다. 또한, 요철부 대신에 그 형성면 부근에는 자석이나 자석을 붙는 금속성 재질이 내재하여 구비될 수 있으며, 그에 의해 쉴드와의 결합을 용이하게 하고 안정적인 결합 상태를 유지하도록 할 수 있다.
제1 인쇄회로기판(161)은 외부와의 데이터 송수신이나 전원을 받기 위한 적어도 하나의 포트 혹은 제1 커넥터를 구비할 수 있다. 제2 인쇄회로기판(162)은 외부와의 데이터 송수신이나 전원을 받기 위한 적어도 하나의 포트 혹은 제2 커넥터를 구비할 수 있다. 또한, 제1 또는 제2 인쇄회로기판(161; 162)은 이어폰 단자를 구비할 수 있다.
전면 카메라(151)는 메인 프레임(110) 또는 중앙 프레임(120c)의 전면에 노출되는 렌즈를 구비할 수 있다. 전면 카메라(151)는 두 개가 설치될 수 있으나 이에 한정되지는 않는다. 전면 카메라(151)의 렌즈나 그 주변 부분은 전면보조커버(115)에 보호될 수 있다. 전면 카메라(151)은 FPCB(164)의 또 다른 일단이나 연장부에 전기적으로 연결될 수 있다.
후면 카메라(153)는 메인 프레임(110) 또는 지지 프레임(120)의 후면에 노출되는 렌즈를 구비할 수 있다. 후면 카메라(153)는 하나가 설치될 수 있으나 이에 한정되지는 않는다. 후면 카메라(153)은 FPCB(164)의 또 다른 일단이나 연장부에 전기적으로 연결될 수 있다.
프로세서(도 5의 212 참조)는 제1 또는 제2 인쇄회로기판(161, 162)에 배치될 수 있다. 프로세서는 스마트 안경(100)의 구성요소들을 제어하여 스마트 안경(100)의 동작이나 기능을 운영 및 관리할 수 있다. 프로세서는 어플리케이션 프로세서(application processor, AP)를 포함할 수 있다. 프로세서는 디스플레이 인터페이스를 포함할 수 있다.
디스플레이 인터페이스는 프로세서의 제어에 따라 제1 디스플레이(131) 및 제2 디스플레이(132)에 전달되는 신호의 타이밍을 제어할 수 있다. 신호는 영상 신호를 포함할 수 있다. 본 실시예에서 디스플레이 인터페이스로는 제1 및 제2 디스플레이들(131, 132)과 3D 콘텐츠에 적용하기 적합한 듀얼 및 3D MIPI DSI(Dual & 3D Mobile Industry Processor Interface Digital Serial Interface)(이하 간략히 DSI라고 한다)(도 17 210a 참조) 또는 이와 유사한 기능을 수행하는 수단이나 장치일 수 있다.
또한, 제1 또는 제2 측면 프레임(110a, 110b)에는 구동기(194)가 내장될 수 있다. 구동기(194)는 제1 또는 제2 인쇄회로기판(161, 162)에 전기적으로 연결되고 전면 카메라(151), 후면 카메라(153), 센서 또는 프로세서의 신호에 따라 동작하여 진동을 발생시킬 수 있다. 일례로, 후면 카메라(153)를 통해 사용자의 눈꺼풀을 인식하고 눈꺼풀이 일정 시간 이상동안 안구를 덮고 있다고 인식되는 경우, 후면 카메라(153)의 신호에 따라 졸음 방지 알람용 진동을 발생시킬 수 있다.
또한, 지지 프레임(120)의 상부나 상부 커버(113)의 하부 또는 일부분에는 방열구조가 설치될 수 있다. 방열구조의 일단은 디스플레이 인터페이스(160), 제1 디스플레이(131), 제2 디스플레이(132), LCD용 백라이트 등에 연결되어 상기의 구성요소들 중 적어도 어느 하나에서 발생하는 열을 방출할 수 있다. 효과적인 열 방출을 위해, 방열구조는 중앙 프레임(120c)의 상단부의 길이 방향의 외곽선을 따라 연장할 수 있으며, 적어도 일면에 다수의 핀(fins)을 구비하여 단면적을 확장한 상태로 설치될 수 있다. 또한, 구현에 따라서, 방열구조는 상부 커버(113)의 길이 방향을 따라 일정 폭으로 설치되는 전도성이 우수한 재료에 연결되거나 상기의 고전도성 재료와 일체로 형성될 수 있다.
도 13 및 도 14는 도 7의 스마트 안경에 채용할 수 있는 광학 시스템을 설명하기 위한 도면들이다.
본 실시예에서는 제1 미러(133), 제1 보조렌즈(135a, 135b, 1372) 및 제1 메인렌즈(137)를 포함하는 광학 시스템을 중심으로 설명하나 제2 미러(134), 제2 보조렌즈(136) 및 제2 메인렌즈(138)를 포함하는 광학 시스템에도 동일하게 적용할 수 있음은 물론이다.
도 13 및 도 14를 참조하면, 본 실시예에 따른 스마트 안경은 제1 미러(133), 제1 보조렌즈(135a, 135b, 1372) 및 제1 메인렌즈(137)를 포함하는 제1 또는 우측 광학 시스템과, 제2 미러, 제2 보조렌즈 및 제2 메인렌즈를 포함하는 제2 또는 좌측 광학 시스템(도 9의 134, 136 및 138 참조)을 포함한다.
본 실시예에서, 제1 메인렌즈와 제2 메인렌즈는 판상의 반사 및 투과 부재로 이루어지며, 제1 메인렌즈와 제2 메인렌즈 각각의 중심축과 일정 각도 범위에서 경사지게 배치된다. 제1 메인렌즈와 제2 메인렌즈는 수 밀리미터 이하의 두께를 가지는 판상 부재 형태의 빔 스플리터일 수 있다.
또한, 본 실시예의 스마트 안경은 적어도 하나의 디스플레이 장치, 바람직하게는 두 개의 디스플레이 장치를 구비할 수 있고, 구현에 따라서 하나의 미러를 구비하거나 두 개의 미러(133, 134)를 구비할 수 있다.
디스플레이 장치는 스마트 안경을 착용하는 사용자의 전면 방향이나 얼굴 방향에서 최초 영상을 출력하도록 배치되거나, 얼굴의 상부측에서 하부측으로 혹은 하부측에서 상부측으로 향하는 수직 방향에서 최초 영상을 출력하도록 배치되거나, 얼굴의 눈(eyes) 사이(미간) 혹은 코(nose) 위에서 양쪽 눈을 향해 최초 영상을 출력하도록 배치될 수 있다. 양쪽 눈 사이의 거리는 대략 제1 및 제2 메인렌즈들의 중심들 간의 거리에 대응될 수 있다.
본 실시예에 따른 스마트 안경에서 제1 메인렌즈(137)는 제1 보조렌즈(135a, 135b, 1372)와 마주하며 제1 보조렌즈의 광 경로의 중심 라인과 대략 30도 내지 60도 범위에서 경사져 배치된다. 이러한 제1 보조렌즈(137)는 제1 일면볼록렌즈(135a), 제1 양면볼록렌즈(135b) 및 제1 볼록면렌즈(1372)를 구비하여 구성될 수 있다.
제1 일면볼록렌즈(135a)의 일면은 볼록면을 구비하고, 타면은 오목면을 구비한다. 제1 일면볼록렌즈(135a)의 오목면의 곡률은 제1 양면볼록렌즈(135b)의 마주하는 볼록면의 곡률과 대략 유사하거나 동일하게 설정될 수 있다.
제1 양면볼록렌즈(135b)는 그 일면과 타면 모두에 볼록면을 구비한다. 일면의 볼록면과 타면의 볼록면의 곡률 반경을 동일할 수 있으나, 이에 한정되지는 않는다.
제1 볼록면렌즈(1372)는 제1 양면볼록렌즈(135b)의 타면 볼록면과 마주하는 볼록면을 구비하고 볼록면의 반대면은 평면 형태를 구비할 수 있다.
전술한 구성에 의하면, 본 실시예에 따른 스마트 안경의 제1 및 제2 디스플레이들에서 출력되는 제1 영상과 제2 영상은 제1 미러(133) 및 제2 미러에서 각각 반사된 후 제1 보조렌즈 및 제2 보조렌즈 각각의 볼록면의 조합에 의해 확대된 후 제1 메인렌즈(137)의 반사면과 제2 메인렌즈의 반사면에서 부분 반사되고 부분 투과된다. 반사면은 빔 스플리트 면으로 지칭될 수 있다.
여기서, 제1 보조렌즈의 볼록면의 조합과 제2 보조렌즈의 볼록면의 조합에 의해 제1 영상과 제2 영상은 확대되고, 제1 보조렌즈와 제2 보조렌즈의 비구면 볼록면에 의해 구면 수차는 제거될 수 있다.
또한, 제1 및 제2 메인렌즈들의 전면의 소정 위치에서 초점이 맞춰지는 제1 영상 및 제2 영상은 소정의 단일 영상면 또는 허상면을 형성할 수 있다. 물론, 입체(3D) 영상, 가상현실영상, 증강현실 영상 등의 경우에는 다층 영상면 또는 허상면을 구비할 수 있음은 물론이다.
또한, 본 실시예의 스마트 안경에서 메인렌즈들 각각은 측면 프레임(도 7의 112b 참조)과의 사이에 빈 공간을 구비한다. 이와 같이, 각 메인렌즈의 측면 외측에 어떠한 구성요소도 배치하지 않음으로써 스마트 안경 착용자의 시야각을 제한하지 않고 최대한의 광시야각을 제공할 수 있는 장점이 있다.
또한, 본 실시예에 의하면, 디스플레이의 화면(A1)에서 출력되는 콘텐츠는 보조렌즈를 이용하여 확대될 수 있다. 그러한 경우, 보조렌즈로부터 확대된 이미지까지의 거리는 필요에 따라 조절될 수 있다. 즉, 보조렌즈에 의해 확대된 이미지는 실상이 아닌 허상(B1)으로서 사용자의 눈(C1)에 스마트 안경 너머로 보이도록 그 크기나 해상도가 용이하게 조절될 수 있다.
메인렌즈를 통해 사용자가 느끼는 허상까지의 거리(li)는, 메인렌즈의 초점거리(f)와 디스플레이로부터 메인렌즈의 반사면까지의 거리(lo) 사이의 관계에 의해 조절될 수 있다. 상기 거리들 사이의 관계는 수학식 1을 만족한다.
Figure 112018024043916-pat00001
본 실시예에 의하면, 사용자가 원하는 위치에 확대된 이미지가 형성될 수 있도록 설계하여 제작할 수 있다. 또한, 스마트 안경으로부터 약 2.4미터 전방에 약 20 인치 크기의 콘텐츠를 구현하도록 구성할 수 있다. 즉, 스마트 안경으로부터 약 2미터 전방에 약 20 인치의 콘텐츠를 제공할 수 있으며, 사용자는 필요에 따라 증강현실이나 가상현실을 용이하게 구현하여 이용할 수 있다.
도 15는 도 7의 스마트 안경에 채용할 수 있는 제어보드에 대한 블록도이다.
도 5를 참조하면, 본 실시예에 따른 스마트 안경(100)은 제1 및 제2 디스플레이(D1, D2; 131, 132)에 연결되는 컨트롤러(210)를 구비할 수 있다. 또한, 스마트 안경(100)은 전원부(170)와 통신부(190)를 구비할 수 있다. 전원부(170)는 전원장치 혹은 전원공급장치로 지칭될 수 있고, 배터리나 전원공급용 단자를 포함할 수 있다. 그리고 통신부(190)는 유선 또는 무선 통신을 위한 서브시스템을 포함할 수 있다. 전술한 전원부(170)의 적어도 일부와 통신부(190)는 인쇄회로기판에 실장될 수 있다. 그 경우, 이러한 인쇄회로기판은 통신 및 전원 보드로 지칭될 수 있다.
컨트롤러(210)는 프로세서와 메모리(220)를 포함할 수 있다. 컨트롤러(210)는 메모리(220)에 저장되는 프로그램에 의해 전원부(170)와 통신부(190)의 동작으로 제어하고, 스마트 안경(100)의 동작을 제어할 수 있다. 본 실시예에서 컨트롤러(210) 및 전원부(190)는 스마트 안경(100)에 수납 형태 등으로 일체로 형성되나 이에 한정되지는 않는다.
전술한 실시예에서는 디스플레이 인터페이스를 컨트롤러(210)와 별도의 구성인 듯이 설명하고 있으나, 본 발명은 그러한 구성으로 한정되지 않고, 디스플레이 인터페이스가 컨트롤러에 일체로 형성되도록 구현될 수 있다.
또한, 본 실시예에 따른 스마트 안경(100)은 보조전원부로서 하나의 소형 배터리 또는 보조 배터리를 포함하고, 대형, 대용량 또는 메인 배터리를 포함하는 별도의 메인전원공급장치를 스마트 안경의 외부에 배치한 후 데이터 및 전원 라인(도 26의 192 참조)을 통해 연결되도록 구성될 수 있다.
도 16은 본 발명의 또 다른 실시예에 따른 스마트 안경과 제어 시스템에 대한 사시도이다. 도 17은 도 16의 스마트 안경의 주요 구성을 설명하기 위한 블록도이다.
도 16 및 도 17을 참조하면, 본 실시예에 따른 스마트 안경(100)은 디스플레이 인터페이스를 구비하고, 디스플레이 인터페이스에 연결되는 제어장치를 스마트 안경(100)의 외부에 배치하도록 구현될 수 있다. 또한, 스마트 안경(100)은 실질적으로 모든 배터리를 스마트 안경(100)의 외부에 배치하도록 구현된다.
여기서, 디스플레이 인터페이스는 듀얼 및 3D MIPI DSI(Dual & 3D Mobile Industry Processor Interface Digital Serial Interface, 210a)(이하 간략히 DSI라고 한다) 또는 이와 유사한 기능을 수행하는 수단이나 장치일 수 있다. 이러한 디스플레이 인터페이스를 사용하면, 제1 및 제2 디스플레이들(131, 132)과 3D 콘텐츠를 구현하기에 적합하다.
전술한 구성을 위해, 스마트 안경(100)은 제1 디스플레이(131), 제2 디스플레이(132), 디스플레이 인터페이스(160), 카메라(150), 통신 및 전원 보드(164)를 포함한다.
카메라(150)는 전면 또는 후면 카메라를 포함할 수 있고, 통신 및 전원 보드(164)는 제1 또는 제2 인쇄회로기판의 설치 위치에 설치되면서 외부의 메인 전력 공급 장치(main power supply,MPS, 240)와 어플리케이션 프로세서(AP, 260)에 연결될 수 있다. 이 경우, 외부 장치(300)는 제어 및 전원 장치로서 스마트 안경(100)의 동작을 외부에서 제어하고 모니터링할 수 있다.
본 실시예의 경우, 컨트롤러나 제1 인쇄회로기판(161), 제2 인쇄회로기판(162)의 대부분과 함께 제1 배터리(172) 및 제2 배터리(171)가 생략될 수 있다. 즉, 제2 인쇄회로기판(162)의 위치에 상대적으로 단순한 구조를 갖는 통신 및 전원 보드(164)를 설치하여 스마트 안경(100)과 외부 장치(300) 간의 통신 및 전원 연결을 중계하고 나머지 전자부품에 대한 구성요소들 대부분을 생략할 수 있다.
본 실시예들에 의하면, 스마트 안경(100)의 무게를 상당히 감소시킬 수 있고, 사용편의성을 증대시킬 수 있는 장점이 있다. 또한, 외부 배터리 사용에 따라 상대적으로 배터리 용량을 일정량 증대시킬 수 있고, 필요에 따라 전원단자를 통해 상용전원이나 다른 보조 배터리를 통해 전원을 공급받음으로써 스마트 안경의 장시간 사용에 따른 필요 전원을 원활하게 공급할 수 있는 장점이 있다.
도 18은 도 16의 스마트 안경에 채용할 수 있는 제어 모듈을 설명하기 위한 블록도이다.
도 18을 참조하면, 본 실시예에 따른 스마트 안경의 제어장치는, 애플리케이션 프로세서로 지칭될 수 있으며, 비디오 인터페이스(261), 트래킹 모듈(262), 랜더링 모듈(263) 및 측정 모듈(264)을 포함할 수 있다. 트래킹 모듈(262), 랜더링 모듈(263) 및 측정 모듈(264)은 사용자 인터페이스(user interface, U/I, 265)에 연결될 수 있다.
비디오 인터페이스(261)는 비디오 카메라(151; 152)로부터 입력되는 비디오 이미지 스트림을 받고 원하는 구간의 이미지를 트래킹 모듈(262)로 전달할 수 있다.
트래킹 모듈(262)는 비디오 인터페이스(261)로부터 이미지 데이터를 받고 측정 이미지 및 포즈 추정 결과를 랜더링 모듈로 전달할 수 있다. 이때, 트래킹 모듈(262)는 사용자 인터페이스(265)를 통해 조정 파라미터 등을 포함하는 조정 정보 등을 수신하고, 마커 정보 데이터베이스(266)에 저장된 마커 정보를 이용하여 마커를 인식할 수 있다. 마커는 실제 영상과 가상 물체 사이의 매개체로서 기능한다. 마커 정보는 마커의 사이즈, 패턴 등에 대한 정보를 포함할 수 있다. 마커 정보 데이터베이스(266)는 소정의 저장부에 저장된 마커 정보로 대체될 수 있다.
랜더링 모듈(263)은 가상 물체의 생성 및 제거를 담당한다. 랜더링 모듈(263)은 사용자 인터페이스(265)를 통해 조정 정보 등을 획득할 수 있다. 조정 정보는 로드(load) 또는 언로드(unload), 회전, 이동(좌표 이동 등), 스케일링 등을 포함할 수 있다. 랜더링 모듈(263)은 3차원(3D) 모델링을 지원하는 엔진(간략히, 3D 모델링 엔진, 268)이나 이러한 기능을 수행하는 수단과 콘텐츠 리소스 데이터베이스(267)를 통해 연동할 수 있다. 3D 모델링 엔진(268)은 가상 현실 모델링 언어(virtual reality modeling language, VRML) 기반으로 측정 이미지의 가상 오브젝트를 생성할 수 있다. 랜더링 모듈(263)은 콘텐츠 리소스 데이터베이스(267)에서 가상 오브젝트를 받아 측정 이미지에 대한 랜더링을 수행할 수 있다.
측정 모듈(264)은 가상 물체들 간의 거리 측정, 생성된 좌표계 간의 거리와 방향 측정, 가상물체들 간의 간섭 여부 등을 확인하여 처리할 수 있다. 측정 모듈(264)은 랜더링 모듈(263)로부터 증강 이미지를 받고, 사용자 인터페이스(265)를 통해 입력되는 오브젝트 정보에 따라 증강현실 영상을 디스플레이 장치에 제공할 수 있다. 오브젝트 정보는 포지티브 또는 네거티브 정합, 3차원 포인트, 충돌 등에 대한 정보를 포함할 수 있다.
도 19 및 도 20은 도 16의 스마트 안경의 주요 작동 원리를 설명하기 위한 순서도들이다.
도 19를 참조하면, 본 실시예에 따른 스마트 안경의 제어장치는 카메라를 통해 스테레오스코픽 이미지를 획득할 수 있다(S201). 제어장치는 스테레오스코픽 이미지에 기초하여 깊이 맵 이미지를 생성할 수 있다.
다음, 제어장치는 손 이미지를 검출 또는 추출할 수 있다(S203). 제어장치는 깊이 맵 이미지에서 손 이미지를 추출할 수 있다.
다음, 제어장치는 일련의 손 이미지에 대응하는 명령을 저장부나 데이터베이스에서 추출할 수 있다(S205). 제어장치는 소정 시간 동안 추출된 손 이미지들에 의해 만들어지는 일련의 손 이미지가 가리키는 벡터 성분과 벡터 성분의 시작점과 끝점에 대응하는 이미지 영역이나 해당 이미지 영역에 위치하는 객체에 대응하여 미리 설정된 명령을 인식할 수 있다. 여기서 객체는 미리 설정된 명령에 대응하여 서로 다른 종류의 메뉴, 아이콘 등의 형태를 구비할 수 있다.
본 실시예에 의하면, 스마트 안경의 제어장치는 손 동작을 영상 처리를 통해 감지하고 이를 토대로 스마트 안경에서 보이는 영상을 제어할 수 있다. 예컨대, 영상 제어는 영상 정방향 또는 역방향 넘김, 영상 빨리감기, 영상 되돌려 감기, 영상의 특정 영역에 대한 터치를 인식하여 미리 설정된 명령을 수행하기 등을 포함할 수 있다.
또한, 제어장치는 손 동작 인식을 위해 입력되는 영상 프레임에서 손을 인식하고 손이 위치한 영상을 감지하거나 손의 움직임 방향을 인식 또는 예측하고, 그에 따라 화면 상에 콘텐츠를 올려놓거나 현재 영상을 이동시키거나, 현재 영상을 다른 영상과 중첩하여 배치할 수 있다. 손의 움직임 예측은 손, 손가락, 또는 이들의 조합을 인식하는 것을 포함할 수 있다. 이러한 제스처 인식은 영상처리와 미리 설정된 제스처 정보에 기초하여 수행될 있다.
또한, 본 실시예에 의하면, 증강현실(augmented reality)뿐만 아니라 가상현실(virtual reality), 융합현실(mixed reality) 등에서 손 동작을 사용하는 사용자 인터페이스를 제공할 수 있고, 그에 의해 스마트 안경의 다양한 콘텐츠를 효과적으로 이용할 수 있도록 할 수 있으며, 사용자 편의성을 크게 향상시킬 수 있다.
일례로, 본 실시예에 의하면, 모니터없이 책상에서 업무를 보거나, 쇼핑을 할 때 스마트 안경을 착용하고 증강현실을 통해 결재를 수행하거나, 증강현실을 통해 네비게이션 기능을 이용하거나, 증강현실 게임을 하거나, 가상현실 동영상을 감상하거나, 증강현실 또는 가상현실로 영상통화를 하거나, 작업자가 스마트 안경을 착용하고 증강현실로 현장에서 작업을 하거나, 스마트폰의 기능을 스마트 안경의 화면에서 간편하게 조작 및 사용할 수 있다.
또한, 도 20을 참조하면, 본 실시예에 따른 스마트 안경의 제어장치는, 카메라를 통해 스테레오스코픽 이미지를 획득하고(S201), 이에 기초하여 손 이미지를 검출 또는 추출하며(S203), 그 다음에 일련의 손 이미지에 대응하여 휴대 단말이나 노트북 등의 모바일 컴퓨팅 장치의 화면 미러링(mirroring)을 수행할 수 있다(S206).
화면 미러링은, 스크린 미러링으로 지칭될 수 있으며, 별도의 선(line)을 연결하지 않고 무선으로 모바일 컴퓨팅 장치의 화면을 스마트 안경의 화면에서 볼 수 있도록 하는 기능을 말한다.
화면 미러링을 위해 스마트 안경의 제어장치나 제어보드의 디스플레이 인터페이스는 모바일 컴퓨팅 장치에서 화면 정보를 인코딩하여 주파수로 송신할 때, 이러한 화면 정보를 수신하여 디코딩하고 디코딩된 영상을 디스플레이를 통해 스마트 안경의 화면에 출력할 수 있다. 무선은 블루투스를 포함하나, 이에 한정되지는 않고, 다른 근거리 무선 통신 방식이 사용될 수 있다.
화면 미러링을 이용하면, 스마트 안경에서 통신 기능을 가진 휴대 단말에서 전화 수신, 전화 통화, 영상 통화 등을 수행하거나, 문자 착신, 문자 내용 확인 등을 수행하여 휴대 단말의 전화, 문자 등의 서비스를 편리하게 이용할 수 있도록 할 수 있다.
도 21은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스를 설명하기 위한 도면이다. 도 22 및 23은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용할 수 있는 사용자 인터페이스의 변형예를 설명하기 위한 예시도들이다. 도 24는 본 실시예의 스마트 안경에 채용할 수 있는 사용자 인터페이스의 작동 원리를 설명하기 위한 도면이다. 도 25 및 26은 본 발명의 또 다른 실시예에 따른 스마트 안경에 채용된 사용자 인터페이스의 신호 처리 과정을 설명하기 위한 흐름도들이다.
도 21 내지 23을 참조하면, 본 실시예에 따른 스마트 안경은 사용자 인터페이스로서 손, 손등, 팔뚝, 책상, 방문 등의 표면상에 가상의 터치패널을 띄워놓고 인터렉션 기능을 수행하는 형태로 구현될 수 있다. 이 경우, 스마트 안경에는 해당 신체 부분이나 사물을 인식하기 위한 센서 또는 카메라(도 17의 150 및 도 18의 151, 152 참조)가 탑재될 수 있다.
좀더 구체적으로 설명하면, 3차원 공간에서 사물을 인식하기 위해 카메라는 입체적 분석과 스테레오 기능을 위한 두 개의 적외선 센서(카메라)를 구비하고, 적외선 프로젝터가 공간에 적외선을 뿌릴 때, 해당 공간에서 반사되는 적외선을 읽어들여 사물, 좀더 구체적으로는 사물의 깊이를 감지할 수 있다. 적외선 프로젝터를 사용하면, 공간의 깊이 또는 거리를 용이하게 판단할 수 있다.
적외선 프로젝터는 크게 2가지 디바이스 타입을 사용할 수 있다. 하나는 어떤 특정 패턴이나 무늬 형태로 적외선을 특정 공간에 조사하는, 소위, 스트럭쳐드 라이트(structured light) 구조를 가지거나, 오브젝트와 입체적 거리가 다른 것으로 적외선의 감도를 판단하는, 소위, 타임오브 플라이트(time of flight) 구조를 가질 수 있다. 한편 본 발명은 적외선 프로젝션을 사용하지 않고 두 개의 카메라를 깊이 센서(depth sensor)를 구현할 수 있다. 특히, 가까운 손의 제스처를 판독하는데 있어서 두 개의 카메라 센서만을 사용하는 것도 가능하다. 하나의 카메라 센서만으로도 깊이 인식을 할 수 있는 방법은 있으나 그 방법은 구현 및 사용이 복잡하므로 여기에서는 생략하기로 한다.
본 실시예에 따른 센서 또는 카메라를 이용한 깊이 인식(depth perception)과 관련하여 설명하면, 먼저 공간의 형태와 사물의 좌표를 얻을 수 있다. 물론, 이 단계는 신체 표면상에 구현하는 경우에 생략될 수 있다.
다음, 가상의 오브젝크가 그려질 공간의 위치를 찾을 수 있다. 이 단계에서는, 깊이 센서를 이용하여 가상의 오브젝트가 위치할 최적으로 장소를 찾을 수 있다. 이 경우, 스마트 안경에 적용되는 사용자 인터페이스 제어장치는 제어장치의 적어도 일부 구성부로서 손, 손등, 팔뚝 등의 해당 신체를 인식할 수 있도록 구현될 수 있다. 또한, 냉장고 문이나 방문의 표면에 오브젝트를 위치시키기 위해 해당 사물을 인식할 수 있도록 구현될 수 있다.
다음, 가상의 오브젝트를 크기, 방향, 곡면, 원근감의 속성을 갖도록 생성할 수 있다. 이 단계에서는, 가상의 오브젝트의 위치가 정해질 때, 사용자 인터페이스의 이미지 표면을 따라서 자연스럽게 오브젝트의 속성을 반영하여 해당 오브젝트를 그릴 수 있다. 오브젝트는 같은 평면이나 굴곡을 따라 적절한 크기와 방향 및 원근감을 갖도록 그려질 수 있다.
다음, 오브젝트를 터치하기 위해 접근하는 다른 손의 손가락이나 이에 대응하는 포인터의 끝을 인식할 수 있다. 이 단계에서, 구현에 따라서 특정 손가락을 지정하여 인식하도록 설정될 수 있다(도 34 참조). 이 경우, 중첩 터치 등의 동작 오류를 예방할 수 있다.
다음, 가상 오브젝트에 대응하는 특정 영역과 지정된 손가락 끝이 실질적으로 동일한 위치에 있는지를 인식하여 가상 접촉(터치)를 판단할 수 있다. 이 단계에서는 가상의 오브젝트가 가상 이미지 상에 그려진 상태에서 특정 오브젝트에 손가락이 중첩되어 인식되면 그 움직임의 제스처에 따라 프로세서가 미리 설정된 명령을 수행하도록 이루어질 수 있다.
이를 위해 센서 또는 카메라에 연결된 프로세서는 신체 부분이나 사물을 감지하여 그 표면, 크기, 바닥 등을 인식할 수 있고, 모션 트랙킹 등의 기능을 이용하여 에지나 점 등의 특징 포인트들 간의 거리를 측정할 수 있다. 또한, 프로세서는 컬러이미지 데이터를 참조하여 텍스처링(texturing), 매싱(mashing) 등을 위한 포인트 클라우드(point cloud)를 생성하거나 포인트 클라우드의 색상을 검색하도록 구현될 수 있다.
또한, 센서, 카메라, 프로세서 또는 이들의 조합은 0.5 내지 4M 정도의 거리에서 그리고 실내에서 가장 잘 작동하도록 설계될 수 있다. 이러한 구성은 적외선 조명과 깊이 신호처리(depth processing)에 필요한 전력을 균형 있게 유지하면서 좋은 성능을 발휘하는데 기여할 수 있다. 다만, 적외선을 잘 반사하지 않는 물체에 대하여는 스캔 성능이 저하될 수 있다.
아울러, 본 실시예에서는 가상의 오브젝트가 실제 오브젝트와 같이 자연스럽게 섞여있는 것처럼 사용자에게 보여지도록 하기 위하여 추가 정보가 보강될 수 있다. 예를 들어, 가상 오브젝트의 위치에 따라 크기를 조정하거나, 입체면의 위치나 크기를 조정하거나, 조명의 색상이나 밝기 등의 상태를 조정할 수 있다. 게다가, 가상의 오브젝트가 표시되는 대상이 움직이는 상태라면, 위의 조건들을 조정함으로써 더욱 실제 같은 느낌을 사용자에게 제공할 수 있다.
또한, 센서 또는 카메라에 연결된 프로세서는 입체시(stereopsis)를 처리하도록 구현될 수 있다. 입체시의 패넘 융합 영역은 사람의 눈에 의해 사용되는 양안 입체시(binocular stereopsis)에 대한 사용자 인터페이스 영역을 포함할 수 있다. 사용자 인터페이스 영역은 단일 비전의 영역일 수 있다. 이 경우, 프로세서에서 실행되는 소프트웨어와 같은 입체시 처리 시스템은 사용자의 시야 내에서 사용자의 현재 초점 영역을 결정할 수 있다. 이를 위해, 프로세서는 각 눈에 대한 눈 추적 카메라에 의해 캡처되는 데이터에 기초하여 눈 추적 처리를 수행할 수 있다. 눈 추적 처리는 사용자의 현재 초점 영역을 획득하고, 이에 기초하여 처리 동작을 수행할 수 있다. 안구 사이의 컨버전스(convergence)는 사용자의 얼굴 위치를 나타내는 데이터와 함께 초점 곡선, 호롭터(horopter) 상의 초점으로 삼각측량을 수행하는데 사용될 수 있다. 프로세서 내 초점 영역 조정 모듈은 제어 회로를 통해 현재 사용자의 초점 영역에서 적어도 하나의 눈의 초점을 맞추기 위해 배치된 가변 초점 렌즈를 조정할 수 있다.
일례로, 실제 공간의 특정 위치에 가상의 오브젝트를 입체로 그리는 방법을 설명하면 다음과 같다.
먼저, 가상의 오브젝트가 표시되는 사용자 인터페이스 이미지의 표면을 기본 허상 위치로 설정할 수 있다. 그리고, 기본 허상 위치 앞이나 뒤에는 공간 속에 그려질 가상 오브젝트가 그려질 수 있다. 이때, 가상 오브젝트는 그 위치에 따라 사용자의 왼쪽 눈과 오른쪽 눈에서 볼 때 그 위치와 크기가 다르게 된다. 즉, 각각의 눈에 비친 가상 오브젝트의 2차원 이미지가 사용자의 뇌로 전달되어 3차원의 가상 오브젝트를 인식하게 된다. 여기에서 역으로 계산하여 보면, 왼쪽 눈이 보게 될 이미지와 오른쪽 눈이 보게 될 이미지를 각각의 영상으로 그리게 되면 사용자의 뇌는 그것을 입체로 인식할 수 있다.
따라서, 본 실시예에서는 도 21의 (a) 내지 (c)와 도 22 및 도 23에 나타낸 바와 같이 깊이 센서(depth sensor)로 손바닥(510), 손등(520), 팔뚝(530), 책상(540), 냉장고 도어(door), 방문(550), 벽 등의 이미지 출사 대상을 추적하고, 실제 공간과 사물의 위치 및 크기를 판단하고 좌표계를 만들고 이에 기초하여 원하는 위치에 가상 오브젝트(600, 610)를 위치시킬 수 있다. 가상 오브젝트는 사용자 인터페이스 이미지를 포함하거나 그 역도 가능하다. 아울러 본 실시예의 프로세서 내 입체시 처리 시스템, 가상 오브젝트 제어부 또는 이들의 조합은 가상 오브젝트에 접근하는 지시 포인터의 중첩을 인식하여 미리 설정된 명령이나 일련의 동작을 수행할 수 있다.
깊이 센서를 이용하여 손바닥을 검출하는 과정을 좀더 살펴보면, 도 34에 도시한 바와 같이, 프로세서 내 손바닥 검출 시스템은 센서 또는 카메라에 의해 획득한 영상에서 손의 외곽선(562)을 추출하거나 손의 관절(550)과 손가락 끝(566)의 위치를 추출할 수 있다. 즉, 획득한 영상에 기초하여 얻은 포인트 클라우드에 기초하여 손의 외곽선(562)을 추출하거나 손의 관절(556)과 손가락의 끝(566)을 추출할 수 있다.
또한, 손바닥을 펴지 않고, 주먹을 쥐었을 때나 손바닥을 뒤집었을 때 가상의 오브젝트도 그것을 맞춰 보이거나 가려지는 방식을 구현하는 경우에는, 관절 추출을 이용하는 것이 바람직하다. 관절 추출을 이용하면, 손동작에 대한 제스처를 구체적으로 판단할 수 있다.
인식된 손바닥에는 가상 오브젝트(600)이 표시되고, 이러한 가상 오브젝튼(600)는 사용자의 다른 손이나 이에 대응하는 포인터와의 조합에 의해 사용자로부터의 입력 신호를 획득하는 사용자 인터페이스로서 기능할 수 있다.
물론, 인식된 손바닥은 다른 손으로서 또한 포인터로서 사용될 수 있으며, 그 경우, 손바닥 인식을 시작으로 미리 설정된 다양한 제스처 세부동작에 따라 미리 설정된 명령을 수행하는데 사용될 수 있다.
전술한 입체시 처리 시스템, 가상 오브젝트 제어부, 이들의 조합 또는 이들을 포함하는 프로세서는, 도 25 및 26에 도시한 바와 같은 일련의 동작을 수행할 수 있다.
먼저, 스마트 안경에 탑재된 프로세서는 손 또는 손목의 구조적 특징을 갖는 물체를 인식할 수 있다(S301). 물체는 손바닥, 손등, 팔뚝, 사물, 벽, 문 등을 포함할 수 있다.
다음, 복수개의 물체가 발견되었는지를 판단할 수 있다(S302). 복수의 물체가 발견되면, 프로세서는 미리 설정된 처리 정책에 따라 복수의 물체들 중 하나를 선택할 수 있다(S303). 선택 기준은 물체에 대한 우선순위이거나 영상의 중앙에 위치하거나 영상에서 가장 큰 영역을 차지하는 등의 기준을 포함하도록 설정될 수 있다.
다음, 인식되거나 선택된 물체의 구조적 특징에 기초하여 사용자 인터페이스(user interface, UI) 이미지가 그려질 영역을 탐색할 수 있다(S304). UI 이미지는 가상 오브젝트에 대응하거나 포함할 수 있으며, 그 역도 가능하다.
다음, 프로세서는 탐색된 영역에 대하여 UI 이미지를 그릴 영역의 적정 크기를 결정하거나 조정할 수 있다(S305). UI 이미지의 적정 크기나 위치 또는 배치 방향은 인식되거나 선택된 물체의 종류나 그에 따른 UI 이미지 배치 영역에 의해 미리 설정된 규칙이나 설정에 따라 결정될 수 있다.
다음, 조정된 크기의 UI 이미지를 탐색된 영역에 생성할 수 있다. 이때 UI 이미지는 그 배경이 되는 3차원 평면이나 곡면과 함께 생성될 수 있다(S306). 3차원 평면이나 곡면은 가상 오브젝트와의 대비에 의해 사용자가 가상 오브젝트나 UI 이미지를 더욱 잘 볼 수 있도록 기능할 수 있다.
다음, 스마트 안경에 탑재된 프로세서는 물체 상에 출사되고 있는 UI 이미지에 근접하는 다른 손의 구조적 특징을 갖는 물체를 인식할 수 있다(S311). 다른 손이나 물체는 포인터에 포함되거나 포인터로서 지칭될 수 있다.
다음, 프로세서는 포인터가 복수개 발견되었는지를 판단할 수 있다(S312). 발견된 포인터가 복수이면, 프로세서는 미리 저장된 처리 정책에 따라 복수의 포인터들 중 어느 하나를 선택할 수 있다(S313).
다음, 프로세서는 UI 내 특정 오브젝트에 손가락 끝이 특정 범위 이내로 근접했는지를 판단할 수 있다(S314). 근접은 중첩된 것을 포함할 수 있고, 근접 정도를 나타내는 인식 수치에서 중첩은, 두 물체의 거리를 기준으로 두 물체가 맞닿은 상태를 0으로 할 때, 음수 값을 가질 수 있다. 특정 범위 이내로 손가락 끝이 근접하지 않았으면, 프로세서는 다른 손이나 물체를 인식하는 단계를 유지하거나 상기 단계로 되돌아갈 수 있다.
특정 범위 이내로 손가락 끝이 근접하였으면, 프로세서는 하나의 손가락 끝이나 이에 상응하는 포인터의 끝에 대응하는 복수개의 오브젝트가 존재하는지를 판단할 수 있다(S315).
상기 단계(S315)의 판단 결과, 복수의 오브젝트가 존재하면, 프로세서는 미리 설정된 근접 우선정책에 따라 최근접을 판정할 수 있다(S316). 최근접 판정은 기본적으로 포인터 끝과 오브젝트 간의 거리나 중첩 거리를 기준으로 판단할 수 있다. 또한, 최근접 판정은 복수의 오브젝트들 중 미리 설정된 우선순위, 가중치, 근접 거리들 간의 차이, 또는 이들의 조합에 기초하여 결정될 수 있다.
다음, 프로세서는 손가락 끝이나 포인터의 끝에 대응하는 오브젝트에 대하여 터치된 것으로 판정(터치 판정)하고, 터치 판정된 해당 UI 오브젝트의 식별자(ID)를 반환한 후 미리 설정된 터치 리액션을 실행할 수 있다(S317).
전술한 실시예에는 스마트 안경에 탑재된 스테레오 RGB 카메라가 이용되거나, 적외선 프로젝터 또는 스테레오 적외선 카메라가 이용될 수 있다. 본 실시예에 의하면, 양안 입체시를 이용한 증강현실을 구현하고 사용자의 제스처에 따라 사용자 인터페이스를 통해 입력되는 터치 신호나 이벤트를 감지하여 미리 설정된 동작을 실행할 수 있다. 따라서, 사용자 편의성을 높이고 다양한 증강현실 서비스와 이를 접목한 스마트 안경 서비스를 제공할 수 있다.
도 27은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 사시도이다. 도 28은 도 27의 스마트 안경에 대한 정면도이다. 도 29 및 도 30은 도 28의 스마트 안경에 대한 사용 상태도이다.
본 실시예에 따른 스마트 안경은, 도 27 내지 도 28에 도시한 바와 같은 외관을 구비할 수 있다. 스마트 안경은 양쪽의 메인렌즈를 통해 사용자의 양쪽 눈에 영상을 제공할 수 있으며, 도 29에 도시한 바와 같이, 전원 및 제어를 위한 장치와 유선 또는 무선으로 연결될 수 있다. 또한, 도 30에 도시한 바와 같이, 스마트 안경은 자외선 차단, 필터, 색상 추가 기능 등을 위한 쉴드가 결합될 수 있는 구성부를 구비할 수 있다.
도 31은 본 발명의 또 다른 실시예에 따른 스마트 안경에 대한 정면도이다. 도 32 및 도 33은 도 31의 스마트 안경에 대한 사용 상태도이다.
본 실시예에 따른 스마트 안경은, 도 31에 도시한 바와 같은 외관을 구비할 수 있으며, 한쪽의 메인렌즈에만 영상을 제공할 수 있도록 설치되거나 다른 한쪽의 메인렌즈를 착탈식으로 구비하도록 구성될 수 있다. 또한, 도 32 및 도 33에 도시한 바와 같이, 전원 및 제어를 위한 장치와 유선 또는 무선으로 연결될 수 있음은 물론이다. 아울러, 도 33에 도시한 바와 같이, 스마트 안경은 쉴드가 추가로 결합될 수 있는 결합구조 등의 구성부를 구비할 수 있다.
도 34 및 도 35는 본 발명의 실시예에 따른 스마트 안경의 전원 및 제어를 위한 장치의 외관을 보여주는 사시도들이다.
도 34 및 도 35에 도시한 바와 같이, 스마트 안경의 전원 및 제어를 위한 장치는 넥밴드(neck band) 형태를 구비할 수 있고, 제어보드, 제어시스템 등으로 지칭될 수 있으며, 카메라, 스피커, 이어폰 등을 구비하고, 리모트 컨트롤(remote control)을 위한 버튼, 조그셔틀 등의 구성부를 구비할 수 있다.
도 36 내지 도 38을 참조하여 상기 넥밴드에 대하여 더욱 구체적으로 설명한다. 도 36은 스마트 안경에 넥밴드를 설치한 사시도 이고, 도 37은 넥밴드의 분해 사시도이고, 도 38은 넥밴드의 사용상태 사시도이다.
도시된 바와 같이 넥밴드(700)는 사용자의 목에 걸어 착용하기 위한 밴드프레임(710)을 구비한다. 밴드프레임(710)은 착용이 용이하도록 사용자의 전방쪽을 개방시킨 원형 또는 타원형의 링형태로 형성하고, 개방된 양끝단이 탄력적으로 벌어지고 원위치할 수 있도록 탄성이 좋은 합성수지로 제작할 수 있다.
밴드프레임(710)의 전방측 양끝에는 전원 및 제어구동을 위한 인쇄회로기판(723a,723b), 밧데리(724), 스피커(725), 카메라(730), 이어폰(740) 및 리모트 컨트롤러(750) 등이 설치되는 구동부 조립체(720a,720b)가 구비된다.
구동부 조립체(720a,720b)는 상호 결합 및 분리 가능한 상부조립커버(721)와 하부조립커버(722)를 구비하고, 상,하부조립커버(721,722) 내에 인쇄회로기판(723a,723b)이 설치된다. 인쇄회로기판(723a,723b) 상면에는 스피커(725)가 설치되고, 인쇄회로기판(723a,723b) 저면에는 전원공급을 위한 밧데리(724)가 설치된다. 이때 양쪽 구동부 조립체(720a,720b)의 인쇄회로기판(723a,723b) 중 한쪽의 인쇄회로기판(723a)은 메인 인쇄회로기판(723a)으로 사용된다.
카메라(730)는 양쪽의 구동부 조립체(720a,720b)중 메인 인쇄회로기판(723a)이 설치된 쪽의 구동부 조립체(720a)에 구비된다. 카메라(730)는 하부조립커버(722)의 끝단에 사용자의 전방쪽을 향하도록 설치하여 메인 인쇄회로기판(723a)과 회로적으로 연결한 것으로, 사용자의 작은 손동작을 용이하게 인식할 수 있게 한 것이다. 이는 스마트 안경(100)측에 구비된 카메라가 사용자의 큰 손동작은 용이하게 인식하는 반면, 작은 손동작의 인식이 쉽지 않다는 점을 고려한 것으로 사용자의 미세한 손동작에 대하여도 정확한 인식 정보를 제공할 수 있다.
이어폰(740)은 양쪽 구동부 조립체(720a,720b)에 각각 착탈 가능하게 설치되고, 연결전선을 통해 각각의 인쇄회로기판(723a,723b)과 연결된다. 연결전선의 길이는 이어폰(740)이 구동부 조립체(720a,720b)에 착탈되는 위치에서 사용자의 귀에 착용할 수 있는 위치로의 이동이 가능한 적절한 길이로 설정한다.
구동부 조립체(720a,720b)에 이어폰(740)을 착탈하는 구조는, 상,하부조립커버(721,722)의 일측면에 이어폰(740)의 몸체와 대응하는 형상의 장착홈(741)을 형성하여 달성할 수 있다. 이러한 장착홈(741)을 이용한 착탈구조는, 장착홈(741)의 사이즈의 크기를 이어폰(740)의 몸체 크기보다 약간 작게 하여 이어폰(740)의 몸체를 적절한 힘으로 강제 삽입하는 것에 의해 고정할 수 있는 억지끼움방식이 바람직하다. 또한 장착홈(741)과 이어폰(740)의 착탈 구조는 후크결합돌기와 결합홈을 이용한 착탈구조나, 자석을 이용한 착탈 구조로도 할 수 있으며, 본 실시예에서는 장착홈(741)을 상,하부조립커버(721,722)의 안쪽에 형성한 것으로 도시하였으나, 상,하부조립커버(721,722)의 바깥쪽에 형성할 수도 있다.
리모트 컨트롤러(750)는 양쪽 구동부 조립체(720a,720b)중에서 카메라(730)가 설치되지 않은 쪽의 구동부 조립체(720b) 끝단에 착탈 가능하게 설치된다. 이를 위해 구동부 조립체(720b)의 하부조립커버(722) 끝단에 리모트 컨트롤러(750)의 몸체와 대응하는 형상의 착탈홈(751)을 형성하고 도시하지는 않았지만 자석을 이용하여 쉽게 착탈할 수 있도록 한다.
리모트 컨트롤러(750)는 제어 및 전원 장치로서 지칭될 수 있고, 별도의 통신 및 전원 보드를 구비할 수 있다. 통신 및 전원 보드는 커넥터나 통신 또는 전원을 중계하거나 상호 연결하는 수단이나 구성부를 포함할 수 있다. 본 실시예에서는 리모트 컨트롤러(750)를 버튼 형태로 구성하였으나, 조그셔틀 형태로 구성할 수도 있다.
리모트 컨트롤러(750)는 하나 이상의 통신 프로토콜을 지원하는 하나 이상의 유선 및/또는 무선 통신 서브시스템을 포함하며, 버튼식 리모트 컨트롤러(750)는 구동부 조립체(720b)에 부착된 상태에서 또는 구동부 조립체(720b)로부터 분리시킨 상태에서 사용자가 쉽게 조작하여 스마트 안경의 동작을 제어할 수 있다.
또한 도 36에 도시된 바와 같이 넥밴드(700)는 스마트 안경(100)과 견인줄(760)로 연결된다. 견인줄(760)은 넥밴드(700)의 밴드프레임(710) 양쪽 끝부분과 스마트 안경(100)의 프레임 어셈블리(10) 끝부분을 연결한 것으로, 넥밴드(700)의 무게를 스마트 안경(100)에 지지시켜 감소시키기 위한 것이다. 견인줄(760)은 쉽게 끊어지거나 늘어나지 않는 인장강도를 가지고 탄성을 가지는 합성수지로 제작하는 것이 바람직하다.
견인줄(760)의 길이는 스마트 안경(100)과 넥밴드(700)를 사용자가 착용하였을 때, 팽팽해지는 길이로 설정하여 대략 사용자의 귀를 중심으로 스마트 안경(100)의 뒤쪽이 당겨져 스마트 안경(100)의 하중이 사용자의 코를 압박하는 불편함을 최소화하여 스마트 안경(100)의 착용감을 편하게 할 수 있다.
상기에서는 본 발명의 바람직한 실시예들에 관하여 설명하였지만, 본 발명의 기술분야에서 통상의 지식을 가진 사람이라면 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음은 이해할 수 있을 것이다.

Claims (6)

  1. 안경 프레임 형태로 구비하는 프레임 어셈블리;
    상기 프레임 어셈블리에 의해 지지되고 상기 프레임 어셈블리가 사용자의 얼굴에 착용될 때, 상기 얼굴의 중앙 상부측으로는 제1 디스플레이 장치가 중앙 하부측으로는 제2 디스플레이 장치가 수직으로 구비되는 디스플레이 장치;
    상기 디스플레이 장치로부터 전달되는 영상을 사용자의 양쪽 눈이 위치하는 방향으로 전달하는 구성요소들이 수평으로 배열되고, 사용자의 눈에 전달된 영상이 일정 거리 떨어진 허상면에 맺히도록 하는 광학계(optical system);
    상기 디스플레이 장치와 광학계를 서로 교차 배열되는 구조로 결합시키는 배면케이스를 포함하며, 상기 디스플레이 장치와 광학계의 서로 교차 배열되는 구조의 중심에서 상기 디스플레이 장치에서 출력되는 영상을 상기 광학계의 구성요소들이 서로 대향하는 수평의 양방향으로 전달하는 미러가 위치하는 케이스 조립체; 및
    상기 디스플레이 장치와 광학계의 전원 및 제어를 위한 장치;를 포함하며,
    상기 전원 및 제어를 위한 장치는,
    사용자 목에 걸어 착용하기 위한 사용자의 전방쪽을 개방시킨 원형 또는 타원형의 밴드프레임 형태로 이루어지고,
    상기 밴드프레임의 전방측 양끝에 전원 및 제어구동을 위한 인쇄회로기판, 밧데리, 스피커, 카메라 및 이어폰이 설치되는 구동부 조립체를 포함하며. 상기 카메라가 설치되지 않은 쪽의 구동부 조립체 끝단에 자석을 이용하여 착탈 가능하게 설치되는 리모트 컨트롤러가 구비되는 것을 특징으로 하는 스마트 안경.
  2. 제 1 항에 있어서, 상기 구동부 조립체는 상호 결합 및 분리 가능한 상부조립커버와 하부조립커버를 구비하고, 상기 상,하부조립커버 내에 인쇄회로기판이 설치되며, 상기 인쇄회로기판 상면에는 스피커가 설치되고, 상기 인쇄회로기판 저면에는 전원공급을 위한 밧데리가 설치된 것을 특징으로 하는 스마트 안경.
  3. 제 1 항에 있어서,
    상기 카메라는 양쪽의 구동부 조립체중 어느 한 쪽의 구동부 조립체의 끝단에 사용자의 전방쪽을 향하도록 설치되며,
    상기 카메라에 의하여 손바닥, 손등, 팔뚝, 책상, 문, 벽 중 어느 하나를 포함한 물체를 인식하고, 물체의 구조적 특징에 기초하여 가상 오브젝트 또는 사용자 인터페이스(user interface, UI) 이미지를 표시할 영역을 탐색하고, 탐색된 영역에 배경과 함께 상기 가상 오브젝트 또는 UI 이미지를 생성하는 것을 특징으로 하는 스마트 안경.
  4. 제 1 항에 있어서, 상기 이어폰은 양쪽 구동부 조립체에 각각 착탈 가능하게 설치되어 각각의 인쇄회로기판과 전기적으로 연결된 것을 특징으로 하는 스마트 안경.
  5. 삭제
  6. 제 1 항에 있어서, 상기 넥밴드의 밴드프레임 양쪽 끝부분과 상기 프레임 어셈블리 끝부분을 견인줄로 연결하여 넥밴드의 무게를 프레임 어셈블리에 지지시킨 것을 특징으로 하는 스마트 안경.
KR1020180028036A 2018-03-09 2018-03-09 가상 오브젝트의 처리가 가능한 스마트 안경 KR102218207B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180028036A KR102218207B1 (ko) 2018-03-09 2018-03-09 가상 오브젝트의 처리가 가능한 스마트 안경

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180028036A KR102218207B1 (ko) 2018-03-09 2018-03-09 가상 오브젝트의 처리가 가능한 스마트 안경

Publications (2)

Publication Number Publication Date
KR20190106485A KR20190106485A (ko) 2019-09-18
KR102218207B1 true KR102218207B1 (ko) 2021-02-19

Family

ID=68070794

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180028036A KR102218207B1 (ko) 2018-03-09 2018-03-09 가상 오브젝트의 처리가 가능한 스마트 안경

Country Status (1)

Country Link
KR (1) KR102218207B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220106000A (ko) 2021-01-21 2022-07-28 주식회사 증강지능 튜터링을 위해 혼합현실 컨텐츠를 제공하는 인공지능 챗봇 시스템

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11164390B2 (en) 2019-12-30 2021-11-02 Korea Institute Of Science And Technology Method and apparatus for displaying virtual reality image
KR102285015B1 (ko) * 2019-12-30 2021-08-04 한국과학기술연구원 가상현실 영상을 표시하는 방법 및 장치
KR102285012B1 (ko) * 2019-12-30 2021-08-04 한국과학기술연구원 가상현실 영상을 표시하는 방법 및 장치
CN113917693A (zh) * 2021-09-29 2022-01-11 歌尔光学科技有限公司 Ar眼镜

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114022A (ja) * 2011-11-29 2013-06-10 Seiko Epson Corp 偏光装置及び表示装置
KR101835337B1 (ko) * 2016-08-26 2018-03-07 엘지전자 주식회사 휴대용 음향기기

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101549074B1 (ko) 2013-12-11 2015-09-02 (주)대한특수금속 스마트안경 및 그에 연결되는 젠더
KR102091520B1 (ko) * 2014-03-25 2020-03-20 엘지전자 주식회사 이동 단말기
KR101588402B1 (ko) 2014-09-02 2016-01-25 주식회사 라온텍 스마트안경용 광학시스템
KR101813103B1 (ko) * 2016-04-19 2017-12-29 홍진철 넥밴드형 캠코더

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114022A (ja) * 2011-11-29 2013-06-10 Seiko Epson Corp 偏光装置及び表示装置
KR101835337B1 (ko) * 2016-08-26 2018-03-07 엘지전자 주식회사 휴대용 음향기기

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220106000A (ko) 2021-01-21 2022-07-28 주식회사 증강지능 튜터링을 위해 혼합현실 컨텐츠를 제공하는 인공지능 챗봇 시스템

Also Published As

Publication number Publication date
KR20190106485A (ko) 2019-09-18

Similar Documents

Publication Publication Date Title
KR102218210B1 (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
KR102218207B1 (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
US10114466B2 (en) Methods and systems for hands-free browsing in a wearable computing device
US11378802B2 (en) Smart eyeglasses
US9804682B2 (en) Systems and methods for performing multi-touch operations on a head-mountable device
US9274599B1 (en) Input detection
US9143848B2 (en) Isolation of audio transducer
US20140085190A1 (en) Display, Imaging System and Controller for Eyewear Display Device
US10949055B2 (en) Display system, display apparatus, control method for display apparatus
WO2013166362A2 (en) Collaboration environment using see through displays
KR102051202B1 (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
WO2014204905A1 (en) Virtual object orientation and visualization
KR20140053341A (ko) 입력 및 출력 구조들을 구비한 착용가능한 디바이스
KR20150041453A (ko) 안경형 영상표시장치 및 그것의 제어방법
CN114402589A (zh) 用于2d和3d图形用户界面中的元素映射的智能触笔光束和辅助概率输入
US20170090557A1 (en) Systems and Devices for Implementing a Side-Mounted Optical Sensor
US10734706B1 (en) Antenna assembly utilizing space between a battery and a housing
KR102269833B1 (ko) 스마트 안경
EP3894981B1 (en) Modular accessory systems for wearable devices
KR20150070874A (ko) 안경형 단말기 및 이의 제어방법
US9223451B1 (en) Active capacitive sensing on an HMD
WO2018182159A1 (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
US9535519B1 (en) Smart housing for extending trackpad sensing
KR102191433B1 (ko) 스마트 안경
KR20160027813A (ko) 글래스형 단말기

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant