KR102187848B1 - 프로젝터를 이용한 영상 표시 방법 및 이를 구현하는 착용형 전자장치 - Google Patents

프로젝터를 이용한 영상 표시 방법 및 이를 구현하는 착용형 전자장치 Download PDF

Info

Publication number
KR102187848B1
KR102187848B1 KR1020140032344A KR20140032344A KR102187848B1 KR 102187848 B1 KR102187848 B1 KR 102187848B1 KR 1020140032344 A KR1020140032344 A KR 1020140032344A KR 20140032344 A KR20140032344 A KR 20140032344A KR 102187848 B1 KR102187848 B1 KR 102187848B1
Authority
KR
South Korea
Prior art keywords
image
electronic device
projector
wearable electronic
output
Prior art date
Application number
KR1020140032344A
Other languages
English (en)
Other versions
KR20150109205A (ko
Inventor
박성철
박태건
박지윤
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020140032344A priority Critical patent/KR102187848B1/ko
Priority to US14/663,214 priority patent/US10067415B2/en
Publication of KR20150109205A publication Critical patent/KR20150109205A/ko
Application granted granted Critical
Publication of KR102187848B1 publication Critical patent/KR102187848B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/28Reflectors in projection beam
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/26Projecting separately subsidiary matter simultaneously with main image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0159Head-up displays characterised by mechanical features with movable elements with mechanical means other than scaning means for positioning the whole image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2206/00Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 개시의 일 실시예에 따른 영상을 표시하는 방법을 구현하는 착용형 전자장치는 글라스; 영상을 출력하는 프로젝터; 상기 프로젝터 앞에 위치하여 상기 프로젝터로부터 출력된 상기 영상들을 상기 글라스 방향 또는 외부 방향으로 출력하는 셔터부; 상기 셔터부를 제어하는 제어부; 를 포함할 수 있다. 또한, 다른 실시 예가 가능하다.

Description

프로젝터를 이용한 영상 표시 방법 및 이를 구현하는 착용형 전자장치{METHOD FOR DISPLAYING VISUAL MEDIA USING PROJECTOR AND WEARABLE ELECTRONIC DEVICE IMPLEMENTING THE SAME}
본 발명은 프로젝터를 이용하여 영상을 표시하는 방법 및 이를 구현하는 착용형 전자장치에 관한 것이다.
프로젝터(Projector)는 영사장치의 하나로서 슬라이드(slide), 투명지 위의 사진, 그림, 문자 등을 렌즈를 통해서 스크린에 확대 투영할 수 있는 전자장치이다. 최근 프로젝터는 파일 형태의 이미지 또는 동영상을 스크린에 영상으로 출력할 수 있다. 즉, 프로젝터는 영상을 출력하여 많은 사람들에게 상기 출력된 영상을 보여줄 수 있다. 예를 들어, 프로젝터는 세미나 또는 회의를 진행할 때 유용하게 이용될 수 있다. 프로젝터는 영상을 만들어내는 기술에 따라 크게 CRT(Cathode Ray Tube) 프로젝터, LCD(Liquid Crystal Display) 프로젝터, DLP(Digital Light Processing) 프로젝터로 나눌 수 있다. CRT 프로젝터는 외부기기의 영상 신호를 브라운관에서 증폭하고 이를 투사 렌즈를 통해 스크린에 상이 맺히도록 하는 방식으로 PRT 프로젝터, 혹은 빔(Beam) 프로젝터라고도 한다. CRT 프로젝터는 기본적으로 기존의 브라운관 TV와 같은 원리를 이용한 것이다. CRT 프로젝터는 가장 선명한 화질을 제공해주는 장점이 있지만, 밝기가 제한적이며 설치하기가 어렵고 초점(Convergence) 보정도 어렵기 때문에 점차 사용이 줄어들고 있다. LCD프로젝터는 램프에서 발생된 빛을 투과형의 LCD 패널에 투과시켜 영상을 하나로 모은 후 투사 렌즈를 통해 스크린에 상이 맺히도록 하는 방식의 프로젝터이다. LCD 프로젝터는 CRT 프로젝터에 비해 제품의 크기가 작고 가벼우며, 가격 대비하여 성능이 우수하여 현재 많이 사용되고 있는 방식의 프로젝터이다. 반면, LCD 프로젝터는 CRT 프로젝터에 비해 자연스러운 색의 재현은 어려울 수 있다. DLP 프로젝터는 램프에서 발생된 빛이 휠을 통과하여 DMD(Digital Micro Device) 칩에 영상을 반사하여, 상기 반사된 영상을 확대 투사하는 방식의 프로젝터이다. DMD 칩은 미세한 거울이 초당 수천 번 이상 스위칭하여 빛을 선택적으로 반사하거나 혹은 반사하지 않음으로써 고해상, 고선명의 영상을 실현할 수 있다. DLP 프로젝터는 100% 디지털 방식으로 제어되기 때문에 아날로그 방식인 CRT 또는 LCD 프로젝터에 비해 빛의 이용 효율이 높아 동일한 밝기에서 투사되는 화질과 색 재현성이 뛰어날 수 있다. DLP 프로젝터는 초기 가격이 비싸고 유지 비용이 많이 들기 때문에 일반화가 어려웠다. 그러나 DMD 칩의 가격이 낮아짐에 따라 DLP 프로젝터의 가격이 하락하여 수요가 늘고 있다.
프로젝터는 스크린에 영상을 확대하여 표시할 수 있다. 프로젝터는 표시된 영상을 많은 사람들에게 동시에 보여줄 수 있다. 예를 들어, 강연을 하는 경우 강연자는 프로젝터를 이용하여 청중들에게 강연과 관련된 영상을 보여줄 수 있다. 이 때, 강연자는 청중들에게는 공개되지 않으면서 본인만이 알아야 할 정보가 있을 수 있다. 본 발명에 따른 일 실시 예는 하나의 프로젝터를 이용하여 청중들에게 보여질 영상과 강연자 자신에게만 보여질 영상을 번갈아 가며 출력할 수 있다. 본 발명의 일 실시 예에 따른 프로젝터는 강연자의 착용형 전자장치(예: 안경형 전자장치)에 부착되며, 프로젝터 앞에는 셔터부가 부착된다. 착용형 전자장치는 프로젝터로부터 사상된 영상을 투영할 수 있는 글라스를 갖는다. 본 발명에 따른 일 실시 예는 프로젝터에서 두 개의 영상을 번갈아 가며 출력하고, 착용형 전자장치는 셔터의 동작을 제어하여 청중들에게 보여질 영상을 스크린에 출력하고, 강연자 자신에게만 보여질 영상을 착용형 전자장치의 글라스에 출력할 수 있다. 즉, 착용형 전자장치의 제어부는 하나의 프로젝터로 두 개의 영상을 번갈아 가며 출력할 수 있다. 그리고 제어부는 프로젝터 앞에 부착된 셔터부를 제어하여 두 개의 영상을 각각 다른 위치(예: 스크린과 글라스)에 출력되게 할 수 있다.
본 개시의 일 실시 예에 따른 영상을 표시하는 방법을 구현하는 착용형 전자장치는 글라스; 영상을 출력하는 프로젝터; 상기 프로젝터 앞에 위치하여 상기 프로젝터로부터 출력된 상기 영상들을 상기 글라스 방향 또는 외부 방향으로 출력하는 셔터부; 상기 셔터부를 제어하는 제어부; 를 포함할 수 있다.
본 개시의 일 실시 예에 따른 셔터부와 프로젝터를 구비한 착용형 전자장치의 영상 출력 방법에 있어서, 상기 프로젝터로부터 출력된 상기 영상들을 글라스 방향 또는 외부 방향으로 출력하도록 상기 셔터부를 제어하는 동작; 을 포함할 수 있다.
본 발명의 일 실시 예는 하나의 프로젝터에서 번갈아 가며 출력되는 두 개의 영상을 각각 착용형 전자장치의 글라스 또는 외부에 출력할 수 있다. 여기서 외부에 출력되는 영상은 공개되는 영상이며, 글라스에 출력되는 영상은 본인만 확인할 수 있는 영상일 수 있다. 사용자는 강연 또는 PT 발표 시 하나의 프로젝터로 각각 다른 위치에 출력되는 두 개의 영상을 출력하여 사용할 수 있다. 사용자는 하나의 프로젝터를 사용하므로 비용은 줄이면서 편의성은 높일 수 있다.
도 1은 본 발명의 일 실시 예에 따른 착용형 전자장치와 프로젝터의 실물 구조를 나타낸 예시도이다.
도 2는 본 발명의 일 실시 예에 따른 착용형 전자장치와 프로젝터의 하드웨어 구성을 나타낸 구성도이다.
도 3은 본 발명의 일 실시 예에 따른 착용형 전자장치에서 프로젝터를 이용하여 두 개의 영상을 표시하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 착용형 전자장치에서 프로젝터를 이용하여 두 개의 영상을 각각 다른 위치에 출력하는 방법을 설명하기 위한 예시도이다.
도 5a, 5b는 본 발명의 일 실시 예에 따른 셔터부를 이용하여 프로젝터에서 출력되는 두 개의 영상을 각각 스크린과 착용형 전자장치의 글라스에 표시하는 방법을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시 예에 따른 스크린에 표시된 영상 위에 사용자의 시선을 포인터로 표시하는 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시 예에 따른 스크린에 표시된 영상 위에 사용자의 시선을 포인터로 표시하는 방법을 설명하기 위한 예시도이다.
도 8은 본 발명의 일 실시 예에 따른 착용형 전자장치가 스크린에 표시된 영상을 인식하는 기술에 대해 설명하기 위한 예시도이다.
도 9는 본 발명의 일 실시 예에 따른 착용형 전자장치가 영상의 일부분을 캡처하고 캡처된 두 개의 영상을 비교하는 방법을 설명하기 위한 예시도이다.
도 10은 본 발명의 일 실시 예에 따른 착용형 전자장치에서 안테나와 배터리를 구조적으로 연결하는 방법을 설명하기 위한 예시도이다.
이하, 첨부된 도면들을 참조하여 본 발명의 다양한 실시 예들을 상세히 설명한다. 이때, 첨부된 도면들에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략할 것이다. 하기의 설명에서는 본 발명의 다양한 실시 예들에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
본 발명의 일 실시 예에 따른 착용형 전자장치는 안경형태의 전자장치로 유, 무선으로 타 전자장치와 통신이 가능하도록 통신 기능을 포함한 장치일 수 있다. 또한, 본 발명의 일 실시 예를 따른 착용형 전자장치는 글라스를 통해 영상을 확인할 수 있도록 특수하게 제작된 글라스가 포함된 전자장치일 수 있다.
본 발명의 일 실시 예에서는 통신 기능이 포함된 착용형 전자장치를 안경으로 예시하였으나 본 발명의 일 실시 예를 따른 착용형 전자장치가 안경으로 한정되지 않음은 당업자에게 자명하다.
본 발명에 사용된 용어“모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 일 실시 예를 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 착용형 전자장치와 프로젝터의 실물 구조를 나타낸 예시도이다.
본 발명의 일 실시 예에 따른 착용형 전자장치(100)는 안경으로 예시하였다.
도 1을 참조하면, 착용형 전자장치(100)는 프로젝터(102)를 착용형 전자장치(100)(예: 안경다리(108))에 부착하고, 셔터부(104)를 프로젝터(102) 앞에 위치하면서 착용형 전자장치(100)(예: 안경다리(108))에 부착할 수 있다. 여기서 셔터부(104)는 사용자의 입력에 의해 동작할 수 있으며, 프로젝터(102)로부터 사상된 영상을 통과시키거나 반사시킬 수 있다. 프로젝터(102)는 착용형 전자장치(100)로부터 영상을 수신하여 해당 영상을 출력할 수 있다. 즉, 프로젝터(102)에서 출력된 영상은 프로젝터(102) 앞쪽에 위치한 셔터부(104)를 통과하여 출력될 수 있다. 프로젝터(102)와 착용형 전자장치(100)는 연결부를 통해 서로 유선으로 연결될 수 있다. 이 때 착용형 전자장치(100)는 연결부를 통해 프로젝터(102)에 영상을 송신하거나 전원을 공급할 수 있다. 또한, 프로젝터(102)와 착용형 전자장치(100)는 무선통신부를 이용하여 서로 무선으로 연결될 수도 있다. 그리고 프로젝터(102)는 착용형 전자장치(100)와 분리되어 동작할 수도 있다. 프로젝터(102)가 착용형 전자장치(100)와 분리되는 경우 프로젝터(102)는 연결부를 통해 외부전원장치로부터 전원을 공급받을 수 있다. 분리된 프로젝터(102)와 착용형 전자장치(100)는 무선으로 영상을 송수신할 수 있으며, 프로젝터(102)가 분리된 경우 착용형 전자장치(100)의 셔터부(104)는 동작을 멈출 수 있다. 착용형 전자장치(100)의 셔터부(104)는 착용형 전자장치(100)가 복합 영상 모드일 때 동작할 수 있다. 여기서 복합 영상 모드는 프로젝터(102)로부터 두 개의 다른 영상이 일정한 시간 간격으로 번갈아 가며 출력되는 모드이다. 셔터부(104)는 프로젝터(102)에서 두 개의 영상이 번갈아 가며 출력될 때, 두 개의 영상 중 하나의 영상을 반사시켜서 두 개의 영상을 각각 다른 위치에 출력되도록 할 수 있다. 예를 들어, 착용형 전자장치(100)는 셔터부(104)를 통과하는 두 개의 영상 중 하나의 영상을 착용형 전자장치(100)의 정면에 위치한 스크린에 출력하게 하고, 나머지 하나의 영상을 셔터부(104)에 의해 반사시켜 착용형 전자장치(100)의 표시부에 출력하게 할 수 있다. 즉, 착용형 전자장치(100)는 셔터부를 제어하여 영상 출력 방향을 외부 방향(예, 사용자가 바라보는 방향) 또는 글라스 방향(예, 착용형 전자장치(100)의 표시부)으로 결정할 수 있다. 여기서 외부 방향은 프로젝터(102)에서 영상을 출력하는 방향일 수 있다. 그리고 상기 글라스 방향은 착용형 전자장치(100)의 표시부가 위치한 방향일 수 있다.이 때 표시부는 착용형 전자장치(100)의 글라스(106)에 해당하며, 사용자는 글라스(106)를 통해 프로젝터(102)에서 출력된 영상을 확인할 수 있다. 여기서 글라스(106)는 자동차에서 쓰이는 헤드업 디스플레이(Head Up Display, HUD)의 윈드쉴드(windshield)와 같이 특수한 형식으로 제작된 반투명한 반사판일 수 있다. 전자장치(100)는 사용자의 설정에 따라 반사판의 투명도를 조절할 수 있다. 윈드쉴드는 유리에 영상을 투영하기 위해 특수 플라스틱 필름을 유리에 내장한 반투명한 반사판이다. 이와 같이 특수하게 제작된 글라스(106)는 프로젝터(102)에서 출력된 영상을 투영할 수 있다. 또한, 글라스(106)는 셔터부(104)로부터 수신된 영상이 반사되도록 이미지를 표시하는 반투명 디스플레이일 수도 있다. 이와 같이 셔터부(104)에 의해 두 개의 영상은 스크린과 전자장치(100)의 글라스(106)에 번갈아 가며 출력되지만 육안으로 시간차를 확인할 수 없는 속도로 출력되므로 사용자는 두 개의 영상이 동시에 출력되는 것처럼 느낄 수 있다.
도 2는 본 발명의 일 실시 예에 따른 착용형 전자장치와 프로젝터의 하드웨어 구성을 나타낸 구성도이다.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 착용형 전자장치(200)는 제어부(210), 무선통신부(220), 전원부(230), 메모리(232), 셔터부(234), 사용자 입력부(236), 센서부(238), 카메라(240), 표시부(242), 연결부(244)를 포함할 수 있다.
제어부(210)는 하나 이상의 프로세서(211)를 포함할 수 있다. 제어부(210)는 전술한 구성 요소들을 연결하고, 구성 요소들간의 통신을 제어할 수 있다. 예를 들어, 제어부(210)는 메모리(232)에 저장된 영상을 유선 및 무선으로 프로젝터(250)와 송수신할 수 있다. 즉, 제어부(210)는 프로젝터(250)와 연결부(244)를 통해 유선으로 연결할 수도 있고, 무선통신부(220)를 통해 무선으로 연결할 수도 있다. 또한, 제어부(210)는 사용자 입력부(236)를 통해 수신된 사용자의 입력 신호에 따라 구성 요소들에게 신호를 송신할 수 있다. 제어부(210)는 신호를 통해 착용형 전자장치(200)의 기능들을 제어할 수 있다. 이처럼 제어부(210)는 구성 요소들 간의 통신을 유기적으로 제어할 수 있다.
제어부(210)의 프로세서(211)는 전원부(230)에서 전원을 공급받아 각 구성부들을 제어할 수 있다. 제어부(210)의 프로세서(211)는 메모리(232)에 저장된 영상을 프로젝터(250)에게 연결부(244)를 통해 유선으로 전송할 수도 있고, 무선통신부(220)를 통해 무선으로 전송할 수도 있다. 그리고 제어부(210)의 프로세서(211)는 카메라(240)를 통해 수신된 영상을 메모리(232)에 저장할 수 있다. 프로세서(211)는 메모리(232)에 미리 저장된 영상과 카메라를 통해 수신된 영상을 합성하여 합성된 영상을 프로젝터에게 송수신할 수도 있다. 제어부(210)의 프로세서(211)는 사용자 입력부(236)를 통해 입력된 키를 확인하고 해당 키 입력에 대한 기능을 수행할 수 있다. 제어부(210)의 프로세서(211)는 입력된 키가 셔터를 동작시키는 키 입력인 경우 셔터부(234)를 동작시킬 수 있다. 프로세서(211)는 프로젝터(250)에서 출력되는 두 개의 영상을 셔터부(234)를 이용하여 각각 다른 위치에 출력되게 할 수 있다. 즉, 프로세서(211)는 두 개의 영상 중 하나의 영상을 착용형 전자장치(200)의 정면에 위치한 스크린 상에 출력하고, 셔터부(234)에 의해 반사된 다른 하나의 영상을 표시부(242)에 출력할 수 있다. 다시 말해서, 프로세서(211)는 셔터부(234)를 제어하여 상기 영상의 출력될 위치를 결정할 수 있다. 본 발명의 일 실시 예를 따른 프로세서(211)는 제어부(210)에 포함되어 있으며 제어부(210)가 프로세서(211)를 대신하여 표현할 수 있다.
무선통신부(220)는 예를 들면, WiFi(Wireless-Fidelity), BT(bluetooth), GPS(global positioning system) 또는 NFC(near field communication)를 포함할 수 있다. 무선통신부(220)는 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 또한, 무선통신부(220)는 착용형 전자장치(200)를 네트워크(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)와 연결시키기 위한 네트워크 인터페이스(예: LAN card) 또는 모뎀 등을 포함할 수 있다. 무선통신부(220)는 착용형 전자장치(200)와 프로젝터(250) 간의 영상을 무선으로 송수신하게 할 수 있다. 또한, 착용형 전자장치(200)와 다른 전자장치 간의 데이터를 무선으로 송수신하게 할 수도 있다.
프로세서(211)는 착용형 전자장치(200) 구성 요소들 간의 통신 또는 착용형 전자장치(200)의 기능을 수행하기 위해 전원부(230)에서 전원을 공급받을 수 있다. 전원부(230)는 착용형 전자장치(200)에 연결된 배터리일 수 있다. 또한, 전원부(230)는 외부에서 전원을 공급하는 외부전원장치일 수도 있다. 프로세서(211)는 외부에서 공급받은 전원으로 배터리를 충전할 수도 있다.
메모리(232)는 프로세서(211) 또는 다른 구성 요소들(예: 무선통신부(220), 연결부(244))로부터 수신되거나 프로세서(211) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 본 발명의 일 실시 예에 따른 프로세서(211)는 무선통신부(220)를 통해 다른 전자장치들로부터 수신한 영상이나 카메라(240)를 통해 수신한 영상을 메모리(232)에 저장할 수 있다.
셔터부(234)는 프로세서(211)가 모드 전환 신호를 확인하는 경우 작동할 수 있다. 여기서 모드 전환 신호는 사용자 입력부(236)를 통한 키의 입력이 될 수도 있고, 프로젝터에게 송신한 영상에 모드 전환 신호가 포함되는 경우 프로세서(211)가 상기 모드 전환 신호를 확인할 수도 있다. 본 발명의 일 실시 예에 따른 셔터부(234)는 프로세서(211)가 모드 전환 입력을 확인하고 단일 영상 모드에서 복합 영상 모드로 전환하는 경우 동작할 수 있다.
입력부(236)는 전자장치(200)의 특정 기능을 수행하기 위한 키(key)와 같은 사용자 입력부를 포함할 수 있다. 제어부(210)의 프로세서(211)는 셔터부(234) 또는 카메라(240)를 제어하기 위해 입력부(236)를 통해 사용자의 키 입력을 확인할 수 있다. 제어부(210)의 프로세서(211)는 입력부(236)로부터 수신된 신호를 확인하고 해당 신호에 대한 기능을 수행할 수 있다. 본 발명의 일 실시 예에 따른 입력부(236)는 사용자 입력부로 모드 전환 입력을 확인할 수 있다.
센서부(238)는 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 생체 센서, 조도 센서 또는 UV(ultra violet) 센서 중의 적어도 하나를 포함할 수 있다. 센서부(238)는 물리량을 계측하거나 착용형 전자장치(200)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 예를 들어, 센서부(238)는 사용자의 터치 입력을 감지하여 해당 정보를 전기 신호로 변환할 수 있다. 사용자는 착용형 전자장치(200)의 구성부를 접촉하거나 착용형 전자장치(200)를 상하, 좌우로 움직이는 동작을 통해 착용형 전자장치(200)에서 특정 기능들을 수행하도록 할 수 있다.
카메라(240)는 화상 또는 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면 하나 이상의 이미지 센서(예: 전면 렌즈 또는 후면 렌즈), ISP(image signal processor, 미도시) 또는 플래쉬 LED(flash LED, 미도시)를 포함할 수 있다. 프로세서(211)는 프로젝터(250)에서 출력된 영상을 카메라를 통해 수신하여 메모리(232)에 저장할 수 있다. 또한, 프로세서(211)는 해당 영상의 중심점(예: 카메라의 중심점)을 사람의 시선으로 정의하고 중심점을 포인터로 표시할 수 있다. 프로세서(211)는 프로젝터(250)에서 출력된 영상과 포인터가 표시된 영상을 합성하여 합성된 영상을 프로젝터(250)에서 출력하게 할 수 있다. 프로세서(211)는 프로젝터(250)를 통해 출력된 영상에서 사용자의 시선을 포인터로 표시할 수 있다.
표시부(242)는 프로젝터(250)에서 출력된 영상을 표시할 수 있는 착용형 전자장치(200)의 글라스일 수 있다. 사용자는 글라스를 통해 프로젝터(250)에서 출력된 영상을 확인할 수 있다. 글라스는 헤드업 디스플레이의 윈드쉴드와 같은 형태일 수 있다. 즉, 글라스는 윈드쉴드처럼 영상을 투영할 수 있는 반투명 반사판일 수 있다. 헤드업 디스플레이는 자동차나 비행기의 운행 정보가 전면 유리에 나타나도록 설계된 전방 표시 장치이다. 윈드쉴드는 유리에 영상을 투영하기 위해 특수 플라스틱 필름을 유리에 내장한 반투명 반사판이다. 이처럼 글라스는 특수하게 제작되어 프로젝터(250)에서 출력된 영상을 투영할 수 있다. 또한, 글라스는 셔터부(234)로부터 수신된 영상이 반사되도록 이미지를 표시하는 반투명 디스플레이일 수도 있다. 본 발명의 일 실시 예에 따른 프로세서(211)는 프로젝터(250)에서 출력된 영상을 셔터부(234)에서 반사시켜 표시부(242)에 출력되도록 할 수 있다. 즉, 프로세서(211)는 사용자만 확인할 수 있는 개인적인 정보를 포함한 영상을 표시부(242)에서 출력할 수 있다.
연결부(244)는 HDMI(high-definition multimedia interface), MHL(Mobile High-definition Link), USB(universal serial bus) 또는 D-sub(D-subminiature) 를 포함할 수 있다. 추가적으로 연결부(244)는 SD(secure Digital)/MMC(multi-media card) 또는 IrDA(infrared data association)를 포함할 수 있다. 본 발명의 일 실시 예에 따른 연결부(244)는 착용형 전자장치(200)와 프로젝터(250) 간의 전원 공급 또는 영상 데이터 송수신을 위해 연결되는 구성 요소일 수 있다. 또한 연결부(244)는 착용형 전자장치(200)에 연결된 배터리를 충전하기 위한 충전 단자 또는 외부 전원 공급을 위한 단자일 수도 있다.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 프로젝터(250)의 구성은 제어부(260), 무선통신부(270), 메모리(280), 연결부(282) 및 영상 출력부(284)를 포함할 수 있다.
프로젝터(250)의 제어부(260)는 하나 이상의 프로세서(261)를 포함할 수 있다. 프로젝터(250)의 제어부(260)는 무선통신부(270), 메모리(280), 연결부(282) 및 영상 출력부(284)를 서로 연결하고, 전술한 구성 요소들 간의 통신을 제어할 수 있다. 예를 들어, 제어부(260)는 연결부(282) 또는 무선통신부(270)를 통해 수신한 영상을 메모리(280)에 저장하고, 영상 출력부(284)를 통해 메모리(280)에 저장된 영상을 출력할 수 있다.
프로젝터(250)의 프로세서(261)는 착용형 전자장치(200)로부터 수신한 영상을 관리할 수 있다. 여기서 착용형 전자장치(200)와 프로젝터(250)의 연결은 연결부(244)를 통해 유선으로 연결할 수도 있고, 무선통신부(220)를 통해 무선으로 연결할 수도 있다. 프로젝터(250)의 프로세서(261)는 연결부(282)를 통해 착용형 전자장치(200)로부터 영상을 수신 받을 뿐만 아니라 착용형 전자장치(200)로부터 전원을 공급받을 수도 있다. 프로젝터(250)의 프로세서(261)는 착용형 전자장치(200)로부터 공급받은 전원으로 프로젝터(250)를 구동할 수 있다. 만약, 착용형 전자장치(200)와 프로젝터(250)가 분리되는 경우 프로세서(261)는 연결부(282)와 외부 전원 공급 장치(예: 외부 배터리)를 연결하여 전원을 공급받을 수도 있다. 또한, 프로세서(261)는 분리된 프로젝터(250)에 내장된 자체 배터리를 통해 전원을 공급받을 수도 있다. 프로세서(261)는 착용형 전자장치(200)로부터 수신한 영상을 메모리(280)에 저장하고 영상 출력부(284)를 통해 해당 영상을 출력할 수 있다.
프로젝터(250)의 무선통신부(270)는 착용형 전자장치(200)와 마찬가지로 WiFi(Wireless-Fidelity), BT(bluetooth), GPS(global positioning system) 또는 NFC(near field communication)를 포함할 수 있다. 또한, 무선통신부(270)는 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 본 발명의 일 실시예에 따른 프로젝터(250)의 무선통신부(270)는 착용형 전자장치(200)로부터 영상을 무선으로 수신하도록 할 수 있다.
프로젝터(250)의 메모리(280)는 착용형 전자장치(200)로부터 수신한 영상을 저장할 수 있다. 프로젝터(250)의 메모리(280)는 착용형 전자장치(200)로부터 수신한 영상을 일시적으로 저장하며 영상 출력부(284)를 통해 해당 영상을 출력하는 버퍼일 수도 있다.
프로젝터(250)의 연결부(282)는 착용형 전자장치(200)와 마찬가지로 HDMI(high-definition multimedia interface), USB(universal serial bus) 또는 D-sub(D-subminiature) 를 포함할 수 있다. 추가적으로 연결부(282)는 SD(secure Digital)/MMC(multi-media card) 또는 IrDA(infrared data association)를 포함할 수 있다. 본 발명의 일 실시 예에 따른 프로젝터(250)의 연결부(282)는 착용형 전자장치(200)로부터 전원을 공급받거나 영상 데이터를 수신하기 위한 프로젝터(250)의 구성 요소일 수 있다. 또한 착용형 전자장치(200)와 분리되는 경우 프로젝터(250)의 프로세서(261)는 연결부(282)를 통해 외부 전원 공급 장치(예: 외부 배터리)로부터 전원을 공급받을 수 있다.
프로젝터(250)의 영상 출력부(284)는 착용형 전자장치(200)로부터 수신한 영상을 프로젝터(250)에서 출력되도록 할 수 있다. 즉, 프로젝터(250)의 프로세서(261)는 착용형 전자장치(200)로부터 수신한 영상을 메모리(280)에 저장한 후 영상 출력부(284)를 통해 해당 영상을 출력할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 착용형 전자장치에서 프로젝터를 이용하여 두 개의 영상을 표시하는 방법을 설명하기 위한 흐름도이다.
도 3을 참조하면, 동작 302에서 착용형 전자장치(200)의 프로세서(211)는 프로젝터(250)에게 영상들을 송신하여 프로젝터(250)로부터 영상들을 출력하도록 할 수 있다. 이 때 착용형 전자장치(200)의 모드는 단일 영상 모드일 수 있다. 단일 영상 모드에서 착용형 전자장치(200)의 프로세서(211)는 단일 영상을 프로젝터(250)에게 송신하여 프로젝터(250)로부터 단일 영상을 출력하도록 할 수 있다. 동작 304에서 착용형 전자장치(200)의 프로세서(211)는 사용자 입력부(236)를 통한 모드 전환 입력을 확인할 수 있다. 여기서 모드 전환 확인은 사용자 입력부(236)에서 감지된 키의 입력뿐만 아니라 영상에 포함된 모드 전환 신호에 대한 확인일 수 있다. 즉, 모드 전환 입력에 대한 확인은 모드 전환 신호에 대한 확인일 수 있다. 동작 304에서 모드 전환 입력이 없는 경우 착용형 전자장치(200)의 프로세서(211)는 단일 영상 모드로 프로젝터(250)에서 단일 영상을 계속해서 출력하게 할 수 있다. 동작 304에서 사용자 입력부를 통해 모드 전환 입력이 확인되면 동작 306에서 착용형 전자장치(200)의 프로세서(211)는 셔터부(234)를 동작하여 영상들을 글라스 또는 외부로 번갈아 가며 출력하게 할 수 있다. 즉, 모드 전환 입력이 확인되면 착용형 전자장치(200)의 프로세서(211)는 단일 영상 모드에서 복합 영상 모드로 전환할 수 있다. 여기서 복합 영상 모드는 착용형 전자장치(200)가 두 개의 영상을 일정한 시간 간격으로 번갈아 가며 출력하는 모드이다. 예를 들어, 프로젝터(250)가 초당 60장의 프레임(frame)을 출력하는 상태일 수 있다. 복합 영상 모드에서 프로세서(211)는 프로젝터(250)를 통해 두 개의 다른 영상을 번갈아 가며 출력할 수 있다. 즉, 프로세서(211)는 초당 60장의 프레임 중 홀수차 프레임에 복합 영상 중 하나의 영상을 출력하고, 짝수차 프레임에 복합 영상 중 다른 하나의 영상을 출력할 수 있다. 다시 말해서, 프로세서(211)는 복합 영상 모드일 때 두 개의 영상을 각각 초당 30장의 프레임씩 번갈아 가며 출력할 수 있다. 그리고 복합 영상 모드에서 착용형 전자장치(200)의 프로세서(211)는 셔터부(234)를 작동할 수 있다. 복합 영상 모드일 때 프로젝터(250)에서 출력되는 영상은 셔터부(234)를 통과하여 출력된다. 예를 들어, 여기서 셔터부(234)는 60Hz의 속도로 동작할 수 있다. 프로세서(211)가 초당 60장의 프레임을 출력하는 경우 셔터부(234)에 의해 짝수차 프레임은 반사되어 다른 위치에서 출력될 수 있다. 복합 영상 모드에서 착용형 전자장치(200)의 프로세서(211)는 셔터부(234)를 작동한 후에, 프로세서(211)는 복합 영상을 프로젝터에 송신하여 프로젝터에서 복합 영상을 출력하게 할 수 있다. 복합 영상 모드에서 프로세서(211)는 복합 영상 중 하나의 영상을 외부에 출력되도록 하고, 복합 영상 중 다른 하나의 영상을 셔터부(234)의 셔터에 의해 반사되어 착용형 전자장치(200)의 표시부(242)(예: 글라스)에 출력되도록 할 수 있다. 여기서 외부는 상기 착용형 전자장치(200)를 착용한 사용자의 시선 방향으로 전자장치의 정면일 수 있다. 예를 들어, 프로세서(211)가 프로젝터(250)에서 두 개의 영상을 각각 30프레임씩, 초당 총 60프레임이 출력되도록 할 수 있다. 이 때 셔터부(234)는 60Hz의 속도로 동작하는 상태일 수 있다. 따라서, 셔터부(234)에 의해 총 60장의 프레임 중 홀수차 프레임은 외부에 출력되고, 짝수차 프레임은 착용형 전자장치(200)의 표시부(242)(예: 글라스)에 출력될 수 있다. 즉, 프로세서(211)는 외부에 복합 영상 중 하나의 영상을 초당 30장씩 출력하고 글라스에 복합 영상 중 다른 하나의 영상을 초당 30장씩 출력할 수 있다.
도 4는 본 발명의 일 실시 예에 따른 착용형 전자장치에서 프로젝터를 이용하여 두 개의 영상을 각각 다른 위치에 출력하는 방법을 설명하기 위한 예시도이다.
도 4를 참조하면, 착용형 전자장치(400)는 복합 영상 모드로 프로젝터(402)에서 제 1 영상(415) 과 제 2 영상(425)을 번갈아 가며 출력할 수 있다. 프로젝터(402)는 착용형 전자장치(400)의 안경다리(406)에 부착될 수 있다. 또한, 셔터부(404)는 프로젝터(402)의 앞쪽에 위치하면서 착용형 전자장치(400)의 안경다리(406)에 부착되어 프로젝터(402)에서 출력된 영상을 통과시키거나 반사시킬 수 있다. 도 4를 참조하면, 착용형 전자장치(400)는 복합 영상 모드이며, 프로젝터(402)에서 출력된 제 1 영상(415)은 셔터부(404)를 통과하여 스크린(410)에 출력되고, 프로젝터(402)에서 출력된 제 2 영상(425)은 셔터부(404)에 의해 반사되어 착용형 전자장치(400)의 글라스(420)에 출력될 수 있다. 즉, 착용형 전자장치(400)는 제 1 영상(415)을 외부로 출력하고, 제 2 영상(425)을 셔터부(404)에 반사시켜 글라스(420)에서 출력하도록 할 수 있다. 착용형 전자장치(400)의 프로세서(211)는 초당 60프레임씩 영상을 출력하며, 제 1 영상(415) 또는 제 2 영상(425)을 각각 초당 30프레임씩 번갈아 가며 출력할 수 있다. 각각의 영상이 초당 30프레임씩 출력되기 때문에, 사용자는 두 개의 영상이 동시에 출력된다고 느낄 수 있다. 여기서 제 1 영상(415)과 제 2 영상(425)은 한 프레임씩 번갈아 가며 출력된다. 즉, 총 60프레임 중 홀수차 프레임에는 제 1 영상이 출력되고, 짝수차 프레임에는 제 2 영상이 출력된다. 착용형 전자장치(400)의 프로세서(211)는 프로젝터(402)에서 출력되는 제 1 영상(415)과 제 2 영상(425)의 출력 속도에 맞춰서 셔터부(404)를 작동할 수 있다. 즉, 셔터부(404)는 60Hz의 속도로 동작하는 상태일 수 있다. 착용형 전자장치(400)의 프로세서(211)는 스크린(410)에서 초당 30프레임씩 제 1 영상(415)만을 출력하게 하고 표시부(242)인 글라스(420)에서 초당 30프레임씩 제 2 영상(425)만을 출력하게 할 수 있다. 예컨대, 선생님이 강의를 하는 경우 제 1 영상(415)에서는 학생들에게 설명하기 위한 문제가 스크린(410)에 출력될 수 있다. 제 1 영상(415)은 학생들에게 공개된 자료로 다같이 공유 가능한 영상일 수 있다. 반면에, 제 2 영상(425)은 학생들에게 공개할 수 없는 답안이 표시된 영상일 수 있다. 즉, 제2 영상(425)은 선생님이 강의할 때 글라스(420)를 통해 선생님만 확인할 수 있는 정보일 수 있다. 이와 같이 착용형 전자장치(400)는 제 1 영상(415)과 제 2 영상(425)을 각각 스크린(410)과 글라스(420)에 출력하며, 제 2 영상(425)은 공개되지 않는 개인적인 정보를 포함할 수 있다. 만약 착용형 전자장치(400)의 사용자가 제 1 영상(415)에 대해 외부로 유출되는 것을 원하지 않는다면, 사용자는 프로젝터(402)에서 출력되는 영상의 주파수를 변경하여 영상의 복사를 방지할 수 있다. 즉, 프로젝터(402)는 출력되는 영상의 주파수를 변경하여 출력할 수 있다. 예를 들어, 사용자가 육안으로 특정 주파수에서 출력된 영상을 직접 볼 때 사용자는 간섭 무늬 모양(Fringe Pattern)을 확인할 수 없다. 하지만 특정 주파수에서 출력된 영상을 카메라로 촬영하는 경우 카메라에는 간섭 무늬 모양의 영상이 촬영될 수 있다. 즉, 카메라는 육안으로 확인 가능한 영상을 수신할 수 없고, 간섭 무늬 모양의 영상을 수신하게 된다. 사용자가 프로젝터(402)에서 출력되는 영상의 주파수를 변경하는 경우 사용자는 카메라를 이용하여 영상을 복사하는 것을 방지할 수 있다.
도 5a, 5b, 5c는 본 발명의 일 실시 예에 따른 셔터부를 이용하여 프로젝터에서 출력되는 두 개의 영상을 각각 스크린과 착용형 전자장치의 글라스에 표시하는 방법을 설명하기 위한 예시도이다.
도 5a, 5b, 5c는 착용형 전자장치(200)를 프로젝터(502), 셔터부(504), 글라스(506), 안경다리(508)로 분리하여 간략하게 묘사하였다. 도 5a, 5b, 5c를 참조하면, 착용형 전자장치는 복합 영상 모드 상태이며, 착용형 전자장치(200)의 프로세서(211)는 프로젝터(502)를 통해 제 1 영상과 제 2 영상을 번갈아 가며 출력할 수 있다. 또한, 착용형 전자장치(200)의 프로세서(211)는 복합 영상 모드에서 셔터부(504)를 동작시키며, 제 1 영상과 제 2 영상을 각각 스크린(510)과 글라스(506)에 출력되도록 할 수 있다.
도 5a를 참조하면, 프로세서(211)는 프로젝터(502)에서 제 1 영상을 출력하게 할 수 있다. 제 1 영상은 셔터부(504)를 통과하여 출력된다. 이 때 셔터(505)는 열린 상태이며, 프로세서(211)는 착용형 전자장치(200)의 정면에 위치한 스크린(510)에 제 1 영상을 출력하게 할 수 있다. 여기서 착용형 전자장치(200)의 정면은 상기 착용형 전자장치(200)를 착용한 사용자의 시선 방향일 수 있다.
도 5b를 참조하면, 프로세서(211)는 프로젝터(502)에서 제 2 영상을 출력하게 할 수 있다. 제 2 영상도 셔터부(504)를 통과하여 출력된다. 이 때 셔터(505)는 닫힌 상태로 프로젝터(502)에서 출력된 제 2 영상은 셔터(505)에 반사되어 착용형 전자장치(200)의 내부 반사판(515)에 출력될 수 있다. 여기서 내부 반사판(515)은 착용형 전자장치(200)의 글라스(506)에 포함되어 있을 수 있다. 착용형 전자장치(200)의 내부 반사판(515)은 윈드쉴드와 같이 특수한 형식으로 제작된 반투명 반사판일 수 있다. 윈드쉴드는 유리에 영상을 투영하기 위해 특수 플라스틱 필름을 유리에 내장한 반투명 반사판이다. 또한, 내부 반사판(515)은 셔터부(504)로부터 수신된 영상이 반사되도록 이미지를 표시하는 반투명디스플레이일 수도 있다.
도 5c를 참조하면, 셔터(505)가 닫힌 상태인 경우 프로젝터(502)로부터 출력된 제 2 영상이 착용형 전자장치(200)의 외부 반사판(517)에 투영될 수 있다. 여기서 외부 반사판(517)은 착용형 전자장치(200)의 글라스(506) 외부에 부착되는 형태일 수 있다. 또는, 영상이 투영될 수 있도록 글라스(506) 외부에 특정 물질을 도표하는 형태일 수도 있다. 이처럼 글라스(506)는 특수하게 제작되어 프로젝터(502)에서 출력된 영상을 투영할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 프로젝터가 착용형 전자장치로부터 분리된 경우 프로젝터에서 출력된 영상에 사용자의 시선을 포인터로 표시하는 방법을 설명하기 위한 흐름도이다.
도 6을 참조하면, 동작 602에서 착용형 전자장치(200)의 프로세서(211)는 메모리(232)에 저장된 영상을 프로젝터(250)에게 전송할 수 있다. 여기서 착용형 전자장치(200)와 프로젝터(250)는 분리된 상태이며 착용형 전자장치(200)의 프로세서(211)는 무선통신부(220)를 통해 영상을 프로젝터(250)에게 전송할 수 있다. 분리된 프로젝터(250)는 연결부(282)를 통해 외부전원장치로부터 전원을 공급받을 수 있다. 또는 분리된 프로젝터(250)가 배터리를 내장하여 상기 배터리로부터 전원을 공급받을 수도 있다. 착용형 전자장치(200)로부터 전송된 영상은 프로젝터(250)에서 출력될 수 있다. 동작 604에서 착용형 전자장치(200)의 프로세서(211)는 프로젝터(250)를 통해 출력되어 스크린에 표시된 영상의 일부분 또는 전체를 카메라(240)를 통해 수신하게 할 수 있다. 동작 606에서 착용형 전자장치(200)의 프로세서(211)는 카메라(240)를 통해 수신한 영상을 기반으로 카메라(240) 중심축의 연장선과 스크린에 표시된 영상이 만나는 위치(Pixel)를 검출할 수 있다. 여기서 카메라(240) 중심축의 연장선과 스크린에 표시된 영상이 만나는 위치(Pixel)는 사용자의 시선으로 정의할 수 있다. 즉, 검출된 위치는 스크린에 출력된 영상에 사용자의 시선을 표시하기 위한 위치이다. 동작 608에서 착용형 전자장치(200)의 프로세서(211)는 메모리(232)에 저장된 영상에 검출된 위치를 포인터로 표시하여 프로젝터(250)에게 전송할 수 있다. 즉, 프로세서(211)는 사용자의 시선을 포인터로 표시한 영상을 프로젝터에게 전송할 수 있다. 프로젝터(250)는 수신한 영상을 스크린에 출력하게 되고, 스크린에 출력된 영상에는 사용자의 시선이 포인터로 표시되게 된다. 즉, 사용자의 시선이 변경될 때 프로젝터(250)로부터 출력된 영상에 나타난 포인터의 위치도 사용자의 시선을 따라 이동할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 스크린에 표시된 영상 위에 사용자의 시선을 포인터로 표시하는 방법을 설명하기 위한 예시도이다.
도 7을 참조하면, 프로젝터(702)는 착용형 전자장치(704)와 분리되어 따로 설치될 수 있다. 착용형 전자장치(704)와 분리된 프로젝터(702)는 연결부(282)를 통해 외부전원장치와 연결되어 전원을 공급받을 수 있다. 여기서 외부전원장치는 외부의 배터리(예: 배터리 팩) 또는 AC전원일 수 있다. 또한 프로젝터(702)는 프로젝터(702)에 내장된 배터리로부터 전원을 공급받을 수도 있다. 착용형 전자장치(704)의 프로세서(211)는 무선 통신부(220)를 통해 메모리(232)에 저장된 영상을 착용형 전자장치(704)와 분리된 프로젝터(702)에게 송신할 수 있다. 프로젝터(702)의 프로세서(261)는 착용형 전자장치(704)로부터 수신된 영상(715)을 메모리(280)에 저장하고 해당 영상(715)을 스크린(710)에 출력할 수 있다. 그리고 착용형 전자장치(704)의 프로세서(211)는 카메라(706)를 통해 스크린(710)에 출력된 영상(715)의 일부분(720) 혹은 전체를 수신할 수 있다. 착용형 전자장치(704)의 프로세서(211)는 카메라(706)를 통해 수신한 영상(720)의 중심축(예: 카메라의 중심축)을 사람의 시선으로 정의하고 중심축을 포인터(725)로 표시할 수 있다. 즉, 프로세서(211)는 카메라(706)를 통해 수신한 영상(720)을 기반으로 카메라 중심축의 연장선과 스크린(710)에 표시된 영상(715)이 만나는 위치(Pixel)를 검출할 수 있다. 그리고 프로세서(211)는 메모리(232)에 저장된 영상에 검출된 위치(Pixel)(예: 카메라의 중심축)를 포인터(725)로 표시하여 해당 영상을 프로젝터(702)에게 송신할 수 있다. 프로젝터(702)의 프로세서(261)는 카메라(706)의 중심축이 포인터(725)로 표시된 영상을 스크린(710)에 출력할 수 있다. 여기서 프로세서(211)는 공개 소스 컴퓨터 비전 라이브러리(Open Source Computer Vision library, OPEN CV)를 이용해서 포인터(725)가 표시된 영상의 합성할 위치를 결정할 수 있다. 프로세서(211)는 프로젝터(702)로부터 출력되어 스크린(710)에 표시된 영상의 외곽을 공개 소스 컴퓨터 비전 라이브러리를 사용하여 검출할 수 있다. 즉, 프로세서(211)는 카메라(706)를 통해 수신한 영상의 외곽 부분을 검출할 수 있다. 그리고 프로세서(211)는 검출된 외곽 부분을 통해 카메라(706) 중심축의 연장선과 프로젝터(702)로부터 출력되어 스크린(710)에 표시된 영상이 만나는 위치(Pixel)를 검출할 수 있다. 여기서 위치(Pixel)는 사용자의 시선을 표시한다고 정의할 수 있다. 즉, 프로세서(211)는 사용자의 시선에 따라 포인터(725) 표시 지점이 변경되는 영상을 스크린(710)에 출력할 수 있다.
도 8은 본 발명의 일 실시 예에 따른 착용형 전자장치가 스크린에 표시된 영상을 인식하는 기술에 대해 설명하기 위한 예시도이다.
도 8을 참조하면, 착용형 전자장치(200)의 프로세서(211)는 출력된 영상을 공개 소스 컴퓨터 비전 라이브러리(Open Source Computer Vision library, OPEN CV)를 이용하여 입체적으로 인식할 수 있다. 공개 소스 컴퓨터 비전 라이브러리(OPEN CV)는 실시간 컴퓨터 영상 프로그램 라이브러리로 공개 소스 컴퓨터 비전 라이브러리(OPEN CV) 코드는 객체, 얼굴, 행동 인식, 독순(예: 입술 읽기), 모션 추적 등의 응용 프로그램에서 사용된다. 공개 소스 컴퓨터 비전 라이브러리(OPEN CV)는 수많은 영상들의 분석을 위해 최적화된 알고리즘을 포함하는 오픈 소스 라이브러리다. 공개 소스 컴퓨터 비전 라이브러리는 1999년에 소개되었고 컴퓨터 비전 분야의 연구자와 개발자 커뮤니티에서 주요 개발 툴로 많이 채택되었다. 착용형 전자장치(200)의 프로세서(211)는 공개 소스 컴퓨터 비전 라이브러리(OPEN CV)를 이용하여 프로젝터(250)에서 출력된 영상을 인간처럼 입체적으로 볼 수 있다. 그림 810에서 휴대용 프로젝터가 컴퓨터 모니터에 영상을 출력하고 있다. 그림 820은 그림 810을 공개 소스 컴퓨터 비전 라이브러리(OPEN CV) 프로그램을 통해 표시한 영상일 수 있다. 그림 830에서 착용형 전자장치(200)의 프로세서(211)는 프로젝터(250)에서 출력된 영상을 입체적으로 인식하고 구분할 수 있다. 그리고 도 7을 참조하면, 착용형 전자장치(200)의 프로세서(211)는 카메라(706)를 통해 수신한 영상(720)을 입체적으로 인식하여 프로젝터(250)에서 출력된 영상과 포인터(725)가 표시된 영상을 비교, 분석할 수 있다. 프로세서(211)는 프로젝터(250)에서 출력된 영상과 카메라를 통해 수신한 영상의 동일한 영역을 확인하고 카메라의 중심점(사용자 시선의 중심점)을 포인터(725)로 영상에 표시할 수 있다. 즉, 프로세서(211)는 공개 소스 컴퓨터 비전 라이브러리(OPEN CV)을 이용하여 사용자의 시선을 영상에 표시할 수 있다. 그리고 프로세서(211)는 포인터(725)를 중심으로 영상을 확대하거나 축소할 수 있다. 예를 들어, 착용형 전자장치(200)의 프로세서(211)는 센서부(238)를 이용하여 출력된 영상을 확대 또는 축소할 수 있다. 또한, 프로세서(211)는 센서부(238)를 통해 사용자의 제스처 또는 터치 입력을 감지하고 다양한 기능을 수행하도록 할 수 있다. 센서부(238)는 착용형 전자장치(200)에서 사용자의 제스처 또는 터치 입력을 감지할 수 있는 위치에 설치될 수 있다. 프로세서(211)는 착용형 전자장치(200)에 설치된 터치 패드를 제 1 터치 패드 또는 제 2 터치 패드로 구분하고 제 1 터치 패드 인식, 제 2 터치 패드 인식, 동시 인식, 각 터치 패드의 더블 클릭 등 터치 방법을 다양하게 설정할 수 있다. 예컨대, 프로세서(211)는 착용형 전자장치(200)의 특정 위치에 사용자의 터치 입력이 있는 경우 초점을 다시 맞추거나, 해당 초점을 중심으로 영상을 확대 또는 축소 할 수 있다. 또한, 사용자는 센서부(238)를 이용하여 영상을 복사하거나 영상을 특정 위치로 이동시키거나 영상을 스크롤하는 동작도 할 수 있다. 게다가 터치 패드는 착용형 전자장치(200)에서 탈부착이 가능할 수도 있다.
도 9는 본 발명의 일 실시 예에 따른 착용형 전자장치가 영상의 일부분을 캡처하고 캡처된 두 개의 영상을 비교하는 방법을 설명하기 위한 예시도이다.
도 9를 참조하면, 그림 910에서 착용형 전자장치(200)의 프로세서(211)는 전체 영상 중 일부분을 캡처하고 프로젝터(250)에서 캡처된 영상을 출력하게 할 수 있다. 그림 910에서 두 개의 착용형 전자장치는 각각의 전자장치에 부착된 프로젝터를 이용하여 전체 영상에서 각각 다른 부분을 캡처할 수 있다. 예를 들어, 그림 910에서 사용자1(950)의 착용형 전자장치1(955)는 헬리콥터를 중심으로 캡처할 수 있다. 그리고 사용자2(960)의 착용형 전자장치2(965)는 배를 중심으로 캡처할 수 있다. 그림 920에서 사용자1(950)과 사용자2(960)는 사용자1(950)과 사용자2(960)에 의해 각각 캡처된 제 1 영상(912)과 제 2 영상(914)을 스크린에 출력하게 할 수 있다. 즉, 사용자1(950)의 착용형 전자장치1(955)는 헬리콥터를 중심으로 캡처된 제 1 영상(912)을 출력하고, 사용자2(960)의 착용형 전자장치2(965)는 배를 중심으로 캡처된 제 2 영상(914)을 스크린에 각각 출력할 수 있다. 그림 930에서 사용자2(960)는 착용형 전자장치2(965)를 조작하여 제 2 영상(914)을 사용자1(950)의 착용형 전자장치1(955)에서 출력된 제 1 영상(912)의 옆으로 이동시키고 두 개의 영상을 비교할 수 있다. 즉, 사용자는 착용형 전자장치(200)를 이용하여 특정 이미지의 일부분을 캡처하여 상기 캡처된 이미지를 활용할 수도 있다.
도 10은 본 발명의 일 실시 예에 따른 착용형 전자장치에서 안테나와 배터리를 구조적으로 연결하는 방법을 설명하기 위한 예시도이다.
도 10을 참조하면, 착용형 전자장치(200)는 전자 안경일 수 있다. 여기서 전자 안경의 왼쪽 안경 다리 및 오른쪽 안경 다리 끝부분인 귀걸이 부(1002)에는 연결재(1004)가 연결될 수 있다. 그리고 연결재(1004)에는 착용형 전자장치(200)에 전원을 공급할 수 있는 배터리(1006)가 연결될 수 있다. 즉, 연결재(1004)의 내부에는 착용형 전자장치(200)가 배터리 (1006)로부터 전원을 공급받을 수 있는 전원공급선(1012)이 내장되어 있다. 또한 연결재(1004)의 내부에는 착용형 전자장치(200)가 프로젝터(250) 또는 타 전자장치와 무선으로 통신하기 위한 안테나(1016)가 내장되어 있을 수 있다. 연결재(1004) 속에 내장된 안테나(1016)는 전자파를 흡수하는 사용자의 신체로부터 영향을 받지 않는 위치에 내장될 수 있다. 즉, 착용형 전자장치(200)는 사용자의 귀에서 목으로 이어지는 연결재(1004)의 특정 지점에 안테나(1016)를 내장할 수 있다. 여기서 특정 지점은 전자파가 사용자의 신체로부터 영향을 적게 받는 지점일 수 있다. 본 발명의 일 실시 예에 따른 착용형 전자장치(200)는 전원 공급 장치를 착용형 전자장치(200) 내부에 내장하기 힘들기 때문에 연결재(1004)에 연결하여 전원을 공급받을 수 있다. 만약 착용형 전자장치(200) 내부에 전원 공급 장치를 내장할 수 있는 경우 착용형 전자장치(200)의 외부 배터리 (1006)는 생략할 수 있다. 착용형 전자장치(200)와 연결재(1004)를 통해 연결된 배터리 (1006)는 사용자의 목 쪽에 위치하게 되며 사용자의 몸으로 지지될 수 있다. 배터리(1006)는 큰 배터리 하나로 구성될 수도 있고, 작은 배터리를 서로 연결한 배터리 팩으로 구성될 수도 있다. 연결재(1004)의 내부 구성은 배터리(1006)로부터 착용형 전자장치(200)에 전원을 공급하기 위한 전원공급선(1012)과 착용형 전자장치(200) 간의 신호를 송수신할 수 있는 신호입출력선(1014)과 안테나(1016)로 구성될 수 있다.
본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100 : 착용형 전자장치
102 : 프로젝터
104 : 셔터부
106 : 글라스
108 : 안경다리

Claims (20)

  1. 착용형 전자장치에 있어서,
    글라스;
    적어도 하나의 이미지를 출력하는 프로젝터;
    상기 프로젝터 앞에 위치하여 상기 프로젝터로부터 출력된 상기 적어도 하나의 이미지를 상기 글라스 방향 또는 외부 방향으로 표시하는 셔터부; 및
    상기 셔터부에 의해 반사된, 상기 적어도 하나의 이미지 중 제 1 이미지를 상기 글라스에 표시하고, 상기 셔터부를 투과한, 상기 적어도 하나의 이미지 중 제 2 이미지를 외부에 표시하도록 상기 셔터부를 제어하는 제어부;를 포함하는 착용형 전자장치.
  2. 제 1 항에 있어서,
    상기 프로젝터는,
    상기 착용형 전자장치로부터 분리되는 것을 특징으로 하는 착용형 전자장치.
  3. 제 1 항에 있어서,
    상기 셔터부는,
    일정한 시간 간격으로 셔터를 열고 닫아 상기 프로젝터로부터 출력된 상기 제 1 이미지를 상기 글라스 방향으로 반사시켜 표시하거나, 상기 제 2 이미지를 상기 외부 방향으로 표시하는 것을 특징으로 하는 착용형 전자장치.
  4. 제 2 항에 있어서,
    무선통신부를 더 포함하고,
    상기 제어부는,
    상기 프로젝터에게 상기 적어도 하나의 이미지를 송신하도록 상기 무선통신부를 제어하는 것을 특징으로 하는 착용형 전자장치.
  5. 제 1 항에 있어서,
    상기 글라스는,
    상기 프로젝터로부터 출력된 상기 적어도 하나의 이미지를 반사시키기 위한 반투명 반사판을 포함하는 것을 특징으로 하는 착용형 전자장치.
  6. 제 5 항에 있어서,
    상기 반투명 반사판은,
    사용자의 설정에 따라 상기 반투명 반사판의 투명도를 조절하는 것을 특징으로 하는 착용형 전자장치.
  7. 제 5 항에 있어서,
    상기 반투명 반사판은,
    사용자가 상기 적어도 하나의 이미지를 확인할 수 있도록 상기 적어도 하나의 이미지를 투영하는 것을 특징으로 하는 착용형 전자장치.
  8. 제 1 항에 있어서,
    상기 글라스는,
    상기 셔터부로부터 수신된 상기 적어도 하나의 이미지가 반사되도록 이미지를 표시하는 반투명디스플레이를 더 포함하는 것을 특징으로 하는 착용형 전자장치.
  9. 제 1 항에 있어서,
    상기 착용형 전자장치는 안경형이되,
    상기 안경형 전자 장치는,
    왼쪽 안경형 전자장치 다리;
    오른쪽 안경형 전자장치 다리;
    상기 두 안경 다리를 연결하는 연결재; 및
    상기 연결재에 연결되어, 상기 안경형 전자장치에 전원을 공급하는 배터리를 포함하는 착용형 전자장치.
  10. 제 1 항에 있어서,
    상기 프로젝터와 유선으로 연결하기 위한 연결부를 포함하고,
    상기 제어부는,
    상기 연결부를 통해 상기 프로젝터에게 상기 적어도 하나의 이미지를 송신하거나 전원을 공급하는 것을 특징으로 하는 착용형 전자장치.
  11. 셔터부 및 프로젝터를 구비한 착용형 전자장치의 이미지 출력 방법에 있어서,
    상기 프로젝터로부터 출력된 적어도 하나의 이미지 중 제 1 이미지를 반사시켜서 글라스에 표시되도록 상기 셔터부를 제어하는 동작; 및
    상기 적어도 하나의 이미지 중 제 2 이미지를 외부 방향으로 출력하여 표시되도록 상기 셔터부를 제어하는 동작;
    을 포함하는 것을 특징으로 하는 방법.
  12. 제 11 항에 있어서,
    상기 프로젝터에 상기 적어도 하나의 이미지를 송신하는 동작을 더 포함하는 것을 특징으로 하는 방법.
  13. 제 11 항에 있어서,
    상기 프로젝터에 상기 적어도 하나의 이미지를 송신하는 동작은,
    상기 프로젝터가 상기 착용형 전자장치에 부착된 경우 연결부를 통해 유선으로 상기 프로젝터에게 상기 적어도 하나의 이미지를 송신하는 동작; 및
    상기 프로젝터가 상기 착용형 전자장치로부터 분리된 경우 무선통신부를 통해 무선으로 상기 프로젝터에게 상기 적어도 하나의 이미지를 송신하는 동작을 포함하는 것을 특징으로 하는 방법.
  14. 제 11 항에 있어서,
    상기 셔터부를 제어하는 동작은,
    모드 전환 신호가 확인된 경우 상기 적어도 하나의 이미지 중 상기 제 2 이미지는 상기 셔터부를 통과해서 외부에 표시되고, 상기 제 1 이미지는 상기 셔터부에 반사되어 상기 글라스에 표시되도록 상기 셔터부를 제어하는 동작을 포함하는 것을 특징으로 하는 방법.
  15. 제 14 항에 있어서,
    상기 셔터부는,
    일정한 시간 간격으로 셔터가 열고 닫히도록 제어되는 것을 특징으로 하는 방법.
  16. 제 14 항에 있어서,
    상기 셔터부를 제어하는 동작은,
    상기 모드 전환 신호가 확인되지 않는 경우 상기 적어도 하나의 이미지를 외부로 표시하도록 상기 셔터부를 제어하는 동작을 포함하는 것을 특징으로 하는 방법.
  17. 제 11 항에 있어서,
    상기 글라스는,
    상기 프로젝터로부터 출력된 상기 적어도 하나의 이미지를 반사시키기 위한 반투명 반사판을 포함하는 것을 특징으로 하는 방법.
  18. 제 17 항에 있어서,
    상기 반투명 반사판은,
    사용자의 설정에 따라 상기 반투명 반사판의 투명도가 조절되고,
    상기 사용자가 상기 적어도 하나의 이미지를 확인할 수 있도록 상기 적어도 하나의 이미지를 투영하는 것을 특징으로 하는 방법.
  19. 제 11 항에 있어서,
    상기 착용형 전자장치는 안경형이되,
    상기 안경형 전자장치는,
    왼쪽 안경형 전자장치 다리;
    오른쪽 안경형 전자장치 다리; 및
    상기 두 안경 다리를 연결하는 연결재를 포함하고,
    상기 연결재에 연결된 배터리를 통해 상기 안경형 전자장치에 전원을 공급하는 동작을 포함하는 것을 특징으로 하는 방법.
  20. 셔터부 및 프로젝터를 구비한 착용형 전자장치의 이미지 출력 방법에 있어서, 상기 프로젝터로부터 출력된 상기 적어도 하나의 이미지 중 제 1 이미지를 반사시켜서 글라스에 표시되도록 상기 셔터부를 제어하고, 상기 적어도 하나의 이미지 중 제 2 이미지를 외부 방향으로 출력하여 표시되도록 상기 셔터부를 제어하는 동작을 수행하는 프로그램 명령어들을 포함하는 컴퓨터로 판독 가능한 기록 매체.



KR1020140032344A 2014-03-19 2014-03-19 프로젝터를 이용한 영상 표시 방법 및 이를 구현하는 착용형 전자장치 KR102187848B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140032344A KR102187848B1 (ko) 2014-03-19 2014-03-19 프로젝터를 이용한 영상 표시 방법 및 이를 구현하는 착용형 전자장치
US14/663,214 US10067415B2 (en) 2014-03-19 2015-03-19 Method for displaying image using projector and wearable electronic device for implementing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140032344A KR102187848B1 (ko) 2014-03-19 2014-03-19 프로젝터를 이용한 영상 표시 방법 및 이를 구현하는 착용형 전자장치

Publications (2)

Publication Number Publication Date
KR20150109205A KR20150109205A (ko) 2015-10-01
KR102187848B1 true KR102187848B1 (ko) 2020-12-07

Family

ID=54141991

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140032344A KR102187848B1 (ko) 2014-03-19 2014-03-19 프로젝터를 이용한 영상 표시 방법 및 이를 구현하는 착용형 전자장치

Country Status (2)

Country Link
US (1) US10067415B2 (ko)
KR (1) KR102187848B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106034212B (zh) * 2015-03-10 2019-02-26 深圳富泰宏精密工业有限公司 投影装置、控制装置及穿戴式投影系统
CN106997235B (zh) * 2016-01-25 2018-07-13 亮风台(上海)信息科技有限公司 用于实现增强现实交互和展示的方法、设备
JP6465070B2 (ja) * 2016-04-28 2019-02-06 京セラドキュメントソリューションズ株式会社 情報表示システム
US11022322B2 (en) * 2019-01-04 2021-06-01 Whirlpool Corporation Cooking appliance with an imaging device
JP7114564B2 (ja) * 2019-12-27 2022-08-08 マクセル株式会社 ヘッドマウントディスプレイ装置
KR102410872B1 (ko) * 2020-05-18 2022-06-21 주식회사 피앤씨솔루션 프로젝터 모드를 포함하는 머리 착용형 디스플레이 장치
JP2022175629A (ja) * 2021-05-14 2022-11-25 キヤノン株式会社 情報端末システム、情報端末システムの制御方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021373A1 (en) * 2011-07-22 2013-01-24 Vaught Benjamin I Automatic Text Scrolling On A Head-Mounted Display
US20130258270A1 (en) * 2012-03-30 2013-10-03 Google Inc. Wearable device with input and output structures

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209160B2 (en) 1995-09-20 2007-04-24 Mcnelley Steve H Versatile teleconferencing eye contact terminal
TW200426487A (en) 2003-05-23 2004-12-01 Vivavr Technology Co Ltd Projecting system
KR100809479B1 (ko) * 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
KR100819728B1 (ko) * 2006-09-15 2008-04-07 장순욱 입체카메라용 셔터장치 및 촬상장치
US7936361B2 (en) 2007-04-30 2011-05-03 Hewlett-Packard Development Company, L.P. System and method for masking and overlaying images in multiple projector system
US8830329B2 (en) 2010-10-07 2014-09-09 Sony Computer Entertainment Inc. 3-D glasses with camera based head tracking
US20120156652A1 (en) 2010-12-16 2012-06-21 Lockheed Martin Corporation Virtual shoot wall with 3d space and avatars reactive to user fire, motion, and gaze direction
US8203502B1 (en) 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
US8184067B1 (en) 2011-07-20 2012-05-22 Google Inc. Nose bridge sensor
KR20130039918A (ko) * 2011-10-13 2013-04-23 주식회사 플렉스엘시디 액티브형 입체안경
KR20150131577A (ko) * 2014-05-15 2015-11-25 엘지전자 주식회사 글래스 타입 단말기

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021373A1 (en) * 2011-07-22 2013-01-24 Vaught Benjamin I Automatic Text Scrolling On A Head-Mounted Display
US20130258270A1 (en) * 2012-03-30 2013-10-03 Google Inc. Wearable device with input and output structures

Also Published As

Publication number Publication date
KR20150109205A (ko) 2015-10-01
US20150268548A1 (en) 2015-09-24
US10067415B2 (en) 2018-09-04

Similar Documents

Publication Publication Date Title
KR102187848B1 (ko) 프로젝터를 이용한 영상 표시 방법 및 이를 구현하는 착용형 전자장치
KR102634343B1 (ko) 가상, 증강, 및 혼합 현실 시스템들 및 방법들
JP6364715B2 (ja) 透過型表示装置および透過型表示装置の制御方法
CN107667526B (zh) 电子设备及方法
JP6060512B2 (ja) 頭部装着型表示装置
US9367142B2 (en) Eyeglasses attached with projector and method of controlling the same
CN204595327U (zh) 头戴式显示装置
JP6149403B2 (ja) 表示装置、および、表示装置の制御方法
CN104898276A (zh) 头戴式显示装置
US20160035137A1 (en) Display device, method of controlling display device, and program
TWI504931B (zh) 投影系統及其投影方法
US9753293B2 (en) Three-dimensional (3D) display apparatus and system comprising a two-dimensional (2D) display terminal, light-splitting device, and transflective device
CN107003520A (zh) 透视显示器光学结构
US20160109703A1 (en) Head mounted display, method for controlling head mounted display, and computer program
CN204595329U (zh) 头戴式显示装置
KR102218207B1 (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
EP3514607B1 (en) Information processing device for display devices, information processing method for display devices, and program for display devices
JP2016024208A (ja) 表示装置、表示装置の制御方法、および、プログラム
CN204595328U (zh) 头戴式显示装置
WO2016101861A1 (zh) 头戴式显示装置
US20190137775A1 (en) Vision system and film viewing device
US12114103B2 (en) Projector with field lens
US20230004214A1 (en) Electronic apparatus and controlling method thereof
CN117222932A (zh) 眼部佩戴设备投影仪亮度控制
WO2018145463A1 (zh) 一种实现增强现实的装置及方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant