KR20140130330A - Wearable electronic device and method for controlling the same - Google Patents

Wearable electronic device and method for controlling the same Download PDF

Info

Publication number
KR20140130330A
KR20140130330A KR20130048659A KR20130048659A KR20140130330A KR 20140130330 A KR20140130330 A KR 20140130330A KR 20130048659 A KR20130048659 A KR 20130048659A KR 20130048659 A KR20130048659 A KR 20130048659A KR 20140130330 A KR20140130330 A KR 20140130330A
Authority
KR
South Korea
Prior art keywords
image
electronic device
wearable electronic
foreground
photographed
Prior art date
Application number
KR20130048659A
Other languages
Korean (ko)
Inventor
김신일
김소연
김준식
정승모
Original Assignee
(주)세이엔
인텔렉추얼디스커버리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)세이엔, 인텔렉추얼디스커버리 주식회사 filed Critical (주)세이엔
Priority to KR20130048659A priority Critical patent/KR20140130330A/en
Publication of KR20140130330A publication Critical patent/KR20140130330A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/04Viewing or reading apparatus having collapsible parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

A wearable electronic device is disclosed. The wearable electronic device comprises: a transparent or transmissive lens unit; a camera unit which captures a foreground recognized by a sight of a smart glasses wearer; a communications unit which transmits position information of the wearable electronic device; and a control unit which controls the communications unit so as to transmit, to a terminal device, an image corresponding to the foreground captured by the wearable electronic device when a request signal for requesting the foreground captured by the wearable electronic device according to the transmitted position information is received from the terminal device.

Description

착용형 전자 장치 및 그의 제어 방법{Wearable electronic device and method for controlling the same}[0001] Wearable electronic device and method for controlling same [0002]

본 발명은 안경 등과 같은 형태의 착용가능한 전자 장치를 제어하는 방법에 관한 것이다.The present invention relates to a method of controlling a wearable electronic device in the form of a pair of glasses or the like.

증강 현실은 현실 세계에 가상의 물체를 중첩함으로써 현실 세계를 보충하여 사용자에게 보여준다는 점에서 가상 현실 기술과 차이가 있으며, 가상 현실에 비해 사용자에게 보다 나은 현실감을 제공한다는 장점이 있다.The augmented reality is different from the virtual reality technology in that the virtual reality is supplemented and displayed to the user by superimposing the virtual world on the real world, which is advantageous in providing a better sense of reality to the user than the virtual reality.

일반적으로, 증강 현실은, HMD(Head Mounted Display) 또는 HUD(Head Up Display) 등과 같은 디스플레이 장치를 사용하여, 사용자의 눈 앞에 각종 정보가 표시되도록 하고 있다. 이와 더불어 제스처 인식을 이용하여 증강현실에서 증강된 물체를 조작하려는 연구도 활발히 진행되고 있다.Generally, the augmented reality uses a display device such as an HMD (Head Mounted Display) or a HUD (Head Up Display) to display various information in front of the user's eyes. In addition, researches on manipulating an augmented object in augmented reality using gesture recognition are actively under way.

HMD는 사용자의 머리 또는 기타 부분에 장착되어 좌우의 눈에 독립적인 투영 영상(projected image)을 제시함으로써, 사용자가 관찰 대상(object of view)을 주시할 때 수렴(convergence)에 의해 양안 간에 서로 다른 영상이 생성되고 이 양안 시차에 의해 깊이감의 지각이 가능하게 한다.The HMD is mounted on the user's head or other part and presents independent projected images to the left and right eyes so that when the user watches the object of view, An image is generated and the binocular parallax enables the perception of the depth sense.

또한, HUD는 유리 등과 같은 투명 글라스에 영상을 투영하여, 사용자가 투명 글라스를 통해 HUD에서 투영되는 정보와 외부 배경을 동시에 시각적으로 인식할 수 있게 해준다.The HUD also projects images in a transparent glass such as glass to allow the user to visually recognize the information projected from the HUD and the external background simultaneously through the transparent glass.

본 발명의 목적은 스포츠경기 및 공연 관람 등에서 여러 사람의 착용형 전자 장치 착용자가 협업을 하여 여러 위치 및 각도에서 영상을 촬영하여 통합하고 공유할 수 있는 착용형 전자 장치 및 그의 제어 방법을 제공함에 있다. An object of the present invention is to provide a wearable electronic device and a control method thereof, which enable a wearer of a wearable electronic device to collaborate in sports events, .

또한, 본 발명의 다른 목적은 착용형 전자 장치를 착용한 각 개인들이 실시간 방송을 하고 공유하는 방법을 통해 사용자는 다양한 위치와 각도로 촬영하여 공유된 생생한 영상을 선택하여 시청할 수 있는 착용형 전자 장치 및 그의 제어 방법을 제공함에 있다. Another object of the present invention is to provide a wearable electronic device capable of selecting and viewing a live image shared by users at various positions and angles through a method in which each individual wearing a wearable electronic device broadcasts and shares in real time, And a control method thereof.

또한, 본 발명의 또 다른 목적은 시청자 및 다른 촬영자는 특정 촬영자에게 채팅으로 원하는 촬영액션을 요청하면 특정 촬영자는 실시간으로 상기 제안을 받아 촬영액션을 취할 수 있는 착용형 전자 장치 및 그의 제어 방법을 제공함에 있다. Another object of the present invention is to provide a wearable electronic device and a control method thereof, in which a viewer and another photographer can request a specific photographer to take a desired photographing action by chatting, and a specific photographer can take a photographing action by receiving the suggestion in real time .

또한, 본 발명의 다른 또 다른 목적은 다수 촬영자들은 그들의 촬영위치를 전송하고 시청자가 선택을 하면 촬영영상을 시청자에게 전송하여 시청자의 스마트 안경 또는 단말기는 보조영상부영상 등으로 전송받은디스플레이할 수 있는 착용형 전자 장치 및 그의 제어 방법을 제공함에 있다. It is still another object of the present invention to provide a method and a system for transmitting a photographed image to a plurality of photographers and transmitting a photographed image to a viewer and transmitting the photographed image to a smart- A wearable electronic device and a control method thereof.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 착용형 전자 장치는, 투명형 또는 광투과형의 렌즈부, 상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 카메라부, 상기 착용형 전자 장치의 위치 정보를 전송하는 통신부, 상기 전송된 위치 정보에 따라 상기 착용형 전자 장치에서 촬영된 전경을 요청하는 요청 신호가 단말 장치로부터 수신되면, 상기 단말 장치에 상기 착용형 전자 장치에서 촬영된 전경에 대응되는 영상을 전송하도록 상기 통신부를 제어하는 제어부를 포함한다.According to an aspect of the present invention, there is provided a wearable electronic device including a transparent or light transmissive lens unit, a camera unit for photographing a foreground recognized by the wearer's vision, A communication unit for transmitting location information of the electronic device; a request signal requesting the foreground photographed by the wearable electronic device according to the transmitted location information, from the terminal device; And a control unit for controlling the communication unit to transmit the image corresponding to the foreground.

그리고, 상기 통신부는, 상기 단말 장치로부터 상기 촬영된 전경과는 다른 전경 촬영 요청 신호를 수신할 수 있다.The communication unit may receive a foreground photographing request signal different from the photographed foreground from the terminal device.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 착용형 전자 장치는, 투명형 또는 광투과형의 렌즈부, 상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 카메라부, 적어도 하나의 단말 장치로부터 상기 적어도 하나의 단말 장치에서 촬영된 영상을 수신하는 통신부, 상기 렌즈부에 디스플레이 영상을 표시하는 디스플레이부 및 상기 촬영된 전경에 대응하는 전경 영상 및 상기 적어도 하나의 단말 장치에서 촬영된 영상을 표시하도록 상기 디스플레이부를 제어하는 제어부를 포함한다.According to another aspect of the present invention, there is provided a wearable electronic device including a transparent or light transmissive lens unit, a camera unit for photographing a foreground recognized by the wearer's vision, A communication unit for receiving an image photographed by the at least one terminal device from one terminal device, a display unit for displaying a display image on the lens unit, and a display unit for displaying the foreground image corresponding to the photographed foreground and the at least one terminal device And a control unit for controlling the display unit to display the image.

그리고, 상기 제어부는, 상기 전경 영상을 메인 영상으로 표시하고, 상기 적어도 하나의 단말 장치에서 촬영된 영상을 보조 영상으로 표시하도록 상기 디스플레이부를 제어할 수 있다.The control unit may display the foreground image as a main image and control the display unit to display an image photographed by the at least one terminal device as an auxiliary image.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 투명형 또는 광투과형의 렌즈부를 구비한 착용형 전자 장치의 제어 방법은, 상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 단계, 상기 착용형 전자 장치의 위치 정보를 전송하는 단계, 상기 전송된 위치 정보에 따라 상기 착용형 전자 장치에서 촬영된 전경을 요청하는 요청 신호를 단말 장치로부터 수신하는 단계, 상기 단말 장치에 상기 착용형 전자 장치에서 촬영된 전경에 대응되는 영상을 전송하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of controlling a wearable electronic device having a transparent or light transmissive lens unit, the method comprising: Receiving, from the terminal device, a request signal requesting a foreground photographed by the wearable electronic device in accordance with the transmitted positional information, transmitting the position information of the wearable electronic device to the wearable electronic device, And transmitting an image corresponding to the foreground photographed by the type electronic device.

그리고, 상기 단말 장치로부터 상기 촬영된 전경과는 다른 전경 촬영 요청 신호를 수신하는 단계를 더 포함할 수 있다.The method may further include receiving a foreground photographing request signal different from the photographed foreground from the terminal device.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 투명형 또는 광투과형의 렌즈부를 구비한 착용형 전자 장치의 제어 방법은, 상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 단계, 적어도 하나의 단말 장치로부터 상기 적어도 하나의 단말 장치에서 촬영된 영상을 수신하는 단계, 상기 촬영된 전경에 대응하는 전경 영상 및 상기 적어도 하나의 단말 장치에서 촬영된 영상을 상기 렌즈부에 표시하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of controlling a wearable electronic device having a transparent or light transmissive lens unit, the method comprising: The method comprising the steps of: receiving an image photographed by the at least one terminal device from at least one terminal device; displaying a foreground image corresponding to the photographed foreground and an image photographed by the at least one terminal device on the lens part .

그리고, 상기 표시하는 단계는, 상기 전경 영상을 메인 영상으로 표시하고, 상기 적어도 하나의 단말 장치에서 촬영된 영상을 보조 영상으로 표시하도록 상기 디스플레이부를 제어할 수 있다.The displaying step may display the foreground image as a main image and control the display unit to display an image photographed by the at least one terminal device as an auxiliary image.

상술한 본 발명의 다양한 실시 예에 따르면 스마트 디스플레이 글래스 제품에 본 아이디어에 따른 협업 영상 촬영 공유 기능이 부가됨으로써, 사용자의 편의성과 흥미를 크게 향상시킬 수 있음. SNS 등을 통해 타 촬영자 및 외부 시청자와 공유함으로써, 스마트 디스플레이 글래스 사용자들의 흥미를 유발시키고 그를 통한 다양한 서비스들이 가능하게 함.According to various embodiments of the present invention described above, a smart display glass product is provided with a collaboration image shooting function according to the present invention, thereby greatly improving convenience and interest of the user. SNS and other photographers and external viewers by sharing the interest of smart display glass users, thereby enabling a variety of services through.

도 1 및 도 2는 본 발명의 일실시예에 따른 착용형 전자 장치의 구성을 나타내는 사시도들이다.
도 3은 착용형 전자 장치를 통해 사용자에게 보여지는 시야(view)에 대한 일예를 나타내는 도면이다.
도 4 및 도 5는 착용형 전자 장치의 구성에 대한 또 다른 실시예들을 나타내는 사시도들이다.
도 6은 본 발명에 따른 착용형 전자 장치의 구성에 대한 일실시예를 나타내는 블록도이다.
도 7은 본 발명의 일 실시 예에 따른 컨텐츠 제공 시스템을 나타내는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 장착용 단말 장치의 사용 일 예를 나타내는 도면이다.
도 9 내지 11은 본 발명의 일 실시 예에 따른 장착용 단말 장치의 제어 방법을 나타내는 도면이다.
1 and 2 are perspective views showing a configuration of a wearable electronic device according to an embodiment of the present invention.
Figure 3 is an illustration of an example of a view seen by a user through a wearable electronic device.
Figs. 4 and 5 are perspective views showing still another embodiment of the configuration of the wearable electronic device. Fig.
6 is a block diagram illustrating an embodiment of a configuration of a wearable electronic device according to the present invention.
7 is a diagram illustrating a content providing system according to an embodiment of the present invention.
8 is a view showing an example of using a terminal device for mounting according to an embodiment of the present invention.
9 to 11 are views showing a control method of a terminal device for mounting according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, only intended for the purpose of enabling understanding of the concepts of the present invention, and are not to be construed as limited to such specifically recited embodiments and conditions do.

또한, 본 발명의 원리, 관점 및 실시 예들 뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims hereof, the elements represented as means for performing the functions described in the detailed description include all types of software including, for example, a combination of circuit elements performing the function or firmware / microcode etc. , And is coupled with appropriate circuitry to execute the software to perform the function. It is to be understood that the invention defined by the appended claims is not to be construed as encompassing any means capable of providing such functionality, as the functions provided by the various listed means are combined and combined with the manner in which the claims require .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 착용형 전자 장치의 구성을 사시도로 도시한 것으로, 도시된 착용형 전자 장치(1)는 사용자의 눈에 근접하게 위치되도록 안경 형태로 제작될 수 있다.Fig. 1 is a perspective view showing the construction of a wearable electronic device according to an embodiment of the present invention. The wearable electronic device 1 shown in Fig. 1 can be manufactured in the form of glasses so as to be positioned close to the user's eyes.

착용형 전자 장치(1)를 전면에서 바라본 형상을 도시한 도 1을 참조하면, 본 발명의 일실시예에 따른 착용형 전자 장치(1)는 좌우 렌즈 프레임들(10, 11), 프레임 연결부(20), 좌우 걸이부들(30, 31) 및 좌우 렌즈들(50, 51)을 포함하여 구성될 수 있다.1, which shows a front view of a wearable electronic device 1, a wearable electronic device 1 according to an embodiment of the present invention includes left and right lens frames 10 and 11, 20, left and right hooking portions 30, 31, and right and left lenses 50, 51.

한편, 사진 또는 동영상의 촬영이 가능한 영상 획득 장치가 착용형 전자 장치(1)의 전면에 장착될 수 있으며, 예를 들어 도 1에 도시된 바와 같이 프레임 연결부(20)의 전면에 카메라(110)가 배치될 수 있다.1, a camera 110 may be mounted on a front surface of the frame connector 20, for example, as shown in FIG. 1, Can be disposed.

그에 따라, 사용자는, 안경 형태의 착용형 전자 장치(1)를 착용하고 이동 중에, 카메라(110)를 이용해 사진 또는 동영상을 촬영하여 저장하거나 공유할 수 있다. Accordingly, the user wears the wearable electronic device 1 in the form of a glass, and can photograph or store or share the picture or the moving picture using the camera 110 while moving.

이 경우, 카메라(110)에 의해 촬영되는 영상의 시점이 사용자의 시각에 의해 인지되는 장면의 시점과 매우 유사할 수 있다는 장점이 있다.In this case, the viewpoint of the image captured by the camera 110 may be very similar to the viewpoint of the scene recognized by the user.

또한, 카메라(110)를 이용하여 사용자의 손동작 등과 같은 제스쳐(gesture)가 인식되어, 상기 인식된 제스쳐에 따라 착용형 전자 장치(1)의 동작 또는 기능이 제어되도록 할 수 있다.In addition, a gesture such as a user's hand movements is recognized using the camera 110, and the operation or function of the wearable electronic device 1 can be controlled according to the recognized gesture.

카메라(110)가 장착되는 위치 또는 개수는 필요에 따라 변경 가능하며, 적외선 카메라 등과 같은 특수 목적의 카메라가 이용될 수도 있다.The position or the number of the camera 110 may be changed as needed, and a special-purpose camera such as an infrared camera may be used.

또한, 좌우 걸이부들(30, 31) 각각에도 특정 기능을 수행하기 위한 유닛들이 배치될 수 있다.Further, units for performing a specific function may be arranged in each of the right and left fastening portions 30 and 31. [

우측 걸이부(right side-arm, 31)에는 착용형 전자 장치(1)의 기능을 제어하기 위한 사용자 입력을 수신하는 사용자 인터페이스 장치들이 장착될 수 있다.The right side-arm 31 may be equipped with user interface devices for receiving user input for controlling the function of the wearable electronic device 1. [

예를 들어, 화면상의 커서, 메뉴 항목 등과 같은 오브젝트를 선택하거나 이동시키기 위한 트랙 볼(track ball, 100) 또는 터치 패드(touch pad, 101)가 우측 걸이부(31)에 배치될 수 있다.For example, a track ball 100 or a touch pad 101 for selecting or moving an object such as a cursor on a screen, a menu item, or the like may be disposed on the right hook 31.

착용형 전자 장치(1)에 구비되는 사용자 인터페이스 장치는 트랙 볼(100)과 터치 패드(101)에 한정되지 아니하며, 키 패드(key pad) 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등 다양한 입력 장치들이 구비될 수 있다.The user interface device provided in the wearable electronic device 1 is not limited to the track ball 100 and the touch pad 101 but may be a variety of devices such as a key pad dome switch, Input devices may be provided.

한편, 좌측 걸이부(left side-arm, 30)에는 마이크(120)가 장착될 수 있으며, 마이크(120)를 통해 인식된 사용자의 음성을 이용하여 착용형 전자 장치(1)의 동작 또는 기능이 제어될 수 있다.On the other hand, a microphone 120 may be mounted on the left side-arm 30, and the operation or function of the wearable electronic device 1 may be detected by using the voice of the user recognized through the microphone 120 Lt; / RTI >

또한, 좌측 걸이부(30)에는 센싱부(130)가 배치되어, 착용형 전자 장치(1)의 위치, 사용자 접촉 유무, 방위, 가속/감속 등과 같이 현 상태나, 사용자와 관련된 정보 등을 감지하여 착용형 전자 장치(1)의 동작을 제어하기 위한 센싱 신호를 발생시킬 수 있다.The sensing unit 130 is disposed on the left hook 30 to sense the current state of the wearable electronic device 1 such as the position of the wearable electronic device 1, presence or absence of user contact, bearing, acceleration / deceleration, Thereby generating a sensing signal for controlling the operation of the wearable electronic device 1. [

예를 들어, 센싱부(130)는 자이로 센서(gyroscope)나 가속도 센서(accelerometer) 등과 같은 동작 센서(motion detector), GPS 장치와 같은 위치 센서, 자력 센서(magnetometer), 경위 측정기(theodolite)와 같은 방향 센서, 온도 센서, 습도 센서, 풍향/풍량 센서 등을 포함할 수 있으나, 본 발명은 이에 한정되지 아니하며, 상기한 센서들 이외에 다양한 정보들을 검출할 수 있는 센서들을 추가로 포함할 수 있다.For example, the sensing unit 130 may include a motion sensor such as a gyroscope or an accelerometer, a position sensor such as a GPS device, a magnetometer, a theodolite, A direction sensor, a temperature sensor, a humidity sensor, a wind direction / wind speed sensor, and the like. However, the present invention is not limited thereto and may include sensors capable of detecting various information in addition to the above sensors.

예를 들어, 센싱부(130)는 적외선 센서를 더 구비할 수 있으며, 상기 적외선 센서는 적외선을 방출하는 발광부와 적외선을 수신하는 수광부를 포함하여 구성되어, 적외선 통신이나 근접도 측정 등에 이용될 수 있다.For example, the sensing unit 130 may further include an infrared sensor. The infrared sensor includes a light emitting unit that emits infrared rays and a light receiving unit that receives infrared rays. The infrared sensor may be used for infrared communication, .

본 발명의 일실시예에 따른 착용형 전자 장치(1)는 외부 장치와의 통신을 위한 통신부(140)를 포함할 수 있다.The wearable electronic device 1 according to an embodiment of the present invention may include a communication unit 140 for communication with an external device.

예를 들어, 통신부(140)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈 및 근거리 통신 모듈 등을 포함할 수 있다.For example, the communication unit 140 may include a broadcast receiving module, a mobile communication module, a wireless Internet module, and a local communication module.

방송 수신 모듈은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.The broadcast receiving module receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may be a server for generating and transmitting broadcast signals and / or broadcast-related information, or a server for receiving broadcast signals and / or broadcast-related information generated by the broadcast server and transmitting the generated broadcast signals and / or broadcast- The broadcast-related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

한편, 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 이동통신 모듈에 의해 수신될 수 있다.Meanwhile, the broadcast-related information may be provided through a mobile communication network, and in this case, it may be received by a mobile communication module.

방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.Broadcast-related information can exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

방송 수신 모듈은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 방송 수신 모듈은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module may be a DMB-T (Digital Multimedia Broadcasting-Terrestrial), a DMB-S (Digital Multimedia Broadcasting-Satellite), a MediaFLO (Media Forward Link Only), a DVB- And a digital broadcasting system such as ISDB-T (Integrated Services Digital Broadcast-Terrestrial). Of course, the broadcast receiving module may be configured to be suitable not only for the digital broadcasting system described above but also for all broadcasting systems that provide broadcasting signals.

방송 수신 모듈을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in a memory.

한편, 이동통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. On the other hand, the mobile communication module transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈은 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module refers to a module for wireless Internet access, and the wireless Internet module can be built in or externally. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module is a module for short-range communication. Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and the like can be used as the short distance communication technology.

또한, 본 발명의 일실시예에 따른 착용형 전자 장치(1)는 영상을 디스플레이하여 사용자에게 시각적인 정보를 전달하기 위한 디스플레이 장치를 포함할 수 있다.In addition, the wearable electronic device 1 according to an embodiment of the present invention may include a display device for displaying an image to transmit visual information to a user.

사용자가 상기 디스플레이 장치에 의해 표시되는 정보와 함께 앞에 펼쳐진 전경(front view)를 볼 수 있도록 하기 위하여, 상기 디스플레이 장치는 투명형 또는 광투과형의 유닛을 포함하여 구성될 수 있다.The display device may be configured to include a transparent or light transmissive unit so that a user can see a front view that is displayed in front of the information displayed by the display device.

예를 들어, 도 1에 도시된 좌우 렌즈들(50, 51) 중 적어도 하나가 상기한 바와 같은 투명 디스플레이의 기능을 하도록 하여, 사용자는 렌즈에 형성된 텍스트 또는 이미지 등을 시각적으로 인지함과 동시에 전경을 볼 수 있다.For example, at least one of the left and right lenses 50, 51 shown in Fig. 1 functions as a transparent display as described above, so that the user can visually recognize the text or image formed on the lens, Can be seen.

그를 위해, 착용형 전자 장치(1)는 HMD(Head Mounted Display) 또는 HUD(Head Up Display) 등과 같은 디스플레이 장치를 이용하여, 사용자의 눈 앞에 각종 정보가 표시되도록 할 수 있다.For this purpose, the wearable electronic device 1 can display various information in front of the user by using a display device such as an HMD (Head Mounted Display) or a HUD (Head Up Display).

상기 HMD는 영상을 확대하여 허상을 형성하는 렌즈와, 그 렌즈의 초점거리보다 가까운 위치에 배치된 디스플레이 패널을 포함하여 구성된다. HMD가 사용자의 머리 근처에 장착되면, 사용자가 디스플레이 패널에 표시된 영상을 렌즈를 통하여 봄으로써 그 허상을 시각적으로 인지할 수 있게 된다.The HMD includes a lens that enlarges an image to form a virtual image, and a display panel disposed at a position closer to the focal distance of the lens. When the HMD is mounted near the user's head, the user can visually recognize the virtual image by viewing the image displayed on the display panel through the lens.

한편, 상기 HUD에서는, 디스플레이 패널에 표시된 영상이 렌즈를 통하여 확대되고, 상기 확대 화상이 하프 미러에서 반사되고, 상기 반사광이 사용자에게 보여짐으로써 허상이 형성되도록 구성되어 있다. 또한, 상기 하프 미러는 외부의 광을 투과시키도록 이루어져 있으므로, 사용자는 하프미러를 투과하는 외부로부터의 광에 의해 상기 HUD에 의해 형성된 허상과 함께 전경도 볼 수 있다.In the HUD, an image displayed on a display panel is enlarged through a lens, the enlarged image is reflected by a half mirror, and the reflected light is displayed to a user, thereby forming a virtual image. In addition, since the half mirror transmits external light, the user can see the foreground as well as the virtual image formed by the HUD by the light from the outside passing through the half mirror.

그리고, 상기 디스플레이 장치는 TOLED(Transparant OLED) 등과 같은 다양한 투명 디스플레이 방식들을 이용하여 구현될 수 있다.The display device may be implemented using various transparent display methods such as TOLED (Transparent OLED).

이하에서는, 착용형 전자 장치(1)가 HUD를 구비하는 것을 예로 들어 본 발명의 일실시예를 설명하나, 본 발명은 이에 한정되지 아니한다.Hereinafter, an embodiment of the present invention will be described by exemplifying that the wearable electronic device 1 has the HUD, but the present invention is not limited thereto.

도 2에 도시된 착용형 전자 장치(1)의 후면 구성을 참조하면, 좌측 걸이부(30) 및 우측 걸이부(31) 중 적어도 하나의 후면에 프로젝터와 유사한 기능을 하는 HUD(150, 151)가 장착될 수 있다.Referring to the rear surface configuration of the wearable electronic device 1 shown in Fig. 2, HUDs 150 and 151, which function similar to a projector, are provided on the rear surface of at least one of the left hooking portion 30 and the right hooking portion 31, Can be mounted.

HUD(150, 151)로부터 방출되는 광에 의한 화상이 좌우 렌즈(50, 51)에서 반사되어 사용자에게 보여짐에 따라, HUD(150, 151)에 의해 형성되는 오브젝트(200)이 좌우 렌즈(50, 51) 상에 표시되는 것으로 사용자에게 인지될 수 있다.The image formed by the HUDs 150 and 151 is reflected by the left and right lenses 50 and 51 and is displayed to the user so that the object 200 formed by the HUDs 150 and 151 is reflected by the left and right lenses 50 and 51, 51). ≪ / RTI >

이 경우, 도 3에 도시된 바와 같이, HUD(150, 151)에 의해 좌우 렌즈(50, 51) 상에 표시되는 오브젝트(200)와 전경(250)이 사용자의 시야에 함께 관찰될 수 있다.In this case, the object 200 and the foreground 250 displayed on the left and right lenses 50 and 51 by the HUDs 150 and 151 can be observed together with the user's field of view, as shown in Fig.

HUD(150, 151)에 의해 좌우 렌즈(50, 51) 상에 표시되는 오브젝트(200)는 도 3에 도시된 바와 같은 메뉴 아이콘에 한정되지 아니하고, 텍스트나 사진 또는 동영상 등과 같은 이미지일 수 있다.The object 200 displayed on the left and right lenses 50 and 51 by the HUDs 150 and 151 is not limited to the menu icon as shown in Fig. 3 and may be an image such as text, a picture, a moving picture, or the like.

한편, 도 1 및 도 2를 참조하여 설명한 바와 같은 착용형 전자 장치(1)의 구성에 의해, 착용형 전자 장치(1)는 촬영, 전화, 메시지, SNS(Social Network Service), 네비게이션(navigation), 검색 등의 기능을 수행할 수 있다.1 and 2, the wearable electronic device 1 can be used for shooting, telephone, message, social network service (SNS), navigation, , Search, and so on.

착용형 전자 장치(1)의 기능은 구비되는 모듈들에 따라 상기한 바와 같은 기능들 이외에 다양한 기능들이 추가될 수 있다.The functions of the wearable electronic device 1 may be various functions in addition to the functions described above according to the provided modules.

예를 들어, 카메라(110)를 통해 촬영한 동영상을 통신부(140)를 통해 SNS 서버에 전송하여 다른 사용자들과 공유하는 등, 2 이상의 기능들을 융합한 기능들이 구현될 수 있다.For example, functions that combine two or more functions may be implemented by transmitting a moving image photographed through the camera 110 to the SNS server through the communication unit 140 and sharing the same with other users.

그리고, 사용자가 입체 영상을 시청할 수 있도록 하는 3D 안경 기능이 착용형 전자 장치(1)에 구현될 수도 있다.A 3D glasses function for allowing a user to view a stereoscopic image may be implemented in the wearable electronic device 1. [

예를 들어, 외부의 디스플레이 장치가 좌안 영상 또는 우안 영상을 프레임 단위로 교대로 표시함에 따라, 착용형 전자 장치(1)는 사용자의 양안을 선택적으로 개방 또는 차단시켜 사용자가 입체감을 느끼도록 할 수 있다.For example, the external display device alternately displays the left eye image or the right eye image alternately on a frame basis, so that the wearable electronic device 1 can selectively open or shut off the user's binocular to allow the user to feel a stereoscopic effect have.

즉, 착용형 전자 장치(1)는 상기 디스플레이 장치가 좌안 영상을 표시할 때 사용자의 좌안 측 셔터를 개방시키고, 상기 디스플레이장치가 우안 영상을 표시할 때는 사용자의 우안 측 셔터를 개방시켜, 사용자가 3차원 영상의 입체감을 인지할 수 있도록 한다.That is, the wearable electronic device 1 opens the user's left-side shutter when the display device displays the left-eye image, opens the right-eye-side shutter of the user when the display device displays the right- 3-D images can be recognized.

도 4 및 도 5는 착용형 전자 장치의 구성에 대한 또 다른 실시예들을 사시도로 도시한 것이다.Figures 4 and 5 show another embodiment of the construction of the wearable electronic device in perspective view.

도 4를 참조하면, 착용형 전자 장치(1)가 좌우 렌즈들 중 어느 하나(예를 들어, 우측 렌즈(51))만을 구비하여, 한쪽 눈에만 HUD 등과 같은 착용형 전자 장치(1) 내부 디스플레이 장치에서 표시되는 영상이 보여지도록 할 수 있다.4, the wearable electronic device 1 is provided with only one of the right and left lenses (for example, the right lens 51), so that only one eye can display the wearable electronic device 1 internal display So that an image displayed on the device can be displayed.

도 5를 참조하면, 사용자의 한쪽 눈(예를 들어, 좌측 눈) 부분은 렌즈에 가려지지 않은 채로 완전 개방되고, 또 다른 눈(예를 들어, 우측 눈) 부분 중 상측 일부분만이 렌즈(11)에 의해 가려지는 구조로 착용형 전자 장치(1)가 구현될 수도 있다.5, one eye (e.g., left eye) portion of the user is completely uncovered without being covered by the lens, and only an upper portion of another eye (e.g., right eye) The wearable electronic device 1 may be embodied in a structure that is shielded by the wearable electronic device 1.

위와 같은 착용형 전자 장치(1)의 형상 및 구성 등은 이용 분야, 주기능, 주사용계층 등 다양한 필요에 따라 선택되거나 변경될 수 있다.The shape and configuration of the above-described wearable electronic device 1 may be selected or changed according to various needs such as the field of use, main function, main use layer, and the like.

이하, 도 6 내지 도 20을 참조하여 본 발명의 일실시예에 따른 착용형 전자 장치를 제어하는 방법에 대해 상세히 설명하기로 한다.Hereinafter, a method of controlling a wearable electronic device according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS.

도 6은 본 발명에 따른 착용형 전자 장치의 구성에 대한 일실시예를 블록도로 도시한 것으로, 도시된 착용형 전자 장치(300)는 제어부(310), 카메라(320), 센싱부(330), 디스플레이부(340), 통신부(350) 및 저장부(360)를 포함하여 구성될 수 있다.FIG. 6 is a block diagram of an embodiment of a wearable electronic device according to the present invention. The wearable electronic device 300 includes a control unit 310, a camera 320, a sensing unit 330, A display unit 340, a communication unit 350, and a storage unit 360.

도 6을 참조하면, 제어부(310)는 통상적으로 착용형 전자 장치(300)의 전반적인 동작을 제어하며, 예를 들어 상기한 바와 같은 촬영, 전화, 메시지, SNS, 네비게이션, 검색 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(310)는 멀티 미디어 재생을 위한 멀티미디어 모듈(미도시)을 구비할 수도 있으며, 상기 멀티미디어 모듈은 제어부(310) 내에 구현될 수도 있고, 제어부(310)와 별도로 구현될 수도 있다.Referring to FIG. 6, the control unit 310 typically controls the overall operation of the wearable electronic device 300 and may include, for example, associated controls for shooting, phone, message, SNS, navigation, And processing. The controller 310 may include a multimedia module (not shown) for multimedia playback. The multimedia module may be implemented in the controller 310 or may be implemented separately from the controller 310.

제어부(310)는 상기한 바와 같은 기능을 수행하기 위한 하나 또는 그 이상의 프로세서들과 메모리를 포함하여, 카메라(320), 센싱부(330), 디스플레이부(340), 통신부(350) 및 저장부(360)로부터 입력되는 신호를 처리하여 분석하는 역할을 할 수 있다.The control unit 310 includes a camera 320, a sensing unit 330, a display unit 340, a communication unit 350, and a storage unit 350, including one or more processors and a memory for performing the functions described above. And processing the signal input from the controller 360 and analyzing the processed signal.

한편, 카메라(320)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리하며, 상기 처리된 화상 프레임은 디스플레이부(340)를 통해 표시될 수 있다.On the other hand, the camera 320 processes an image frame such as still image or moving image obtained by the image sensor in a video communication mode or a photographing mode, and the processed image frame can be displayed through the display unit 340.

카메라(320)에서 처리된 화상 프레임은 저장부(360)에 저장되거나, 통신부(350)를 통하여 외부로 전송될 수 있다. 카메라(320)는 사용 환경에 따라 2개 이상이 서로 다른 위치에 구비될 수도 있다.The image frame processed by the camera 320 may be stored in the storage unit 360 or may be transmitted to the outside via the communication unit 350. The camera 320 may be provided at two or more different positions depending on the use environment.

센싱부(330)는 상술한 센싱부(130)의 기능을 수행할 수 있다. The sensing unit 330 may perform the function of the sensing unit 130 described above.

한편, 저장부(360)는 제어부(310)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다.Meanwhile, the storage unit 360 may store a program for the operation of the control unit 310 and temporarily store input / output data (e.g., a message, a still image, a moving picture, and the like).

저장부(360)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The storage unit 360 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) (Random Access Memory), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read-only memory (PROM) A magnetic disk, and / or an optical disk.

또한, 착용형 전자 장치(300)는 인터넷상에서 저장부(360)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The wearable electronic device 300 may also operate in association with a web storage that performs storage functions of the storage 360 on the Internet.

디스플레이부(340)는 착용형 전자 장치(300)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 착용형 전자 장치(300)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시하며, 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시할 수 있다.The display unit 340 displays (outputs) information to be processed in the wearable electronic device 300. For example, when the wearable electronic device 300 is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with the call is displayed. In the video communication mode or the photographing mode, Image, UI, and GUI can be displayed.

한편, 디스플레이부(340)는 도 1 내지 도 3을 참조하여 설명한 바와 같이, 사용자가 디스플레이부(340)를 통해 표시되는 오브젝트를 앞에 펼쳐진 전경과 함께 시각적으로 인지할 수 있도록 하기 위해, HMD, HUD 또는 TOLED 등과 같은 투명 디스플레이 방식을 이용하여 구현될 수 있다. 1 to 3, the display unit 340 may include an HMD, a HUD (HUD), and a display unit (not shown) to allow the user to visually recognize an object displayed through the display unit 340, Or a transparent display method such as TOLED.

통신부(350)는 착용형 전자 장치(300)가 외부 장치(400)와 데이터 통신이 가능하도록 하기 위한 하나 또는 그 이상의 통신 모듈들을 포함할 수 있으며, 예를 들어 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치정보 모듈 등을 포함할 수 있다.The communication unit 350 may include one or more communication modules for enabling the wearable electronic device 300 to perform data communication with the external device 400 and may include, for example, a broadcast receiving module, a mobile communication module, An Internet module, a local area communication module, a location information module, and the like.

착용형 전자 장치(300)는 착용형 전자 장치(300)에 연결되는 모든 외부기기와의 통로 역할을하는 인터페이스부(미도시)를 더 구비할 수 있다.The wearable electronic device 300 may further include an interface unit (not shown) serving as a path for communication with all external devices connected to the wearable electronic device 300.

상기 인터페이스부는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 착용형 전자 장치(300) 내부의 각 구성 요소에 전달하거나, 착용형 전자 장치(300) 내부의 데이터가 외부 기기로 전송되도록 한다.The interface unit receives data from an external device or supplies power to each component in the wearable electronic device 300 or allows data in the wearable electronic device 300 to be transmitted to an external device.

예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 상기 인터페이스부에 포함될 수 있다. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit.

상기 식별 모듈은 착용형 전자 장치(300)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 착용형 전자 장치(300)와 연결될 수 있다. The identification module is a chip for storing various information for authenticating the usage right of the wearable electronic device 300. The identification module includes a user identification module (UIM), a subscriber identity module (SIM) A Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Thus, the identification device can be connected to the wearable electronic device 300 through the port.

또한, 상기 인터페이스부는 착용형 전자 장치(300)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 착용형 전자 장치(300)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.In addition, the interface may be a path through which power from the cradle is supplied to the wearable electronic device 300 when the wearable electronic device 300 is connected to an external cradle, Various command signals may be transmitted to the mobile terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

한편, 착용형 전자 장치(300)는 제어부(310)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급하는 전원 공급부(미도시)를 더 포함할 수 있다. 상기 전원 공급부는 태양열 에너지를 이용하여 충전이 가능한 시스템을 포함하여 구성될 수 있다.Meanwhile, the wearable electronic device 300 may further include a power supply unit (not shown) that receives external power and internal power under the control of the control unit 310 and supplies power required for operation of the respective components have. The power supply unit may include a system capable of charging using solar energy.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof. According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing functions. In some cases, And may be implemented by the control unit 180.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(360)에 저장되고, 제어부(310)에 의해 실행될 수 있다.According to a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that perform at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. Also, the software codes may be stored in the memory unit 360 and executed by the control unit 310. [

이하에서는, 상술한 착용형 전자 장치(300)의 구성을 기초로 본 발명의 일 실시 예에 따른 장착용 전자 장치 및 그의 제어 방법을 보다 구체적으로 설명하기로 한다.Hereinafter, a mounting electronic device and a control method thereof according to an embodiment of the present invention will be described in more detail based on the configuration of the wearable electronic device 300 described above.

카메라(320)는 착용형 전자 장치(300)를 착용한 사용자의 시선에 맞추어 사용자의 시각에 의해 인지되는 전경을 촬영할 수 있다. 이 경우, 카메라(320)는 사용자의 시선에 맞추어 사용자의 시각에 의해 인지되는 전경에 대응하는 영상(이하, 리얼(real) 영상이라 표현함)을 생성할 수 있다. The camera 320 can photograph the foreground recognized by the user's eyes in accordance with the line of sight of the wearer wearing the wearable electronic device 300. [ In this case, the camera 320 can generate an image corresponding to the foreground (hereinafter referred to as a real image) recognized by the user's viewpoint in accordance with the user's gaze.

제어부(310)는 상기 카메라(320)를 통해 촬영된 리얼 영상을 분석하고, 영상 인식을 통해 리얼 영상 내에서 오브젝트가 급격히 변하는 영역을 인식하고, 인식된 영역에서 가장 가까운 착용형 전자 장치(300)에서 촬영된 리얼 영상이 자동으로 부영상이 되도록 선택할 수 있다. 예를 들어 스포츠 관람이라면 공이 위치한 장소를 인식하여 그 장소로부터 가장 가까운 착용형 전자 장치(300)에서 촬영된 리얼 영상이 자동으로 부영상이 되도록 할 수 있다.The control unit 310 analyzes the real image photographed through the camera 320, recognizes an area where the object is rapidly changed in the real image through the image recognition, and recognizes the wearable electronic device 300 closest to the recognized region, It is possible to automatically select a real image photographed by the photographing apparatus 100 as a sub-image. For example, if the user watches sports, he / she can recognize the place where the ball is located and automatically make a real image photographed by the wearable electronic device 300 closest to the place.

또한, 제어부(310)는 음성 인식을 통하여 환호성이 큰 시점에서 촬영된 리얼 영상에 태그 등 메타데이터를 자동기록할 수 있다.In addition, the control unit 310 can automatically record metadata such as a tag in a real image photographed at a time when a cheering is great through voice recognition.

또한, 제어부(310)는 촬영 위치를 다른 착용형 전자 장치 또는 스마트폰 등과 같은 단말 장치에 전송하도록 통신부(350)를 제어할 수 있다. 이 경우, 촬영 위치를 기초로 다른 착용형 전자 장치 또는 스마트폰 등과 같은 단말 장치의 사용자가 시청 요청을 착용한 단말 장치(300)에 전송하면, 제어부(310)는 다른 착용형 전자 장치(300) 또는 스마트폰 등과 같은 단말 장치의 사용자가 요청한 리얼 영상을 다른 착용형 전자 장치(300) 또는 스마트폰 등과 같은 단말 장치에 전송하도록 통신부(350)를 제어할 수 있다. 이 경우, 다른 착용형 전자 장치 또는 스마트폰 등과 같은 단말 장치의 사용자는 자신의 장치를 이용하여 보조영상, 부영상 등으로 전송받은 리얼 영상을 표시할 수 있다. 만약, 프라이버시 보호를 위해 리얼 영상 촬영자가 시청자의 저장을 원하지 않는 장면(프라이버시 침해장면등)을 저장불가(삭제) 요청을 하면 제어부(310)는 삭제 메시지가 전송되어 해당 시간대의 영상이 저장에서 삭제되도록 할 수 있다.Further, the control unit 310 may control the communication unit 350 to transmit the photographing position to another wearing electronic device, a terminal device such as a smart phone, or the like. In this case, when the user of the terminal device such as another wearable electronic device, smart phone, or the like transmits the view request to the terminal device 300 wearing the wearer's body based on the photographing position, Or a real image requested by a user of a terminal device such as a smart phone to a terminal device such as another wearable electronic device 300 or a smart phone. In this case, a user of a terminal device such as another wearable electronic device, a smart phone or the like can display a real image transmitted to an auxiliary image, a sub-image, or the like using his / her own device. If the real image photographer requests to store (delete) a scene (privacy intrusion scenes, etc.) that the real image photographer does not want to store for privacy protection, the control unit 310 transmits a delete message, .

또한, 다른 착용형 전자 장치 또는 스마트폰 등과 같은 단말 장치에서 촬영된 리얼 영상이 수신되면, 디스플레이부(340)는 수신된 리얼 영상을 주영상, 부영상, 보조영상 중 적어도 하나로 표시할 수 있다. In addition, when a real image photographed by a terminal device such as another wearable electronic device or a smart phone is received, the display unit 340 may display the received real image as at least one of the main image, the sub-image, and the auxiliary image.

도 7은 본 발명의 일 실시 예에 따른 컨텐츠 제공 시스템을 나타내는 도면이다. 도 7을 참조하면, 본 발명의 일 실시 예에 따르면, 촬영자의 착용형 전자 장치(300)와 스마트폰이 협력하여 네트워킹할 수 있다. 즉, 촬영자 A의 영상은 촬영자 A의 안경에서 촬영하여 스마트폰을 거쳐 4G 등 이동통신으로 촬영자 B,C의 스마트폰으로 전송되고, 촬영자 B는 촬영자 A,C의 영상을 촬영자 B 자신의 스마트폰에서 보거나 블루투스,Wifi 등을 이용하여 자신의 스마트안경으로 전송하여 자신의 촬영영상과 함께 스마트안경에서 시청할 수 있다. 원격지의 외부 시청자도 영상을 전송받아 시청할 수 있다.7 is a diagram illustrating a content providing system according to an embodiment of the present invention. Referring to FIG. 7, according to an embodiment of the present invention, a wearer's electronic device 300 of a photographer and a smartphone can cooperate with each other to network. That is, the image of the photographer A is photographed by the spectacles of the photographer A and transmitted to the smartphones of the photographers B and C through 4G or the like via the smart phone, and the photographer B transmits the images of the photographers A and C to the photographer B Or by using Bluetooth, Wifi, or the like to transmit them to their own smart glasses and watch them in smart glasses together with their photographed images. External viewers at remote locations can also receive and view video.

한편, 서버는 시청자들의 댓글을 기반으로 자동으로 영상 장면에 태그 등 메타데이터를 기록할 수 있다. 또한 특정시점 댓글수등으로 주요 장면을 표시할 수 있다. 시청자들이 “좋아요”등으로 추천하여 추천수에 따라 자동집계되어 영상 장면 태그로 등록될 수 있다. 시청자들이 부영상(착용형 전자 장치로 촬영하고 있지 않는 시청자는 부영상이 주영상임), 보조영상으로 선택한 영상장면들을 점수화하여 기록할 수 있다. 촬영자들의 다 시점 영상을 하나의 세트(파일, 폴더)로 저장하고, 이후 시청자는 녹화된 내용중 어느 것이던지 선택해서 볼 수 있다.On the other hand, the server can automatically record metadata such as tags on a video scene based on the comments of viewers. You can also display key scenes with a certain number of point-in-time comments. Viewers can be automatically registered according to the recommended number by recommending them as " good " and registered as a video scene tag. The viewers can record the video scenes selected as the sub-images (the viewers who are not shooting with the wearable electronic device as the sub-images). View image of the photographers as one set (file, folder), and then the viewer can select any of the recorded contents to view.

도 8은 본 발명의 일 실시 예에 따른 장착용 단말 장치의 사용 일 예를 나타내는 도면이다. 도 8을 참조하면, 스포츠경기 및 공연 관람 등에서 여러 사람의 스마트 안경 착용자가 협업을 하여 여러 위치 및 각도에서 영상을 촬영하여 통합하고 공유할 수 있다. 스마트 안경을 착용한 각 개인들이 실시간 방송을 하고 공유할 수 있다. 스마트 안경을 착용한 다수 촬영자들은 그들의 촬영위치를 전송하고 시청자가 선택을 하면 촬영영상을 시청자에게 전송하여 시청자의 스마트 안경 또는 단말기는 보조영상, 부영상 등으로 전송받은 영상을 디스플레이할 수 있다. 스마트 안경을 착용한 다수 촬영자의 위치를 시청자 및 다른 촬영자에게 전송할 수 있다. 여기기서 도 8은, 다음은 축구 경기장에서 각 개인들이 협업으로 방송하는 예로서, 관람객 촬영자 A~D의 협업으로 촬영 및 방송할 수 있다.8 is a view showing an example of using a terminal device for mounting according to an embodiment of the present invention. Referring to FIG. 8, a smart spectacle wearer collaborates with a plurality of people in a sports game, a performance show, etc., so that they can photograph and integrate and share images at various positions and angles. Individuals wearing smart glasses can broadcast and share in real time. A plurality of photographers wearing smart glasses transmit their photographed positions, and when a viewer selects the photographed images, the photographed images are transmitted to the viewer so that the smart glasses of the viewer or the terminal can display the images transmitted through the auxiliary image and the sub-image. The position of a plurality of photographers wearing smart glasses can be transmitted to viewers and other photographers. Here, FIG. 8 shows an example in which each individual is cooperatively broadcasted in a soccer field, and can be photographed and broadcasted in cooperation with the photographers A to D of the audience.

도 9는 본 발명의 일 실시 예에 따른 장착용 단말 장치의 제어 방법을 나타내는 도면이다. 도 9를 참조하면, 스마트 안경 착용 관람객 A에게는 도 9와 같이 화면이 보일 수 있다. 관람객 A는 리얼 영상 A를 보면서, 디스플레이된 부영상과 보조영상을 시청할 수 있다.9 is a diagram illustrating a control method of a terminal device for mounting according to an embodiment of the present invention. Referring to FIG. 9, a screen can be displayed to the visitor A wearing smart glasses, as shown in FIG. The viewer A can watch the displayed sub-image and the auxiliary image while viewing the real image A.

관람객 A의 스마트 안경은 리얼 영상 A 외에 다른 스마트 안경 관람객들이 촬영한 영상들을 보조영상으로 디스플레이하고(그림에서는 C, D 관람객들의 촬영 영상이 보조영상으로 표시), 관람객 A는 리얼 영상인 주영상 외에 보조영상과 부영상을 시청할 수 있다. 부영상은 보조영상 중에서 사용자가 선택하면 보조영상보다 더 크고 선명한 화질로 전송받아 제공될 수 있다. 상기에서 관람객 A는 B~D 관람객의 보조영상 중에서 B 관람객이 시청 및 촬영하고 있는 B 영상을 선택하였고, 선택된 B 영상은 B 관람객으로부터 더 선명한 화질로 전송받아 부영상으로 시청될 수 있다.The smart glasses of the viewer A displays the images captured by the other smart-eye spectators other than the real image A as auxiliary images (the captured images of the C and D viewers are displayed as auxiliary images), and the viewer A displays the real images The auxiliary image and the sub-image can be viewed. The sub-image may be transmitted and received in a larger and clear image quality than the sub-image when the user selects the sub-image. In the above, the viewer A selects a B image viewed and photographed by the B viewer from among the auxiliary images of the B through D spectators, and the selected B image can be viewed as a sub-image by receiving the clearer image quality from the B viewer.

한편, 다수의 관람객 촬영자들은 그들의 촬영위치만 전송하고 시청자가 부영상, 보조영상으로 선택을 해야 보조영상, 부영상으로 전송받을 수 있다. 다수 관람객 촬영자들의 위치를 경기장, 공연장 이미지와 함께 보조영상으로 표현하여 사용자가 촬영위치를 직관적으로 알게할 수 있다.On the other hand, a plurality of spectator photographers transmit only their photographing positions, and a viewer must select a sub-image or a sub-image to receive the sub-image or the sub-image. The position of a large number of viewers' photographers can be represented as an auxiliary image together with a stadium and a venue image so that a user can intuitively know a photographing position.

도 10은 본 발명의 일 실시 예에 따른 장착용 단말 장치의 제어 방법을 나타내는 도면이다. 도 10을 참조하면, 시청자 및 다른 촬영자는 특정 촬영자에게 채팅이나 영상에의 표시 등으로 원하는 촬영액션을 요청하면 특정 촬영자는 실시간으로 상기 제안을 받아 시선이동등 으로 촬영액션을 취할 수 있다. 이 경우, 도 10과 같이 관람객 D는 관람객 A의 촬영영상에 관람객 A가 촬영해주기를 원하는 중심 위치 표시를 함으로써 관람객 A에게 요청할 수 있다. 상기 요청은 음성,문자 채팅을 통해서도 전송가능하고, 음성명령, 터치명령, 동작인식명령, 시선인식명령 등을 통해 A의 촬영영상에 표시를 함으로써 전송가능할 수 있다. 10 is a diagram illustrating a control method of a terminal device for mounting according to an embodiment of the present invention. Referring to FIG. 10, when a viewer and another photographer request a specific photographer to perform a desired photographing action by chatting, display on an image, or the like, a specific photographer can take a photographing action by moving his gaze in response to the suggestion in real time. In this case, as shown in FIG. 10, the viewer D can request the viewer A to display the center position desired by the viewer A to photograph the captured image of the viewer A. The request can be transmitted through voice or text chat, and can be transmitted by displaying the captured image of A through a voice command, a touch command, an operation recognition command, a sight recognition command, or the like.

도 11은 본 발명의 일 실시 예에 따른 장착용 단말 장치의 제어 방법을 나타내는 도면이다. 도 11을 참조하면, 관람객 D의 상기 촬영 요청이 관람객 A에게 전송되어 표시될 수 있다. A가 D의 요청에 응하여 시선을 이동하면 그대로 촬영되어 공유될 수 있다. 11 is a diagram illustrating a control method of a terminal device for mounting according to an embodiment of the present invention. Referring to FIG. 11, the photographing request of the visitor D can be transmitted to the visitor A and displayed. If A moves his gaze in response to the request of D, he can be photographed and shared as it is.

한편, 본 발명의 일 실시 예에 따르면, 촬영영상 공유시 촬영영상을 그대로 전송하지 않고 촬영영상에 효과(눈내리는 효과, 안개/후광효과, 배경컬러변경, 게임 또는 애니메이션 속에 있는 느낌 제공 등)를 주어 전송(촬영자가 감독임)할 수 있다.Meanwhile, according to an embodiment of the present invention, when the shot image is shared, the shot image is not transmitted as it is, and effects (such as a snowing effect, a fog / halo effect, a background color change, The subject can be transferred (supervised by the photographer).

또한, 본 발명의 일 실시 예에 따르면, 보조영상중 부영상(촬영자가 아닌 외부 시청자인 경우에는 주영상)의 자동선택할 수 있다. 이 경우, 사용자의 기호에 따라 또는 과거 습관 데이터에 따라 선택할 수 있다. 또는 영상인식을 통해 보조영상중 촬영 영상의 오브젝트가 급격히 변하는 영상을 부영상으로 자동선택할 수 있다. 예를 들어 스포츠 관람이라면 공이 위치한 장소로부터 가장 가까운 촬영자의 영상이 자동으로 부영상이 될 수 있다.In addition, according to an embodiment of the present invention, sub-images (main image in the case of an external viewer, not a photographer) among the sub-images can be automatically selected. In this case, it can be selected according to the preference of the user or according to the past habit data. Alternatively, an image in which the object of the photographed image suddenly changes among the auxiliary images can be automatically selected as a sub-image through image recognition. For example, in sports, the image of the photographer closest to the place where the ball is located may automatically become a sub-image.

또한, 본 발명의 일 실시 예에 따르면, 음성인식, 영상인식을 통해 환호성이 큰 장면을 영상에 태그 등 메타데이터(“박지성 슛!”과 같은 태그)를 자동기록할 수 있다. 시청자들의 댓글을 기반으로 자동으로 영상 장면에 태그 등 메타데이터를 기록할 수 있다. 또한 특정시점 댓글수등으로 주요 장면을 표시함. 시청자들이 “좋아요”등으로 추천하여 추천수에 따라 자동집계되어 영상 장면 태그로 등록됨. 시청자들이 부영상(스마트안경으로 촬영하고 있지 않는 사용자는 부영상이 주영상임), 보조영상으로 선택한 영상장면들이 점수화되어 기록될 수 있다.Also, according to an embodiment of the present invention, metadata (e.g., tags such as "Park Ji-sung Shoot!") Such as a tag on an image of a scene with a large accent can be automatically recorded through speech recognition and image recognition. Based on the comments of viewers, it is possible to automatically record metadata such as tags on the video scene. It also displays key scenes with a certain number of comments. Viewers are referred to as "Likes", etc. The viewers can record the sub-images (the users who are not photographed with the smart glasses are still in the sub-image) and the scenes selected as the sub-images can be scored and recorded.

또한, 본 발명의 일 실시 예에 따르면, 프라이버시 보호를 위해 촬영자가 시청자의 저장을 원하지 않는 장면(프라이버시 침해장면등)을 저장불가(삭제) 요청을 하면 삭제 메시지가 전송되어 해당 시간대의 영상이 저장에서 삭제될 수 있다.In addition, according to one embodiment of the present invention, when a photographer requests to store (delete) a scene (privacy invasion scene, etc.) which the photographer does not want to store, the deletion message is transmitted, Lt; / RTI >

또한, 본 발명의 일 실시 예에 따르면, 촬영자들의 다시점 영상이 하나의 세트(파일, 폴더)로 저장되고, 이후 시청자는 녹화된 내용중 어느 것이던지 선택해서 볼 수 있다.Also, according to an embodiment of the present invention, the multi-view images of the photographers are stored as one set (file, folder), and the viewer can select any of the recorded contents to view.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. Meanwhile, the method according to various embodiments of the present invention described above may be implemented in program code and provided to each server or devices in a state stored in various non-transitory computer readable media.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

300 : 착용형 전자 장치 310 : 제어부
320 : 카메라 330 : 센싱부
340 : 디스플레이부 350 : 통신부
360 : 저장부 400 : 외부 장치
300: wearable electronic device 310:
320: camera 330: sensing unit
340: display unit 350: communication unit
360: storage unit 400: external device

Claims (8)

착용형 전자 장치에 있어서,
투명형 또는 광투과형의 렌즈부;
상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 카메라부;
상기 착용형 전자 장치의 위치 정보를 전송하는 통신부;
상기 전송된 위치 정보에 따라 상기 착용형 전자 장치에서 촬영된 전경을 요청하는 요청 신호가 단말 장치로부터 수신되면, 상기 단말 장치에 상기 착용형 전자 장치에서 촬영된 전경에 대응되는 영상을 전송하도록 상기 통신부를 제어하는 제어부;를 포함하는 착용형 전자 장치.
In a wearable electronic device,
A transparent or light transmissive lens unit;
A camera unit for photographing a foreground recognized by the smart glasses wearer;
A communication unit for transmitting position information of the wearable electronic device;
When a request signal requesting foreground photographed by the wearable electronic device is received from the terminal device according to the transmitted positional information, the communication device transmits the image corresponding to the foreground photographed by the wearable electronic device to the terminal device, And a control unit for controlling the electronic device.
제1항에 있어서,
상기 통신부는,
상기 단말 장치로부터 상기 촬영된 전경과는 다른 전경 촬영 요청 신호를 수신하는 것을 특징으로 하는 착용형 전자 장치.
The method according to claim 1,
Wherein,
And a foreground photographing request signal different from the foreground photographing is received from the terminal device.
착용형 전자 장치에 있어서,
투명형 또는 광투과형의 렌즈부;
상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 카메라부;
적어도 하나의 단말 장치로부터 상기 적어도 하나의 단말 장치에서 촬영된 영상을 수신하는 통신부;
상기 렌즈부에 디스플레이 영상을 표시하는 디스플레이부; 및
상기 촬영된 전경에 대응하는 전경 영상 및 상기 적어도 하나의 단말 장치에서 촬영된 영상을 표시하도록 상기 디스플레이부를 제어하는 제어부;를 포함하는 착용형 전자 장치.
In a wearable electronic device,
A transparent or light transmissive lens unit;
A camera unit for photographing a foreground recognized by the smart glasses wearer;
A communication unit for receiving an image photographed by the at least one terminal device from at least one terminal device;
A display unit for displaying a display image on the lens unit; And
And a control unit for controlling the display unit to display a foreground image corresponding to the photographed foreground and an image photographed at the at least one terminal apparatus.
제3항에 있어서,
상기 제어부는,
상기 전경 영상을 메인 영상으로 표시하고,
상기 적어도 하나의 단말 장치에서 촬영된 영상을 보조 영상으로 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 착용형 전자 장치.
The method of claim 3,
Wherein,
Displaying the foreground image as a main image,
And controls the display unit to display an image photographed by the at least one terminal device as an auxiliary image.
투명형 또는 광투과형의 렌즈부를 구비한 착용형 전자 장치의 제어 방법에 있어서,
상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 단계;
상기 착용형 전자 장치의 위치 정보를 전송하는 단계;
상기 전송된 위치 정보에 따라 상기 착용형 전자 장치에서 촬영된 전경을 요청하는 요청 신호를 단말 장치로부터 수신하는 단계;
상기 단말 장치에 상기 착용형 전자 장치에서 촬영된 전경에 대응되는 영상을 전송하는 단계;를 포함하는 제어 방법.
A control method of a wearable electronic device having a transparent or light transmissive lens portion,
Photographing a foreground recognized by the smart spectacle wearer;
Transmitting location information of the wearable electronic device;
Receiving from the terminal device a request signal requesting a foreground photographed by the wearable electronic device according to the transmitted location information;
And transmitting the image corresponding to the foreground photographed by the wearable electronic device to the terminal device.
제5항에 있어서,
상기 단말 장치로부터 상기 촬영된 전경과는 다른 전경 촬영 요청 신호를 수신하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
6. The method of claim 5,
And receiving a foreground photographing request signal different from the photographed foreground from the terminal device.
투명형 또는 광투과형의 렌즈부를 구비한 착용형 전자 장치의 제어 방법에 있어서,
상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 단계;
적어도 하나의 단말 장치로부터 상기 적어도 하나의 단말 장치에서 촬영된 영상을 수신하는 단계;
상기 촬영된 전경에 대응하는 전경 영상 및 상기 적어도 하나의 단말 장치에서 촬영된 영상을 상기 렌즈부에 표시하는 단계;를 포함하는 제어 방법.
A control method of a wearable electronic device having a transparent or light transmissive lens portion,
Photographing a foreground recognized by the smart spectacle wearer;
Receiving an image photographed by the at least one terminal device from at least one terminal device;
Displaying a foreground image corresponding to the photographed foreground and an image photographed by the at least one terminal apparatus on the lens unit.
제7항에 있어서,
상기 표시하는 단계는,
상기 전경 영상을 메인 영상으로 표시하고,
상기 적어도 하나의 단말 장치에서 촬영된 영상을 보조 영상으로 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 제어 방법.
8. The method of claim 7,
Wherein the displaying comprises:
Displaying the foreground image as a main image,
Wherein the control unit controls the display unit to display an image photographed by the at least one terminal device as an auxiliary image.
KR20130048659A 2013-04-30 2013-04-30 Wearable electronic device and method for controlling the same KR20140130330A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130048659A KR20140130330A (en) 2013-04-30 2013-04-30 Wearable electronic device and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130048659A KR20140130330A (en) 2013-04-30 2013-04-30 Wearable electronic device and method for controlling the same

Publications (1)

Publication Number Publication Date
KR20140130330A true KR20140130330A (en) 2014-11-10

Family

ID=52452290

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130048659A KR20140130330A (en) 2013-04-30 2013-04-30 Wearable electronic device and method for controlling the same

Country Status (1)

Country Link
KR (1) KR20140130330A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016104873A1 (en) * 2014-12-26 2016-06-30 Lg Electronics Inc. Digital device and method of controlling therefor
WO2018084359A1 (en) * 2016-11-04 2018-05-11 이장근 Experience sharing system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016104873A1 (en) * 2014-12-26 2016-06-30 Lg Electronics Inc. Digital device and method of controlling therefor
CN107111860A (en) * 2014-12-26 2017-08-29 Lg 电子株式会社 Digital device and its control method
US9756251B2 (en) 2014-12-26 2017-09-05 Lg Electronics Inc. Digital device and method of controlling therefor
CN107111860B (en) * 2014-12-26 2021-01-22 Lg 电子株式会社 Digital device and control method thereof
WO2018084359A1 (en) * 2016-11-04 2018-05-11 이장근 Experience sharing system
CN109964481A (en) * 2016-11-04 2019-07-02 李长根 Experience shared system
JP2020506565A (en) * 2016-11-04 2020-02-27 リ,ジャングン Experience sharing system
US10778956B2 (en) 2016-11-04 2020-09-15 Janggeun LEE Experience sharing system comprising smart glasses and virtual reality or smartphone device

Similar Documents

Publication Publication Date Title
KR20140130321A (en) Wearable electronic device and method for controlling the same
JP6428268B2 (en) Image display device, image display method, and image display system
US11024083B2 (en) Server, user terminal device, and control method therefor
US9696548B2 (en) Stereoscopic video observation device and transmittance control method
KR101691833B1 (en) Mobile terminal and Method for controlling photographing image thereof
KR101852811B1 (en) Display device and method for controlling thereof
US20160291327A1 (en) Glass-type image display device and method for controlling same
US9282310B2 (en) Mobile terminal and control method thereof
KR20140130331A (en) Wearable electronic device and method for controlling the same
KR20140128489A (en) Smart glass using image recognition and touch interface and control method thereof
KR20130052280A (en) A process for processing a three-dimensional image and a method for controlling electric power of the same
KR101737840B1 (en) Mobile terminal and method for controlling the same
KR20140130332A (en) Wearable electronic device and method for controlling the same
CN106954093B (en) Panoramic video processing method, device and system
KR20140130330A (en) Wearable electronic device and method for controlling the same
KR20200003291A (en) Master device, slave device and control method thereof
KR20160048266A (en) Display device and method for mixed displaying 2 dimensional image and 3 dimensional image
KR20130065074A (en) Electronic device and controlling method for electronic device
KR20150009744A (en) Method for providing user interface of mobile terminal using transparent flexible display
KR20140130313A (en) Wearable electronic device and method for controlling the same
KR20140130327A (en) Wearable electronic device and method for controlling the same
KR20160048269A (en) Viewing device and method for 2 dimensional image display and 3 dimensional image display
KR101833828B1 (en) Mobile terminal and method for controlling thereof
KR101853663B1 (en) Mobile terminal
KR101830655B1 (en) Method for displaying live view for stereoscopic camera

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid