KR20140128489A - Smart glass using image recognition and touch interface and control method thereof - Google Patents

Smart glass using image recognition and touch interface and control method thereof Download PDF

Info

Publication number
KR20140128489A
KR20140128489A KR20130046179A KR20130046179A KR20140128489A KR 20140128489 A KR20140128489 A KR 20140128489A KR 20130046179 A KR20130046179 A KR 20130046179A KR 20130046179 A KR20130046179 A KR 20130046179A KR 20140128489 A KR20140128489 A KR 20140128489A
Authority
KR
South Korea
Prior art keywords
unit
additional information
smart glasses
foreground
user
Prior art date
Application number
KR20130046179A
Other languages
Korean (ko)
Inventor
김소연
정승모
Original Assignee
(주)세이엔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)세이엔 filed Critical (주)세이엔
Priority to KR20130046179A priority Critical patent/KR20140128489A/en
Publication of KR20140128489A publication Critical patent/KR20140128489A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is a smart glass. The smart glass comprises a storage unit, a transparent or light-transmissive lens unit, a camera unit imaging a foreground recognized by eyes of a user who wears the smart glass, a touch interface unit receiving a user touch input applied to the smart glass, a display unit displaying additional information on the lens unit to provide visual additional information in addition to the foreground recognized by the eyes of the user who wears the smart glass, and a control unit performing an operation corresponding to selected additional information when one of additional information displayed on the lens unit is selected by the received touch input.

Description

영상 인식과 터치 인터페이스를 이용한 스마트 안경 및 그의 제어 방법{SMART GLASS USING IMAGE RECOGNITION AND TOUCH INTERFACE AND CONTROL METHOD THEREOF}TECHNICAL FIELD [0001] The present invention relates to a smart eyeglass and a control method thereof,

본 발명은 영상 인식과 터치 인터페이스를 이용한 스마트 안경 및 그의 제어 방법에 관한 것이다.The present invention relates to smart glasses using image recognition and a touch interface, and a control method thereof.

증강 현실은 현실 세계에 가상의 물체를 중첩함으로써 현실 세계를 보충하여 사용자에게 보여준다는 점에서 가상 현실 기술과 차이가 있으며, 가상 현실에 비해 사용자에게 보다 나은 현실감을 제공한다는 장점이 있다.The augmented reality is different from the virtual reality technology in that the virtual reality is supplemented and displayed to the user by superimposing the virtual world on the real world, which is advantageous in providing a better sense of reality to the user than the virtual reality.

일반적으로, 증강 현실은, HMD(Head Mounted Display) 또는 HUD(Head Up Display) 등과 같은 디스플레이 장치를 사용하여, 사용자의 눈 앞에 각종 정보가 표시되도록 하고 있다. 이와 더불어 제스처 인식을 이용하여 증강현실에서 증강된 물체를 조작하려는 연구도 활발히 진행되고 있다.Generally, the augmented reality uses a display device such as an HMD (Head Mounted Display) or a HUD (Head Up Display) to display various information in front of the user's eyes. In addition, researches on manipulating an augmented object in augmented reality using gesture recognition are actively under way.

HMD는 사용자의 머리 또는 기타 부분에 장착되어 좌우의 눈에 독립적인 투영 영상(projected image)을 제시함으로써, 사용자가 관찰 대상(object of view)을 주시할 때 수렴(convergence)에 의해 양안 간에 서로 다른 영상이 생성되고 이 양안 시차에 의해 깊이감의 지각이 가능하게 한다.The HMD is mounted on the user's head or other part and presents independent projected images to the left and right eyes so that when the user watches the object of view, An image is generated and the binocular parallax enables the perception of the depth sense.

또한, HUD는 유리 등과 같은 투명 글라스에 영상을 투영하여, 사용자가 투명 글라스를 통해 HUD에서 투영되는 정보와 외부 배경을 동시에 시각적으로 인식할 수 있게 해준다.The HUD also projects images in a transparent glass such as glass to allow the user to visually recognize the information projected from the HUD and the external background simultaneously through the transparent glass.

본 발명은 영상 인식과 터치 인터페이스를 이용한 스마트 안경 및 그의 제어 방법을 제공함에 있다.The present invention provides smart glasses and a control method thereof using image recognition and a touch interface.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 스마트 안경은, 저장부, 투명형 또는 광투과형의 렌즈부, 상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 카메라부, 상기 스마트 안경에 대한 사용자 터치 입력을 수신하는 터치 인터페이스부, 상기 스마트 안경 착용자의 시각에 의해 인지되는 전경에 부가하여 시각적인 부가 정보를 제공하기 위하여 상기 렌즈부에 부가 정보를 표시하는 디스플레이부 및 상기 수신된 터치 입력을 통하여 상기 렌즈부에 표시된 부가 정보 중 하나의 부가 정보가 선택되면, 선택된 부가 정보에 대응되는 동작을 수행하는 제어부를 포함한다.According to another aspect of the present invention, there is provided a smart eyeglass including a storage unit, a transparent or light transmissive lens unit, a camera unit for photographing a foreground recognized by the wearer's vision, A display unit for displaying additional information in the lens unit to provide visual additional information in addition to a foreground recognized by the smart glasses wearer's eye, And a controller for performing an operation corresponding to the selected additional information when one of the additional information displayed on the lens unit is selected through touch input.

그리고, 상기 선택된 부가 정보가, 상기 전경 공유 메뉴인 경우, 상기 제어부는, 상기 카메라부를 통해 촬영된 전경에 대응되는 영상을 SNS 서버 장치에 전송하도록 상기 통신부를 제어할 수 있다.If the selected additional information is the foreground shared menu, the control unit may control the communication unit to transmit an image corresponding to the foreground shot through the camera unit to the SNS server apparatus.

또한, 상기 선택된 부가 정보가, 얼굴 인식 메뉴인 경우, 상기 제어부는, 상기 카메라부를 통해 촬영된 전경에 대응되는 영상에서 얼굴 영상을 검출하고, 상기 검출된 얼굴 영상과 상기 저장부에 저장된 얼굴 영상을 비교하여 상기 검출된 얼굴 영상에 대응되는 사용자 정보를 검출하며, 상기 검출된 사용자 정보를 표시하도록 상기 디스플레이부를 제어할 수 있다.If the selected additional information is a face recognition menu, the control unit detects a face image in an image corresponding to a foreground photographed through the camera unit, and stores the detected face image and a face image stored in the storage unit Detects the user information corresponding to the detected face image, and controls the display unit to display the detected user information.

그리고, 상기 터치 인터페이스부는, 상기 스마트 안경의 좌측 걸이부, 우측 걸이부 또는 좌우측 걸이부 양측에 배치될 수 있다.The touch interface unit may be disposed on the left hook, the right hook, or the left and right hooks of the smart glasses.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 투명형 또는 광투과형의 렌즈부를 구비한 스마트 안경의 제어 방법은, 상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 단계, 상기 스마트 안경 착용자의 시각에 의해 인지되는 전경에 부가하여 시각적인 부가 정보를 제공하기 위하여 상기 렌즈부에 부가 정보를 표시하는 단계, 상기 렌즈부에 표시된 부가 정보 중 하나의 부가 정보가 선택받기 위한 사용자 터치 입력을 수신하는 단계, 상기 수신된 터치 입력을 통하여 상기 렌즈부에 표시된 부가 정보 중 하나의 부가 정보가 선택되면, 선택된 부가 정보에 대응되는 동작을 수행하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of controlling smart glasses including a transparent or light transmissive lens unit, the method comprising: photographing a foreground recognized by the wearer of the smart glasses; Displaying additional information on the lens unit in order to provide visual additional information in addition to the foreground recognized by the smart glasses wearer's eyes, Receiving a touch input, and performing an operation corresponding to the selected additional information if one of the additional information displayed on the lens unit is selected through the received touch input.

그리고, 상기 선택된 부가 정보가, 상기 전경 공유 메뉴인 경우, 상기 카메라부를 통해 촬영된 전경에 대응되는 영상을 SNS 서버 장치에 전송하는 단계를 더 포함할 수 있다.If the selected additional information is the foreground shared menu, the method may further include transmitting the image corresponding to the foreground shot through the camera unit to the SNS server apparatus.

또한, 상기 선택된 부가 정보가, 얼굴 인식 메뉴인 경우, 상기 카메라부를 통해 촬영된 전경에 대응되는 영상에서 얼굴 영상을 검출하는 단계, 상기 검출된 얼굴 영상과 상기 저장부에 저장된 얼굴 영상을 비교하여 상기 검출된 얼굴 영상에 대응되는 사용자 정보를 검출하는 단계 및 상기 검출된 사용자 정보를 스마트 안경 착용자의 시각에 의해 인지되는 전경에 부가하여 표시하는 단계를 더 포함할 수 있다.The method may further include detecting a face image in an image corresponding to a foreground photographed through the camera unit when the selected additional information is a face recognition menu, comparing the detected face image with a face image stored in the storage unit, Detecting user information corresponding to the detected face image, and displaying the detected user information in a foreground recognized by the wearer's smartphone.

그리고, 상기 사용자 터치 입력은, 상기 스마트 안경의 좌측 걸이부, 우측 걸이부 또는 좌우측 걸이부 양측에 배치된 터치 인터페이스부를 통하여 수신될 수 있다.The user touch input may be received through a touch interface disposed on both the left and right hooks of the smart glasses.

상술한 본 발명의 다양한 실시 예에 따르면, 영상 인식과 터치 인터페이스를 이용한 스마트 안경 및 그의 제어 방법을 제공함으로써, 스마트 안경을 착용한 사용자의 사용 편의를 더욱 향상시킬 수 있다. According to various embodiments of the present invention, it is possible to further improve the usability of the user wearing the smart glasses by providing the smart glasses using the image recognition and the touch interface and the control method thereof.

도 1 및 도 2는 본 발명의 일실시예에 따른 스마트 안경의 구성을 나타내는 사시도들이다.
도 3은 스마트 안경를 통해 사용자에게 보여지는 시야(view)에 대한 일예를 나타내는 도면이다.
도 4 및 도 5는 스마트 안경의 구성에 대한 또 다른 실시예들을 나타내는 사시도들이다.
도 6은 본 발명에 따른 스마트 안경의 구성에 대한 일실시예를 나타내는 블록도이다.
FIG. 1 and FIG. 2 are perspective views illustrating the configuration of smart glasses according to an embodiment of the present invention.
3 is a view showing an example of a view shown to a user through smart glasses.
Figs. 4 and 5 are perspective views showing still another embodiment of the configuration of smart glasses. Fig.
6 is a block diagram showing an embodiment of the configuration of smart glasses according to the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, only intended for the purpose of enabling understanding of the concepts of the present invention, and are not to be construed as limited to such specifically recited embodiments and conditions do.

또한, 본 발명의 원리, 관점 및 실시 예들 뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims hereof, the elements represented as means for performing the functions described in the detailed description include all types of software including, for example, a combination of circuit elements performing the function or firmware / microcode etc. , And is coupled with appropriate circuitry to execute the software to perform the function. It is to be understood that the invention defined by the appended claims is not to be construed as encompassing any means capable of providing such functionality, as the functions provided by the various listed means are combined and combined with the manner in which the claims require .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 스마트 안경의 구성을 사시도로 도시한 것으로, 도시된 스마트 안경(1)는 사용자의 눈에 근접하게 위치되도록 안경 형태로 제작될 수 있다.FIG. 1 is a perspective view of a configuration of a smart glasses according to an embodiment of the present invention. The smart glasses 1 shown in FIG. 1 can be manufactured in the form of glasses so as to be positioned close to a user's eyes.

스마트 안경(1)를 전면에서 바라본 형상을 도시한 도 1을 참조하면, 본 발명의 일실시예에 따른 스마트 안경(1)는 좌우 렌즈 프레임들(10, 11), 프레임 연결부(20), 좌우 걸이부들(30, 31) 및 좌우 렌즈들(50, 51)을 포함하여 구성될 수 있다.1, the smart glasses 1 according to the embodiment of the present invention include left and right lens frames 10 and 11, a frame connecting portion 20, left and right lens frames 10 and 11, And may include hook portions 30 and 31 and left and right lenses 50 and 51, respectively.

한편, 사진 또는 동영상의 촬영이 가능한 영상 획득 장치가 스마트 안경(1)의 전면에 장착될 수 있으며, 예를 들어 도 1에 도시된 바와 같이 프레임 연결부(20)의 전면에 카메라(110)가 배치될 수 있다.On the other hand, an image acquisition device capable of photographing a photograph or a moving image can be mounted on the front surface of the smart glasses 1. For example, as shown in FIG. 1, a camera 110 is placed on the front surface of the frame connection part 20 .

그에 따라, 사용자는, 안경 형태의 스마트 안경(1)를 착용하고 이동 중에, 카메라(110)를 이용해 사진 또는 동영상을 촬영하여 저장하거나 공유할 수 있다. Accordingly, the user wears the smart glasses 1 in the form of glasses and can photograph or store or share the pictures or moving pictures using the camera 110 while moving.

이 경우, 카메라(110)에 의해 촬영되는 영상의 시점이 사용자의 시각에 의해 인지되는 장면의 시점과 매우 유사할 수 있다는 장점이 있다.In this case, the viewpoint of the image captured by the camera 110 may be very similar to the viewpoint of the scene recognized by the user.

또한, 카메라(110)를 이용하여 사용자의 손동작 등과 같은 제스쳐(gesture)가 인식되어, 상기 인식된 제스쳐에 따라 스마트 안경(1)의 동작 또는 기능이 제어되도록 할 수 있다.In addition, a gesture such as a user's hand movements is recognized using the camera 110, and the operation or function of the smart glasses 1 can be controlled according to the recognized gesture.

카메라(110)가 장착되는 위치 또는 개수는 필요에 따라 변경 가능하며, 적외선 카메라 등과 같은 특수 목적의 카메라가 이용될 수도 있다.The position or the number of the camera 110 may be changed as needed, and a special-purpose camera such as an infrared camera may be used.

또한, 좌우 걸이부들(30, 31) 각각에도 특정 기능을 수행하기 위한 유닛들이 배치될 수 있다.Further, units for performing a specific function may be arranged in each of the right and left fastening portions 30 and 31. [

우측 걸이부(right side-arm, 31)에는 스마트 안경(1)의 기능을 제어하기 위한 사용자 입력을 수신하는 사용자 인터페이스 장치들이 장착될 수 있다.The right side-arm 31 may be equipped with user interface devices for receiving user input for controlling the function of the smart glasses 1.

예를 들어, 화면상의 커서, 메뉴 항목 등과 같은 오브젝트를 선택하거나 이동시키기 위한 트랙 볼(track ball, 100) 또는 터치 패드(touch pad, 101)가 우측 걸이부(31)에 배치될 수 있다.For example, a track ball 100 or a touch pad 101 for selecting or moving an object such as a cursor on a screen, a menu item, or the like may be disposed on the right hook 31.

여기서 메뉴는, 스마트 안경 착용자의 시각에 의해 인지되는 전경에 표시된 사용자 얼굴을 인식하기 위한 얼굴 인식 메뉴, 카메라에 의해 촬영된 영상을 스마트 안경 착용자의 지인과 SNS를 통하여 공유하기 위한 전경 공유 메뉴를 포함할 수 있다.The menu includes a face recognition menu for recognizing the user face displayed in the foreground recognized by the smart glasses wearer, a foreground sharing menu for sharing the image photographed by the camera with the acquaintance of the smart glasses wearer through the SNS can do.

스마트 안경(1)에 구비되는 사용자 인터페이스 장치는 트랙 볼(100)과 터치 패드(101)에 한정되지 아니하며, 키 패드(key pad) 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등 다양한 입력 장치들이 구비될 수 있다.The user interface device provided in the smart glasses 1 is not limited to the track ball 100 and the touch pad 101 but may be a variety of input devices such as a key pad dome switch, Respectively.

한편, 좌측 걸이부(left side-arm, 30)에는 마이크(120)가 장착될 수 있으며, 마이크(120)를 통해 인식된 사용자의 음성을 이용하여 스마트 안경(1)의 동작 또는 기능이 제어될 수 있다.On the other hand, the microphone 120 may be mounted on the left side-arm 30, and the operation or function of the smart glasses 1 may be controlled using the user's voice recognized through the microphone 120 .

또한, 좌측 걸이부(30)에는 센싱부(130)가 배치되어, 스마트 안경(1)의 위치, 사용자 접촉 유무, 방위, 가속/감속 등과 같이 현 상태나, 사용자와 관련된 정보 등을 감지하여 스마트 안경(1)의 동작을 제어하기 위한 센싱 신호를 발생시킬 수 있다.The sensing unit 130 is disposed on the left hook 30 to sense the current state of the smart glasses 1, such as the position of the smart glasses 1, the presence of the user, the orientation, the acceleration / deceleration, It is possible to generate a sensing signal for controlling the operation of the eyeglasses 1.

예를 들어, 센싱부(130)는 자이로 센서(gyroscope)나 가속도 센서(accelerometer) 등과 같은 동작 센서(motion detector), GPS 장치와 같은 위치 센서, 자력 센서(magnetometer), 경위 측정기(theodolite)와 같은 방향 센서, 온도 센서, 습도 센서, 풍향/풍량 센서 등을 포함할 수 있으나, 본 발명은 이에 한정되지 아니하며, 상기한 센서들 이외에 다양한 정보들을 검출할 수 있는 센서들을 추가로 포함할 수 있다.For example, the sensing unit 130 may include a motion sensor such as a gyroscope or an accelerometer, a position sensor such as a GPS device, a magnetometer, a theodolite, A direction sensor, a temperature sensor, a humidity sensor, a wind direction / wind speed sensor, and the like. However, the present invention is not limited thereto and may include sensors capable of detecting various information in addition to the above sensors.

예를 들어, 센싱부(130)는 적외선 센서를 더 구비할 수 있으며, 상기 적외선 센서는 적외선을 방출하는 발광부와 적외선을 수신하는 수광부를 포함하여 구성되어, 적외선 통신이나 근접도 측정 등에 이용될 수 있다.For example, the sensing unit 130 may further include an infrared sensor. The infrared sensor includes a light emitting unit that emits infrared rays and a light receiving unit that receives infrared rays. The infrared sensor may be used for infrared communication, .

본 발명의 일실시예에 따른 스마트 안경(1)는 외부 장치와의 통신을 위한 통신부(140)를 포함할 수 있다.The smart glasses 1 according to an embodiment of the present invention may include a communication unit 140 for communication with an external device.

예를 들어, 통신부(140)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈 및 근거리 통신 모듈 등을 포함할 수 있다.For example, the communication unit 140 may include a broadcast receiving module, a mobile communication module, a wireless Internet module, and a local communication module.

방송 수신 모듈은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.The broadcast receiving module receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may be a server for generating and transmitting broadcast signals and / or broadcast-related information, or a server for receiving broadcast signals and / or broadcast-related information generated by the broadcast server and transmitting the generated broadcast signals and / or broadcast- The broadcast-related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

한편, 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 이동통신 모듈에 의해 수신될 수 있다.Meanwhile, the broadcast-related information may be provided through a mobile communication network, and in this case, it may be received by a mobile communication module.

방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.Broadcast-related information can exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

방송 수신 모듈은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 방송 수신 모듈은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module may be a DMB-T (Digital Multimedia Broadcasting-Terrestrial), a DMB-S (Digital Multimedia Broadcasting-Satellite), a MediaFLO (Media Forward Link Only), a DVB- And a digital broadcasting system such as ISDB-T (Integrated Services Digital Broadcast-Terrestrial). Of course, the broadcast receiving module may be configured to be suitable not only for the digital broadcasting system described above but also for all broadcasting systems that provide broadcasting signals.

방송 수신 모듈을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in a memory.

한편, 이동통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. On the other hand, the mobile communication module transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈은 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module refers to a module for wireless Internet access, and the wireless Internet module can be built in or externally. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module is a module for short-range communication. Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and the like can be used as the short distance communication technology.

또한, 본 발명의 일실시예에 따른 스마트 안경(1)는 영상을 디스플레이하여 사용자에게 시각적인 정보를 전달하기 위한 디스플레이 장치를 포함할 수 있다.In addition, the smart glasses 1 according to an embodiment of the present invention may include a display device for displaying images and transmitting visual information to a user.

사용자가 상기 디스플레이 장치에 의해 표시되는 정보와 함께 앞에 펼쳐진 전경(front view)를 볼 수 있도록 하기 위하여, 상기 디스플레이 장치는 투명형 또는 광투과형의 유닛을 포함하여 구성될 수 있다.The display device may be configured to include a transparent or light transmissive unit so that a user can see a front view that is displayed in front of the information displayed by the display device.

예를 들어, 도 1에 도시된 좌우 렌즈들(50, 51) 중 적어도 하나가 상기한 바와 같은 투명 디스플레이의 기능을 하도록 하여, 사용자는 렌즈에 형성된 텍스트 또는 이미지 등을 시각적으로 인지함과 동시에 전경을 볼 수 있다.For example, at least one of the left and right lenses 50, 51 shown in Fig. 1 functions as a transparent display as described above, so that the user can visually recognize the text or image formed on the lens, Can be seen.

그를 위해, 스마트 안경(1)는 HMD(Head Mounted Display) 또는 HUD(Head Up Display) 등과 같은 디스플레이 장치를 이용하여, 사용자의 눈 앞에 각종 정보가 표시되도록 할 수 있다.For this purpose, the smart glasses 1 can display various information in front of the user by using a display device such as an HMD (Head Mounted Display) or a HUD (Head Up Display).

상기 HMD는 영상을 확대하여 허상을 형성하는 렌즈와, 그 렌즈의 초점거리보다 가까운 위치에 배치된 디스플레이 패널을 포함하여 구성된다. HMD가 사용자의 머리 근처에 장착되면, 사용자가 디스플레이 패널에 표시된 영상을 렌즈를 통하여 봄으로써 그 허상을 시각적으로 인지할 수 있게 된다.The HMD includes a lens that enlarges an image to form a virtual image, and a display panel disposed at a position closer to the focal distance of the lens. When the HMD is mounted near the user's head, the user can visually recognize the virtual image by viewing the image displayed on the display panel through the lens.

한편, 상기 HUD에서는, 디스플레이 패널에 표시된 영상이 렌즈를 통하여 확대되고, 상기 확대 화상이 하프 미러에서 반사되고, 상기 반사광이 사용자에게 보여짐으로써 허상이 형성되도록 구성되어 있다. 또한, 상기 하프 미러는 외부의 광을 투과시키도록 이루어져 있으므로, 사용자는 하프미러를 투과하는 외부로부터의 광에 의해 상기 HUD에 의해 형성된 허상과 함께 전경도 볼 수 있다.In the HUD, an image displayed on a display panel is enlarged through a lens, the enlarged image is reflected by a half mirror, and the reflected light is displayed to a user, thereby forming a virtual image. In addition, since the half mirror transmits external light, the user can see the foreground as well as the virtual image formed by the HUD by the light from the outside passing through the half mirror.

그리고, 상기 디스플레이 장치는 TOLED(Transparant OLED) 등과 같은 다양한 투명 디스플레이 방식들을 이용하여 구현될 수 있다.The display device may be implemented using various transparent display methods such as TOLED (Transparent OLED).

이하에서는, 스마트 안경(1)가 HUD를 구비하는 것을 예로 들어 본 발명의 일실시예를 설명하나, 본 발명은 이에 한정되지 아니한다.Hereinafter, an embodiment of the present invention will be described by way of example in which the smart glasses 1 are provided with the HUD, but the present invention is not limited thereto.

도 2에 도시된 스마트 안경(1)의 후면 구성을 참조하면, 좌측 걸이부(30) 및 우측 걸이부(31) 중 적어도 하나의 후면에 프로젝터와 유사한 기능을 하는 HUD(150, 151)가 장착될 수 있다.Referring to the rear surface configuration of the smart glasses 1 shown in Fig. 2, HUDs 150 and 151 functioning like a projector are mounted on the rear surface of at least one of the left hooking portion 30 and the right hooking portion 31 .

HUD(150, 151)로부터 방출되는 광에 의한 화상이 좌우 렌즈(50, 51)에서 반사되어 사용자에게 보여짐에 따라, HUD(150, 151)에 의해 형성되는 오브젝트(200)이 좌우 렌즈(50, 51) 상에 표시되는 것으로 사용자에게 인지될 수 있다.The image formed by the HUDs 150 and 151 is reflected by the left and right lenses 50 and 51 and is displayed to the user so that the object 200 formed by the HUDs 150 and 151 is reflected by the left and right lenses 50 and 51, 51). ≪ / RTI >

이 경우, 도 3에 도시된 바와 같이, HUD(150, 151)에 의해 좌우 렌즈(50, 51) 상에 표시되는 오브젝트(200)와 전경(250)이 사용자의 시야에 함께 관찰될 수 있다.In this case, the object 200 and the foreground 250 displayed on the left and right lenses 50 and 51 by the HUDs 150 and 151 can be observed together with the user's field of view, as shown in Fig.

HUD(150, 151)에 의해 좌우 렌즈(50, 51) 상에 표시되는 오브젝트(200)는 도 3에 도시된 바와 같은 메뉴 아이콘에 한정되지 아니하고, 텍스트나 사진 또는 동영상 등과 같은 이미지일 수 있다.The object 200 displayed on the left and right lenses 50 and 51 by the HUDs 150 and 151 is not limited to the menu icon as shown in Fig. 3 and may be an image such as text, a picture, a moving picture, or the like.

한편, 도 1 및 도 2를 참조하여 설명한 바와 같은 스마트 안경(1)의 구성에 의해, 스마트 안경(1)는 촬영, 전화, 메시지, SNS(Social Network Service), 네비게이션(navigation), 검색 등의 기능을 수행할 수 있다.1 and FIG. 2, the smart glasses 1 can be used for shooting, telephone, message, social network service (SNS), navigation, search, etc. Function can be performed.

스마트 안경(1)의 기능은 구비되는 모듈들에 따라 상기한 바와 같은 기능들 이외에 다양한 기능들이 추가될 수 있다.The functions of the smart glasses 1 may include various functions in addition to the functions described above according to modules provided.

예를 들어, 카메라(110)를 통해 촬영한 동영상을 통신부(140)를 통해 SNS 서버에 전송하여 다른 사용자들과 공유하는 등, 2 이상의 기능들을 융합한 기능들이 구현될 수 있다.For example, functions that combine two or more functions may be implemented by transmitting a moving image photographed through the camera 110 to the SNS server through the communication unit 140 and sharing the same with other users.

그리고, 사용자가 입체 영상을 시청할 수 있도록 하는 3D 안경 기능이 스마트 안경(1)에 구현될 수도 있다.A 3D glasses function for allowing a user to view a stereoscopic image may be implemented in the smart glasses 1.

예를 들어, 외부의 디스플레이 장치가 좌안 영상 또는 우안 영상을 프레임 단위로 교대로 표시함에 따라, 스마트 안경(1)는 사용자의 양안을 선택적으로 개방 또는 차단시켜 사용자가 입체감을 느끼도록 할 수 있다.For example, the external display device alternately displays the left eye image or the right eye image alternately on a frame basis, so that the smart glasses 1 can selectively open or close both eyes of the user so that the user can feel the three-dimensional feeling.

즉, 스마트 안경(1)는 상기 디스플레이 장치가 좌안 영상을 표시할 때 사용자의 좌안 측 셔터를 개방시키고, 상기 디스플레이장치가 우안 영상을 표시할 때는 사용자의 우안 측 셔터를 개방시켜, 사용자가 3차원 영상의 입체감을 인지할 수 있도록 한다.That is, the smart glasses 1 open the user's left-side shutter when the display device displays the left-eye image, open the right-eye-side shutter of the user when the display device displays the right- So that the stereoscopic effect of the image can be recognized.

도 4 및 도 5는 스마트 안경의 구성에 대한 또 다른 실시예들을 사시도로 도시한 것이다.Figs. 4 and 5 show another embodiment of the construction of the smart glasses in a perspective view.

도 4를 참조하면, 스마트 안경(1)가 좌우 렌즈들 중 어느 하나(예를 들어, 우측 렌즈(51))만을 구비하여, 한쪽 눈에만 HUD 등과 같은 스마트 안경(1) 내부 디스플레이 장치에서 표시되는 영상이 보여지도록 할 수 있다.4, the smart glasses 1 are provided with only one of the left and right lenses (for example, the right lens 51), and are displayed on the inner display device of the smart glasses 1 such as the HUD on only one eye So that the image can be displayed.

도 5를 참조하면, 사용자의 한쪽 눈(예를 들어, 좌측 눈) 부분은 렌즈에 가려지지 않은 채로 완전 개방되고, 또 다른 눈(예를 들어, 우측 눈) 부분 중 상측 일부분만이 렌즈(11)에 의해 가려지는 구조로 스마트 안경(1)가 구현될 수도 있다.5, one eye (e.g., left eye) portion of the user is completely uncovered without being covered by the lens, and only an upper portion of another eye (e.g., right eye) The smart glasses 1 may be embodied.

위와 같은 스마트 안경(1)의 형상 및 구성 등은 이용 분야, 주기능, 주사용계층 등 다양한 필요에 따라 선택되거나 변경될 수 있다.The shape and configuration of the smart glasses 1 may be selected or changed according to various needs such as a usage field, a main function, and a usage layer.

이하, 도 6 내지 도 20을 참조하여 본 발명의 일실시예에 따른 스마트 안경를 제어하는 방법에 대해 상세히 설명하기로 한다.Hereinafter, a method of controlling the smart glasses according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS. 6 to 20. FIG.

도 6은 본 발명에 따른 스마트 안경의 구성에 대한 일실시예를 블록도로 도시한 것으로, 도시된 스마트 안경(300)는 제어부(310), 카메라(320), 센싱부(330), 디스플레이부(340), 통신부(350) 및 저장부(360)를 포함하여 구성될 수 있다.6 is a block diagram of an embodiment of the configuration of the smart glasses according to the present invention. The smart glasses 300 shown in FIG. 6 include a control unit 310, a camera 320, a sensing unit 330, a display unit 340, a communication unit 350, and a storage unit 360.

도 6을 참조하면, 제어부(310)는 통상적으로 스마트 안경(300)의 전반적인 동작을 제어하며, 예를 들어 상기한 바와 같은 촬영, 전화, 메시지, SNS, 네비게이션, 검색 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(310)는 멀티 미디어 재생을 위한 멀티미디어 모듈(미도시)을 구비할 수도 있으며, 상기 멀티미디어 모듈은 제어부(310) 내에 구현될 수도 있고, 제어부(310)와 별도로 구현될 수도 있다.6, the control unit 310 generally controls the overall operation of the smart glasses 300 and performs related control and processing for shooting, telephone, message, SNS, navigation, search, etc., . The controller 310 may include a multimedia module (not shown) for multimedia playback. The multimedia module may be implemented in the controller 310 or may be implemented separately from the controller 310.

특히 제어부(310)는 렌즈부에 표시된 부가 정보에서 선택된 메뉴가 전경 공유 메뉴인 경우, 카메라부(320)를 통해 촬영된 전경에 대응되는 영상을 SNS 서버 장치에 전송하도록 통신부(350)를 제어할 수 있다.In particular, when the menu selected in the additional information displayed on the lens unit is the foreground shared menu, the control unit 310 controls the communication unit 350 to transmit the image corresponding to the foreground shot through the camera unit 320 to the SNS server apparatus .

또한, 제어부(310)는 렌즈부에 표시된 부가 정보에서 선택된 메뉴가 얼굴 인식 메뉴인 경우, 카메라부(320)를 통해 촬영된 전경에 대응되는 영상에서 얼굴 영상을 검출하고, 검출된 얼굴 영상과 저장부(360)에 저장된 얼굴 영상을 비교하여 검출된 얼굴 영상에 대응되는 사용자 정보를 검출하며, 검출된 사용자 정보를 스마트 안경 착용자의 시각에 의해 인지되는 전경에 부가하여 표시하도록 디스플레이부(340)를 제어할 수 있다. If the menu selected in the additional information displayed on the lens unit is the face recognition menu, the control unit 310 detects the face image from the image corresponding to the foreground photographed through the camera unit 320, The face image stored in the unit 360 is detected to detect user information corresponding to the detected face image and the display unit 340 displays the detected user information in a foreground recognized by the wearer's eye Can be controlled.

제어부(310)는 상기한 바와 같은 기능을 수행하기 위한 하나 또는 그 이상의 프로세서들과 메모리를 포함하여, 카메라(320), 센싱부(330), 디스플레이부(340), 통신부(350) 및 저장부(360)로부터 입력되는 신호를 처리하여 분석하는 역할을 할 수 있다.The control unit 310 includes a camera 320, a sensing unit 330, a display unit 340, a communication unit 350, and a storage unit 350, including one or more processors and a memory for performing the functions described above. And processing the signal input from the controller 360 and analyzing the processed signal.

한편, 카메라(320)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리하며, 상기 처리된 화상 프레임은 디스플레이부(340)를 통해 표시될 수 있다.On the other hand, the camera 320 processes an image frame such as still image or moving image obtained by the image sensor in a video communication mode or a photographing mode, and the processed image frame can be displayed through the display unit 340.

카메라(320)에서 처리된 화상 프레임은 저장부(360)에 저장되거나, 통신부(350)를 통하여 외부로 전송될 수 있다. 카메라(320)는 사용 환경에 따라 2개 이상이 서로 다른 위치에 구비될 수도 있다.The image frame processed by the camera 320 may be stored in the storage unit 360 or may be transmitted to the outside via the communication unit 350. The camera 320 may be provided at two or more different positions depending on the use environment.

센싱부(330)는 스마트 안경(300)와 관련된 정보와 함께, 혈압, 혈당, 맥박, 심전도, 체온, 운동량, 얼굴, 홍채, 지문 등과 같은 사용자의 생체 정보를 획득할 수 있으며, 상기 생체 정보의 획득을 위해 하나 또는 그 이상의 센서들을 포함할 수 있다.The sensing unit 330 may acquire biometric information of a user such as blood pressure, blood sugar, pulse, electrocardiogram, body temperature, exercise amount, face, iris, fingerprint, etc., And may include one or more sensors for acquisition.

본 발명의 일실시예에 따르면, 제어부(310)는 상기 센싱부(330)에서 획득된 사용자의 생체 정보를 이용하여 사용자를 확인하여 사용자 인증 작업을 수행하고, 상기 확인 결과에 따라 스마트 안경(300)의 기능을 제어할 수 있다.According to one embodiment of the present invention, the control unit 310 performs a user authentication operation by checking the user using the biometric information of the user acquired by the sensing unit 330, and controls the smart glasses 300 ) Can be controlled.

한편, 저장부(360)는 제어부(310)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다.Meanwhile, the storage unit 360 may store a program for the operation of the control unit 310 and temporarily store input / output data (e.g., a message, a still image, a moving picture, and the like).

저장부(360)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The storage unit 360 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) (Random Access Memory), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read-only memory (PROM) A magnetic disk, and / or an optical disk.

또한, 스마트 안경(300)는 인터넷상에서 저장부(360)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The smart glasses 300 may also operate in association with a web storage that performs storage functions of the storage unit 360 over the Internet.

디스플레이부(340)는 스마트 안경(300)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 스마트 안경(300)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시하며, 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시할 수 있다.The display unit 340 displays (outputs) information processed in the smart glasses 300. For example, when the smart glasses 300 is in a call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. In the video communication mode or the photographing mode, UI, GUI can be displayed.

한편, 디스플레이부(340)는 도 1 내지 도 3을 참조하여 설명한 바와 같이, 사용자가 디스플레이부(340)를 통해 표시되는 오브젝트를 앞에 펼쳐진 전경과 함께 시각적으로 인지할 수 있도록 하기 위해, HMD, HUD 또는 TOLED 등과 같은 투명 디스플레이 방식을 이용하여 구현될 수 있다. 1 to 3, the display unit 340 may include an HMD, a HUD (HUD), and a display unit (not shown) to allow the user to visually recognize an object displayed through the display unit 340, Or a transparent display method such as TOLED.

통신부(350)는 스마트 안경(300)가 외부 장치(400)와 데이터 통신이 가능하도록 하기 위한 하나 또는 그 이상의 통신 모듈들을 포함할 수 있으며, 예를 들어 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치정보 모듈 등을 포함할 수 있다.The communication unit 350 may include one or more communication modules for allowing the smart glasses 300 to perform data communication with the external device 400. For example, the communication unit 350 may include a broadcast receiving module, a mobile communication module, A short range communication module, a location information module, and the like.

스마트 안경(300)는 스마트 안경(300)에 연결되는 모든 외부기기와의 통로 역할을하는 인터페이스부(미도시)를 더 구비할 수 있다.The smart glasses 300 may further include an interface unit (not shown) serving as a path for communication with all external devices connected to the smart glasses 300.

상기 인터페이스부는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 스마트 안경(300) 내부의 각 구성 요소에 전달하거나, 스마트 안경(300) 내부의 데이터가 외부 기기로 전송되도록 한다.The interface unit receives data from an external device or supplies power to each component in the smart glasses 300 or transmits data in the smart glasses 300 to an external device.

예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 상기 인터페이스부에 포함될 수 있다. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit.

상기 식별 모듈은 스마트 안경(300)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 스마트 안경(300)와 연결될 수 있다. The identification module is a chip for storing various information for authenticating the usage right of the smart glasses 300 and includes a user identification module (UIM), a subscriber identity module (SIM) (Universal Subscriber Identity Module, USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the smart glasses 300 through the port.

또한, 상기 인터페이스부는 스마트 안경(300)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 스마트 안경(300)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.In addition, when the smart glasses 300 are connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the smart glasses 300, or various command signals input from the cradle by the user And may be a passage to be transmitted to the mobile terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

한편, 스마트 안경(300)는 제어부(310)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급하는 전원 공급부(미도시)를 더 포함할 수 있다. 상기 전원 공급부는 태양열 에너지를 이용하여 충전이 가능한 시스템을 포함하여 구성될 수 있다.The smart glasses 300 may further include a power supply unit (not shown) that receives external power and internal power under the control of the controller 310 and supplies power required for operation of the components. The power supply unit may include a system capable of charging using solar energy.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof. According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing functions. In some cases, And may be implemented by the control unit 180.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(360)에 저장되고, 제어부(310)에 의해 실행될 수 있다.According to a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that perform at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. Also, the software codes may be stored in the memory unit 360 and executed by the control unit 310. [

이하에서는, 상술한 스마트 안경(300)의 구성을 기초로 본 발명의 일 실시 예에 따른 장착용 전자 장치 및 그의 제어 방법을 보다 구체적으로 설명하기로 한다.Hereinafter, a mounting electronic device and a control method thereof according to an embodiment of the present invention will be described in more detail based on the configuration of the smart glasses 300 described above.

카메라(320)는 스마트 안경(300)를 착용한 사용자의 시선에 맞추어 '사용자의 시각에 의해 인지되는 전경 영상'(이하, 리얼(real) 영상이라 표현함)을 촬영할 수 있다.The camera 320 may photograph a 'foreground image' (hereinafter referred to as a real image) perceived by the user's eyes in accordance with the gaze of the user wearing the smart glasses 300.

제어부(310)는 상기 카메라(320)를 통해 촬영된 영상을 분석하여, 촬영 시점에서의 위치정보, 가속도센서, 자이로센서, 지자기센서값을 입력받아, 현재 리얼 영상과 비교할 라이프로그의 과거 영상을 검색하는 데 필요한 정보를 추출할 수 있다. 여기서 제어부(310)는 특정된 대상( 특정인 등)을 사용자가 선택하거나 상기 특정 대상의 정보를 입력하면, 선택된 특정 대상에 대한 과거 영상을 저장부(360)에서 검색할 수 있다(영상 정보 인식 기능).The control unit 310 analyzes the photographed image through the camera 320 and receives the position information at the time of photographing, the acceleration sensor, the gyro sensor, and the geomagnetism sensor value, and obtains a past image of the life log to be compared with the current real image It is possible to extract information necessary for searching. Here, if the user selects a specified object (a specific person or the like) or inputs information of the specific object, the control unit 310 can search the storage unit 360 for a past image of the selected specific object ).

또한, 제어부(310)는 선택된 특정된 대상(현재 위치,방위의 장소 또는 사용자가 선택한 특정인 등)에 대한 과거 영상을 저장부(360)에서 검색하여 읽어들일 수 있다(영상 정보 검색 기능).In addition, the control unit 310 can search the storage unit 360 for a past image of the selected target (the current position, the place of the bearing, or a specific person selected by the user) and read the past image (image information search function).

또한, 제어부(310)는 현재의 리얼 영상을 촬영한 영상과 상기 검색으로 추출된 현재 장소 또는 특정인의 과거 영상을 비교하여 매칭할 수 있다.여기서 영상 매칭 시에는 영상촬영 위치와 방위, 영상의 크기 등을 변환하여 현재 영상과 저장된 과거 영상을 매칭할 수 있다. 만약, 상기 영상 매칭의 결과 영상에서 변화된 영역, 장소, 물체가 있으면 해당 변화정보를 표시하기 위해 디스플레이부(340)에 제공할 수 있다(영상 변환 매칭 기능). In addition, the controller 310 may compare the current real image and the past image of the current place or the specific person extracted by the search to match the image. In the image matching, the image capturing position and orientation, And so on to match the current image with the stored past image. If there is a changed region, place, or object in the image resulting from the image matching, the changed information may be provided to the display unit 340 (image conversion matching function).

이에 따라 디스플레이부(340)는 상기에서 매칭되는 과거 영상 또는 영상 매칭의 결과인 영상에서의 변화정보를 디스플레이할 수 있다. Accordingly, the display unit 340 can display the change information in the image, which is a result of the past image or image matching matched in the above.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. Meanwhile, the method according to various embodiments of the present invention described above may be implemented in program code and provided to each server or devices in a state stored in various non-transitory computer readable media.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

300 : 스마트 안경 310 : 제어부
320 : 카메라 330 : 센싱부
340 : 디스플레이부 350 : 통신부
360 : 저장부 400 : 외부 장치
300: smart glasses 310: control unit
320: camera 330: sensing unit
340: display unit 350: communication unit
360: storage unit 400: external device

Claims (8)

스마트 안경에 있어서,
저장부;
투명형 또는 광투과형의 렌즈부;
상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 카메라부;
상기 스마트 안경에 대한 사용자 터치 입력을 수신하는 터치 인터페이스부;
상기 스마트 안경 착용자의 시각에 의해 인지되는 전경에 부가하여 시각적인 부가 정보를 제공하기 위하여 상기 렌즈부에 부가 정보를 표시하는 디스플레이부; 및
상기 수신된 터치 입력을 통하여 상기 렌즈부에 표시된 부가 정보 중 하나의 부가 정보가 선택되면, 선택된 부가 정보에 대응되는 동작을 수행하는 제어부;를 포함하는 스마트 안경.
In smart glasses,
A storage unit;
A transparent or light transmissive lens unit;
A camera unit for photographing a foreground recognized by the smart glasses wearer;
A touch interface unit for receiving a user touch input to the smart glasses;
A display unit for displaying additional information in the lens unit to provide visual additional information in addition to a foreground recognized by the smart spectacle wearer's vision; And
And a controller for performing an operation corresponding to the selected additional information when one of the additional information displayed on the lens unit is selected through the received touch input.
제1항에 있어서,
상기 선택된 부가 정보가, 상기 전경 공유 메뉴인 경우,
상기 제어부는,
상기 카메라부를 통해 촬영된 전경에 대응되는 영상을 SNS 서버 장치에 전송하도록 상기 통신부를 제어하는 것을 특징으로 하는 스마트 안경.
The method according to claim 1,
If the selected additional information is the foreground shared menu,
Wherein,
And controls the communication unit to transmit the image corresponding to the foreground shot through the camera unit to the SNS server apparatus.
제1항에 있어서,
상기 선택된 부가 정보가, 얼굴 인식 메뉴인 경우,
상기 제어부는,
상기 카메라부를 통해 촬영된 전경에 대응되는 영상에서 얼굴 영상을 검출하고, 상기 검출된 얼굴 영상과 상기 저장부에 저장된 얼굴 영상을 비교하여 상기 검출된 얼굴 영상에 대응되는 사용자 정보를 검출하며, 상기 검출된 사용자 정보를 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 스마트 안경.
The method according to claim 1,
If the selected additional information is a face recognition menu,
Wherein,
Detecting a face image in an image corresponding to a foreground photographed through the camera unit, detecting user information corresponding to the detected face image by comparing the detected face image with a face image stored in the storage unit, And controls the display unit to display the user information.
제1항에 있어서,
상기 터치 인터페이스부는,
상기 스마트 안경의 좌측 걸이부, 우측 걸이부 또는 좌우측 걸이부 양측에 배치된 것을 특징으로 하는 스마트 안경.
The method according to claim 1,
The touch interface unit includes:
Wherein the smart glasses are disposed on both sides of the left hook portion, the right hook portion, or the right and left hook portions of the smart glasses.
투명형 또는 광투과형의 렌즈부를 구비한 스마트 안경의 제어 방법에 있어서,
상기 스마트 안경 착용자의 시각에 의해 인지되는 전경을 촬영하는 단계;
상기 스마트 안경 착용자의 시각에 의해 인지되는 전경에 부가하여 시각적인 부가 정보를 제공하기 위하여 상기 렌즈부에 부가 정보를 표시하는 단계;
상기 렌즈부에 표시된 부가 정보 중 하나의 부가 정보가 선택받기 위한 사용자 터치 입력을 수신하는 단계;
상기 수신된 터치 입력을 통하여 상기 렌즈부에 표시된 부가 정보 중 하나의 부가 정보가 선택되면, 선택된 부가 정보에 대응되는 동작을 수행하는 단계;를 포함하는 제어 방법.
A method of controlling smart glasses comprising a transparent or light transmissive lens unit,
Photographing a foreground recognized by the smart spectacle wearer;
Displaying additional information in the lens unit in order to provide visual additional information in addition to a foreground recognized by the smart spectacle wearer's vision;
Receiving a user touch input for selecting one of additional information displayed on the lens unit;
And performing an operation corresponding to the selected additional information if one of the additional information displayed on the lens unit is selected through the received touch input.
제5항에 있어서,
상기 선택된 부가 정보가, 상기 전경 공유 메뉴인 경우,
상기 카메라부를 통해 촬영된 전경에 대응되는 영상을 SNS 서버 장치에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
6. The method of claim 5,
If the selected additional information is the foreground shared menu,
And transmitting the image corresponding to the foreground shot through the camera unit to the SNS server apparatus.
제5항에 있어서,
상기 선택된 부가 정보가, 얼굴 인식 메뉴인 경우,
상기 카메라부를 통해 촬영된 전경에 대응되는 영상에서 얼굴 영상을 검출하는 단계;
상기 검출된 얼굴 영상과 상기 저장부에 저장된 얼굴 영상을 비교하여 상기 검출된 얼굴 영상에 대응되는 사용자 정보를 검출하는 단계; 및
상기 검출된 사용자 정보를 스마트 안경 착용자의 시각에 의해 인지되는 전경에 부가하여 표시하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
6. The method of claim 5,
If the selected additional information is a face recognition menu,
Detecting a face image in an image corresponding to a foreground photographed through the camera unit;
Comparing the detected face image with a face image stored in the storage unit to detect user information corresponding to the detected face image; And
And displaying the detected user information by adding the detected user information to the foreground recognized by the wearer's smart glasses.
제5항에 있어서,
상기 사용자 터치 입력은,
상기 스마트 안경의 좌측 걸이부, 우측 걸이부 또는 좌우측 걸이부 양측에 배치된 터치 인터페이스부를 통하여 수신된 것을 특징으로 하는 제어 방법.
6. The method of claim 5,
The user touch input includes:
And a touch interface unit disposed on both sides of the left and right hanger parts or the left and right hanger parts of the smart glasses.
KR20130046179A 2013-04-25 2013-04-25 Smart glass using image recognition and touch interface and control method thereof KR20140128489A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130046179A KR20140128489A (en) 2013-04-25 2013-04-25 Smart glass using image recognition and touch interface and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130046179A KR20140128489A (en) 2013-04-25 2013-04-25 Smart glass using image recognition and touch interface and control method thereof

Publications (1)

Publication Number Publication Date
KR20140128489A true KR20140128489A (en) 2014-11-06

Family

ID=52454348

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130046179A KR20140128489A (en) 2013-04-25 2013-04-25 Smart glass using image recognition and touch interface and control method thereof

Country Status (1)

Country Link
KR (1) KR20140128489A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101603551B1 (en) * 2014-11-20 2016-03-15 현대자동차주식회사 Method for executing vehicle function using wearable device and vehicle for carrying out the same
WO2016182090A1 (en) * 2015-05-08 2016-11-17 엘지전자 주식회사 Glasses-type terminal and control method therefor
KR20160141222A (en) * 2015-05-29 2016-12-08 주식회사 크레펀 E-Commerce System And Method Through Actual Reality Feeling Contents Include Virture Reality Contents
CN109327685A (en) * 2018-11-28 2019-02-12 深圳市看见智能科技有限公司 Intelligent glasses circuit, glasses and mobile monitoring system
WO2019212798A1 (en) * 2018-05-01 2019-11-07 Snap Inc. Image capture eyewear with auto-send
WO2021067090A1 (en) * 2019-09-30 2021-04-08 Snap Inc. Automated eyewear device sharing system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101603551B1 (en) * 2014-11-20 2016-03-15 현대자동차주식회사 Method for executing vehicle function using wearable device and vehicle for carrying out the same
US10514755B2 (en) 2015-05-08 2019-12-24 Lg Electronics Inc. Glasses-type terminal and control method therefor
WO2016182090A1 (en) * 2015-05-08 2016-11-17 엘지전자 주식회사 Glasses-type terminal and control method therefor
KR20160141222A (en) * 2015-05-29 2016-12-08 주식회사 크레펀 E-Commerce System And Method Through Actual Reality Feeling Contents Include Virture Reality Contents
US11451707B2 (en) 2018-05-01 2022-09-20 Snap Inc. Image capture eyewear with auto-send
WO2019212798A1 (en) * 2018-05-01 2019-11-07 Snap Inc. Image capture eyewear with auto-send
US10972658B2 (en) 2018-05-01 2021-04-06 Snap Inc. Image capture eyewear with auto-send
US11968460B2 (en) 2018-05-01 2024-04-23 Snap Inc. Image capture eyewear with auto-send
CN109327685A (en) * 2018-11-28 2019-02-12 深圳市看见智能科技有限公司 Intelligent glasses circuit, glasses and mobile monitoring system
CN109327685B (en) * 2018-11-28 2024-03-19 深圳市看见智能科技有限公司 Intelligent glasses circuit, glasses and mobile monitoring system
WO2021067090A1 (en) * 2019-09-30 2021-04-08 Snap Inc. Automated eyewear device sharing system
US11297224B2 (en) 2019-09-30 2022-04-05 Snap Inc. Automated eyewear device sharing system
US11563886B2 (en) 2019-09-30 2023-01-24 Snap Inc. Automated eyewear device sharing system

Similar Documents

Publication Publication Date Title
KR20140130321A (en) Wearable electronic device and method for controlling the same
KR102544062B1 (en) Method for displaying virtual image, storage medium and electronic device therefor
US10168981B2 (en) Method for sharing images and electronic device performing thereof
US20150156196A1 (en) Wearable electronic device and method for controlling same
US20160291327A1 (en) Glass-type image display device and method for controlling same
US9442292B1 (en) Directional array sensing module
KR20140128489A (en) Smart glass using image recognition and touch interface and control method thereof
KR20190089627A (en) Device and operating method thereof for providing ar(augmented reality) service
CN104380174A (en) 3D video observation device and transmittance control method
KR20140017735A (en) Wearable electronic device and method for controlling the same
KR20140130331A (en) Wearable electronic device and method for controlling the same
KR20140130332A (en) Wearable electronic device and method for controlling the same
WO2020044916A1 (en) Information processing device, information processing method, and program
US20230068730A1 (en) Social connection through distributed and connected real-world objects
US20230217007A1 (en) Hyper-connected and synchronized ar glasses
CN104239877B (en) The method and image capture device of image procossing
US20230298247A1 (en) Sharing received objects with co-located users
KR20140130330A (en) Wearable electronic device and method for controlling the same
KR20160048266A (en) Display device and method for mixed displaying 2 dimensional image and 3 dimensional image
KR20140130313A (en) Wearable electronic device and method for controlling the same
KR20140130327A (en) Wearable electronic device and method for controlling the same
US20240095086A1 (en) Mobile device resource optimized kiosk mode
KR20160048269A (en) Viewing device and method for 2 dimensional image display and 3 dimensional image display
US20230060838A1 (en) Scan-based messaging for electronic eyewear devices
US20220114811A1 (en) Method and device for processing image

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid