KR20130089032A - Augmented reality system using the morse code - Google Patents

Augmented reality system using the morse code Download PDF

Info

Publication number
KR20130089032A
KR20130089032A KR1020120010364A KR20120010364A KR20130089032A KR 20130089032 A KR20130089032 A KR 20130089032A KR 1020120010364 A KR1020120010364 A KR 1020120010364A KR 20120010364 A KR20120010364 A KR 20120010364A KR 20130089032 A KR20130089032 A KR 20130089032A
Authority
KR
South Korea
Prior art keywords
marker
image
infrared
augmented reality
information
Prior art date
Application number
KR1020120010364A
Other languages
Korean (ko)
Other versions
KR101315433B1 (en
Inventor
김응곤
류남훈
이혜미
정종욱
Original Assignee
순천대학교 산학협력단
에스알시 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 순천대학교 산학협력단, 에스알시 주식회사 filed Critical 순천대학교 산학협력단
Priority to KR1020120010364A priority Critical patent/KR101315433B1/en
Publication of KR20130089032A publication Critical patent/KR20130089032A/en
Application granted granted Critical
Publication of KR101315433B1 publication Critical patent/KR101315433B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: An augmented reality system based on Morse code does not expose a marker applied to a tracking object, thereby preventing the marker from blocking an actually desired object or irritating the sight. CONSTITUTION: An object produces an IR marker with an infrared ray (IR) light emitting diode (LED). A code provided by the IR marker is Morse code. A visible ray camera unit (121) shoots a real image of the object. An IR camera unit (122) shoots the IR marker of the object. An image processor (123) analyzes an image signal obtained by shooting the IR marker in real time, and interprets the information on an actual image and a virtual image to render, a location of the virtual image to render, and a posture of the virtual image to locate. [Reference numerals] (121) Visible ray camera unit; (122) Infrared ray camera unit; (123) Image processing unit; (124) Virtual image DB; (125) Communication unit

Description

모스 부호 기반의 증강현실 시스템{AUGMENTED REALITY SYSTEM USING THE MORSE CODE}Augmented Reality System based on Morse Code {AUGMENTED REALITY SYSTEM USING THE MORSE CODE}

본 발명은 증강현실 시스템에 관한 것으로서, 보다 상세하게는 모스 부호 기반의 증강현실 시스템에 관한 것이다.
The present invention relates to an augmented reality system, and more particularly to an augmented reality system based on Morse code.

증강현실(AUGMENTED REALLITY, AG)이란 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술로서, 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(MIXED REALLITY, MR)이라고도 한다. Augmented Reality (AG) is a technology that superimposes a virtual object on the real world that the user sees with the eyes, and shows the virtual world with additional information in real time as a single image to show mixed images. Also called MR).

현실세계를 가상세계를 이용해서 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이며, 컴퓨터 그래픽은 현실환경에서 필요로 하는 정보를 추가로 제공하는 역할을 한다. 사용자가 보는 실제 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상환경과의 구분이 모호해지도록 한다는 뜻이다. 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다.Augmented reality, a concept that complements the real world using the virtual world, uses a virtual environment made of computer graphics, but the main role is the real environment, and computer graphics plays a role of providing additional information needed in the real environment. This means that the user can blur the distinction between the real environment and the virtual environment by overlapping the 3D virtual image with the real image that the user sees. Augmented reality technology, which is a mixture of real environment and virtual objects, provides the user with a better sense of reality and additional information.

예를 들어 스마트폰 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기되어 사용자가 가상의 콘텐츠를 제공받을 수 있는 것이다.For example, when the camera is illuminated with a smartphone camera, information such as the location of a nearby store, a phone number, etc. is displayed in a 3D image so that the user may be provided with virtual content.

이를 위한 방식으로는 GPS 및 LBS 기반의 방식이 있고, 비전, 즉 시각을 기반으로 한 방식이 있는데, 본 발명은 비전을 기반으로 하되, 모스 부호를 활용하는 증강현실 시스템에 관련한 것이다.There is a method for GPS and LBS-based, there is a vision, that is, a vision-based method, the present invention relates to augmented reality system based on the vision, but using Morse code.

비전 기반의 증강현실 시스템에서는 빌딩이나 상점에 적용되어 있는 마커를 카메라를 통해 판독하게 되는데, 이러한 마킹기술로는 2차원 바코드의 일종인 QR(Quick Response) 코드나, 구조화된 글자형식의 코드인 (ePosition) 코드 등을 사용하는 방법이 있다.In the vision-based augmented reality system, markers applied to buildings or shops are read by a camera. Such marking technology includes a QR (Quick Response) code, which is a kind of two-dimensional bar code, or a structured letter code ( ePosition) code.

그런데, 종래의 비전 기반의 증강현실 시스템은 육안으로 보이는 마커(Visible Marker,VM)가 표시되어 있는 추적 대상체(Target Object,TO)를 촬영하고 촬영된 대상체의 실제 영상에 가상영상을 렌더링한 화면이 출력되는 시스템인데, 이러한 종래의 시스템에서는 육안으로 보이는 마커를 이용하므로 정확하고 빠르게 증강현실을 구현할 수 있는 장점이 있었으나, 이러한 마커는 추적 대상체에 인위적으로 부가되어야 하는 부가물이기 때문에, 실제 원하는 대상물을 가리게 하거나 육안을 거슬리게 하는 문제가 있다.However, in the conventional vision-based augmented reality system, a screen shot of a target object (TO) in which a visible marker (VM) is visible to the naked eye is displayed and a virtual image is rendered on the actual image of the captured object. In the conventional system, since the marker is visible to the naked eye, the augmented reality can be accurately and quickly implemented. However, since the marker is an additive to be artificially added to the tracking object, an actual target object may be used. There is a problem that obscures or disturbs the naked eye.

또한, 대상체에 대응하는 각각의 마커들이 별도로 마련되어야 하는바 그 응용 영역에 한계가 있다.In addition, the respective markers corresponding to the object must be provided separately, which limits the application area.

그리고, 육안으로 보이는 마커는 대상체와의 거리가 멀거나, 야간에는 카메라를 통해 인식이 되지 않기 때문에 주간이어야 하며 근접해야만 가상영상을 획득할 수 있는 한계도 있다.
In addition, the visually visible markers have a limitation that the virtual image may be acquired only when they are daytime and close because they are not recognized by the camera at a distance from the object or at night.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 대상체에 적용되는 마커가 외관상 드러나지 않으면서, 다양한 조합이 가능한 모스 부호를 사용함으로써 보다 다양한 정보를 제공할 수 있는 증강현실 시스템을 제공하는 데 그 목적이 있다.
An object of the present invention is to provide an augmented reality system that can provide a variety of information by using a Morse code that can be combined in various combinations without the appearance of a marker applied to the object in appearance. There is this.

본 발명의 증강현실 시스템은, 적외선 엘이디에 의해 적외선 마커를 생성하는 대상체; 및 상기 대상체를 촬영한 실제 영상과 상기 대상체의 적외선 마커를 촬영하여, 상기 적외선 마커로부터 판독되는 가상 영상을 렌더링하는 증강현실 구현 장치를 포함하되, 상기 적외선 마커가 제공하는 코드는 모스 부호일 수 있다.Augmented reality system of the present invention, the object generating an infrared marker by the infrared LED; And an augmented reality implementation apparatus for capturing an actual image of the object and an infrared marker of the object to render a virtual image read from the infrared marker, wherein the code provided by the infrared marker may be a Morse code. .

상기 증강현실 구현장치는, 상기 대상체의 실제 영상을 촬영하는 가시광선 카메라부; 상기 적외선 엘이디의 점등 상태를 촬영하는 적외선 카메라부; 및 상기 실제 영상과 가상 영상을 오버렙하여 가상현실영상을 생성하는 영상처리부를 포함할 수 있다.The apparatus for implementing augmented reality may include: a visible light camera unit for photographing an actual image of the object; An infrared camera unit photographing a lighting state of the infrared LED; And an image processor which generates a virtual reality image by overlapping the real image and the virtual image.

상기 증강현실 구현장치는, 상기 촬영된 엘이디의 점등 상태로부터 가상현실영상에서 상기 가상 영상이 배치될 위치에 대한 정보를 추출하는 위치 검출부; 및 상기 촬영된 엘이디의 점등 상태로부터 표시되어야 할 가상 영상의 내용에 대한 정보를 추출하는 종류 검출부;를 포함할 수 있다.The apparatus for implementing augmented reality may include: a position detection unit extracting information on a position where the virtual image is to be disposed in the virtual reality image from the lighting state of the photographed LED; And a type detector configured to extract information about contents of a virtual image to be displayed from the lighting state of the photographed LED.

상기 증강현실 구현장치는, 상기 가상 영상을 저장하는 가상 영상 DB; 를 더 포함할 수 있고, 통신망을 통해 정보의 송수신이 가능한 통신부;를 더 포함할 수도 있다.The apparatus for implementing augmented reality may include: a virtual image DB for storing the virtual image; It may further include, and may further include a communication unit capable of transmitting and receiving information through a communication network.

본 발명의 증강현실 시스템은 상기 대상체에 구현될 적외선 마커에 대한 정보를 송신하는 마커정보 송신기; 를 더 포함하고, 상기 대상체는, 상기 마커정보 송신기로부터 적외선 마커에 대한 정보를 수신하는 마커정보 수신부; 상기 적외선 엘이디 발광부로부터의 적외선을 외부로 투과시키는 적외선 마커 표시부; 상기 마커정보 수신부로부터 수신된 적외선 마커에 대한 정보에 의해 상기 적외선 엘이디 발광부를 제어하는 제어부;를 포함할 수 있으며, 상기 증강현실 구현장치에 의해 생성된 증강현실 영상을 출력하는 출력장치;를 더 포함할 수도 있다.
Augmented reality system of the present invention is a marker information transmitter for transmitting information about the infrared marker to be implemented on the object; The object may further include a marker information receiver configured to receive information on an infrared marker from the marker information transmitter; An infrared marker display unit which transmits infrared rays from the infrared LED light emitting unit to the outside; And a controller configured to control the infrared LED light emitting unit based on the information on the infrared marker received from the marker information receiving unit. You may.

본 발명에 따르면,According to the present invention,

추적 대상체에 적용되는 마커가 외관상 드러나지 않기 때문에, 실제 원하는 대상물을 가리거나 육안을 거슬리게 하지 않는다.Since the markers applied to the tracer are not apparent in appearance, they do not obscure or distract the actual desired object.

또한, 대상체마다 별도의 마커가 구비될 필요가 없으며, 대량의 마커를 일거에 생성이 가능하므로 다양하게 그 응용이 가능해진다.In addition, there is no need to provide a separate marker for each object, and since a large amount of markers can be generated at a time, various applications are possible.

그리고, 적외선 마커를 적외선 카메라로 촬영하기 때문에 대상체로부터의 거리가 멀어도 가상영상의 출력이 가능하고, 야간에도 가상영상의 출력이 가능하다.In addition, since the infrared marker is photographed by the infrared camera, the virtual image can be output even if the distance from the object is far, and the virtual image can be output even at night.

더불어, 실제영상에서 드러날 수 있는 적외선 엘이디 등을 보정하는 것에 의해 더욱 완벽한 영상의 재현이 가능하다.In addition, it is possible to reproduce a more perfect image by correcting the infrared LED that can be revealed in the real image.

나아가, 모스 부호가 제공하는 대상체의 위치 또는 종류에 대한 정보를 활용하게 되므로 모스 부호를 표시할 수 있는 간단한 구성을 통해 대상체에 대한 정보를 제공할 수 있게 되므로 시스템의 구성이 간략해지는 이점이 있다.
Furthermore, since the information on the position or type of the object provided by the Morse code is utilized, the information on the object can be provided through a simple configuration capable of displaying the Morse code, thereby simplifying the configuration of the system.

도1은 본 발명에 따른 증강현실 시스템을 도시한 것이다.
도2는 본 발명에 따른 증강현실 시스템의 일부를 도식화한 것이다.
도3은 본 발명에 따른 증강현실 시스템의 응용적 구성을 도시한 것이다.
도4는 본 발명에 적용되는 적외선 마커의 구성도이다.
도5는 적외선 마커로부터 Convex Hull 알고리즘을 활용하여 추출한 외곽점들을 도시한 것이다.
도6은 가상영상의 좌상단 코너점 검출 구성도이다.
도7은 적외선 마커에서의 종류 영역의 구성도이다.
도8은 본 발명에 사용되는 모스 부호의 구성을 예시한 것이다.
1 shows an augmented reality system according to the present invention.
2 is a schematic diagram of a portion of an augmented reality system according to the present invention.
Figure 3 shows the application of the augmented reality system according to the present invention.
4 is a configuration diagram of an infrared marker applied to the present invention.
Figure 5 shows the outer points extracted by using the Convex Hull algorithm from the infrared marker.
6 is a block diagram of upper left corner point detection of a virtual image.
7 is a configuration diagram of the type region in the infrared marker.
Fig. 8 illustrates the configuration of the Morse code used in the present invention.

본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 보다 구체적으로 설명하되, 이미 주지된 기술에 대해서는 설명을 생략하기로 한다.
Preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings, and descriptions of well-known techniques will be omitted.

도1은 본 발명에 따른 증강현실 시스템을 도시한 것이고, 도2는 본 발명에 따른 증강현실 시스템의 일부를 도식화한 것이다.Figure 1 shows an augmented reality system according to the present invention, Figure 2 is a schematic of a portion of the augmented reality system according to the present invention.

도1 내지 도2를 참조하여 설명하면, 본 발명에 따른 증강현실 시스템(100)은 대상체(110), 증강현실 구현장치(120), 마커정보 송신기(130) 및 출력장치(140)를 포함하여 구성된다.1 to 2, the augmented reality system 100 according to the present invention includes an object 110, an augmented reality implementing device 120, a marker information transmitter 130, and an output device 140. It is composed.

대상체(110)는 적외선 엘이디에 의해 구현되는 적외선 마커를 가진 것으로서 사용자가 가상의 콘텐츠를 보고자하는 대상물체이고, 마커정보 송신기(130)는 대상체(110)에 구현될 적외선 마커에 대한 정보를 송신하기 위한 수단이다.The object 110 has an infrared marker implemented by an infrared LED, and is a target object for which a user wants to view virtual content, and the marker information transmitter 130 transmits information on an infrared marker to be implemented on the object 110. It is meant for.

본 발명의 증강현실 시스템(100)에서의 대상체(110)는 마커정보 수신부(미도시), 적외선 엘이디 발광부(미도시), 적외선 마커 표시부(IM) 및 제어부(미도시)를 포함하여 구성된다.The object 110 in the augmented reality system 100 of the present invention includes a marker information receiver (not shown), an infrared LED light emitting unit (not shown), an infrared marker display unit (IM), and a controller (not shown). .

마커정보 수신부는 마커정보 송신기(130)로부터 송신된 적외선 마커에 대한 정보를 수신하기 위한 구성이고, 적외선 엘이디 발광부는 복수의 적외선 엘이디가 배열되어 있어서 전원 제어에 의해 복수의 적외선 엘이디 각각이 발광되는 구성이다. 적외선 마커 표시부(IM)는 발광된 적외선 엘이디의 빛이 대상체(110) 외부로 투과될 수 있도록 하는 구성이다.The marker information receiving unit is configured to receive information on the infrared marker transmitted from the marker information transmitter 130, and the infrared LED light emitting unit is configured to emit each of the plurality of infrared LEDs by power control because a plurality of infrared LEDs are arranged. to be. The infrared marker display unit IM is configured to allow the light of the emitted infrared LED to be transmitted to the outside of the object 110.

즉, 마커정보 송신기(130)는 해당 대상체(110)에 대한 정보를 대상체(110)에서 적외선 마커의 형태로 구현될 수 있도록 하는 제어신호를 송신하게 되고, 대상체(110)의 마커정보 수신부는 마커정보 송신기(130)에서 전송된 제어신호를 수신하게 된다. 마커정보 수신부에 의해 수신된 제어신호는 제어부로 전달되며, 제어부는 제어신호에 따라 적외선 엘이디 발광부의 각각의 적외선 엘이디의 전원을 제어하게 된다. 제어부의 전원제어에 의해서 발광된 적외선 엘이디는 적외선 마커 표시부(IM)를 통해 외부로 투과되는 것이다.That is, the marker information transmitter 130 transmits a control signal for implementing information on the corresponding object 110 in the form of an infrared marker on the object 110, and the marker information receiving unit of the object 110 is a marker. The control signal transmitted from the information transmitter 130 is received. The control signal received by the marker information receiving unit is transmitted to the control unit, and the control unit controls the power of each infrared LED of the infrared LED light emitting unit according to the control signal. The infrared LED emitted by the power control of the controller is transmitted to the outside through the infrared marker display unit IM.

여기에 적외선 발광부가 외부에서 인식되지 않도록 반투명 유색 아크릴 등으로 된 차단막(미도시)이 더 구성될 수 있고,Here, a blocking film (not shown) made of translucent colored acrylic or the like may be further configured so that the infrared light emitting part is not recognized from the outside.

상술한 마커정보 송신기(130)와 마커정보 수신부는 유선, Zigbee, Bluetooth 등의 유무선 통신망에 의해 정보의 송수신이 가능하다.
The marker information transmitter 130 and the marker information receiver described above may transmit and receive information by a wired or wireless communication network such as a wired line, a Zigbee, or a Bluetooth.

다음으로, 증강현실 구현장치(120)는 대상체(110)의 실제 영상과 대상체(110)의 적외선 마커를 촬영하여, 촬영된 실제 영상 위에 적외선 마커로부터 판독되는 가상 영상을 렌더링하여 새로운 영상을 생성하는 장치로서, 가시광선 카메라부(121), 적외선 카메라부(122), 영상처리부(123), 가상영상 DB(124) 및 통신부(125)를 포함한다.Next, the augmented reality implementation apparatus 120 photographs the real image of the object 110 and the infrared marker of the object 110, and renders a virtual image read from the infrared marker on the real image to generate a new image. The apparatus includes a visible light camera unit 121, an infrared camera unit 122, an image processing unit 123, a virtual image DB 124, and a communication unit 125.

증강현실 구현장치(120)의 가시광선 카메라부(121)는 대상체(110)의 실제 영상을 촬영하기 위한 수단으로, 가시광선 파장 영역의 빛을 수광한다.The visible light camera unit 121 of the apparatus 100 for augmented reality is a means for capturing an actual image of the object 110 and receives light in a visible wavelength range.

본 발명에서 증강현실 구현장치(120)는 가시광선 카메라부(121) 외에 적외선 카메라부(122)를 더 포함하여 구성된다.Augmented reality implementation apparatus 120 in the present invention is configured to further include an infrared camera unit 122 in addition to the visible light camera unit 121.

적외선 카메라부(122)는 대상체(110)의 적외선 마커를 촬영하기 위한 수단으로, 가시광선 파장 영역보다 긴 적외선 파장 영역의 빛을 수광한다.The infrared camera unit 122 is a means for photographing an infrared marker of the object 110 and receives light in an infrared wavelength region longer than the visible wavelength region.

두 카메라부(121,122)에 의해 촬영된 영상은 영상처리부(123)에서 획득받게 된다. 영상처리부(123)는 두 카메라부(121,122)로부터 수신된 아날로그 영상신호를 디지털 영상신호로 변환한 후 디지털신호처리 프로세서를 이용하여 디지털적으로 영상신호를 처리하게 된다.Images captured by the two camera units 121 and 122 are acquired by the image processor 123. The image processor 123 converts analog image signals received from the two camera units 121 and 122 into digital image signals, and then digitally processes the image signals using a digital signal processing processor.

즉, 영상처리부(123)는 대상체(110)의 적외선 마커를 촬영하여 얻은 영상신호를 실시간으로 분석하여 분석된 영상신호로부터 실제 영상과 렌더링 되어야 할 가상 영상이 어떤 것인지, 렌더링 될 가상 영상이 배치되어야 할 위치 및 배치되어야 할 가상 영상의 자세에 대한 정보를 해석해낸다.That is, the image processor 123 analyzes an image signal obtained by capturing an infrared marker of the object 110 in real time, and the virtual image to be rendered from the analyzed image signal should be disposed. Interpret the information about the position to be done and the posture of the virtual image to be arranged.

렌더링시 실제 영상과 함께 디스플레이될 가상 영상은 가상영상 DB(124)에 저장되어 있다. 가상영상 DB(124)는 추가적으로 또는 배타적으로 통신부(125)가 구비할 수 있다.The virtual image to be displayed together with the actual image at the time of rendering is stored in the virtual image DB 124. The virtual image DB 124 may be additionally or exclusively provided by the communication unit 125.

적외선 마커는 복수의 적외선 엘이디를 포함하게 되는데, 복수의 적외선 엘이디는 2차원 형태로 배열될 수 있다. 이때, 일부의 적외선 엘이디는 렌더링될 가상영상이 표시될 위치 및 자세에 대한 정보는 제공하고, 그 외의 적외선 엘이디는 표시가 요구되는 가상 영상의 내용이 무엇인지에 대한 정보를 제공하는 형태로 구성될 수 있다. The infrared marker may include a plurality of infrared LEDs, and the plurality of infrared LEDs may be arranged in a two-dimensional form. In this case, some of the infrared LEDs may provide information on the position and posture of the virtual image to be rendered, and other infrared LEDs may be configured to provide information on the content of the virtual image that needs to be displayed. Can be.

적외선 카메라(122)가 촬영한 적외선 마커 영상은 위치 검출부(126) 및 종류 검출부(127)로 전달된다. 위치 검출부(126)는 촬영된 적외선 마커 영상으로부터 렌더링시 가상영상이 배치되어야 할 위치 및 배치되는 가상영상의 자세에 대한 정보를 추출하기 위한 구성이다. 종류 검출부(127)는 촬영된 적외선 마커 영상으로부터 표시가 요구되는 마커의 내용에 대한 정보를 추출하기 위한 구성이다. The infrared marker image captured by the infrared camera 122 is transmitted to the position detector 126 and the type detector 127. The position detector 126 is a component for extracting information about a position where the virtual image is to be arranged and a posture of the arranged virtual image from the photographed infrared marker image. The type detector 127 is a component for extracting information on the content of the marker for which display is required from the captured infrared marker image.

이때, 적외선 엘이디는 그 배열되어 있는 위치에 따라, 위치 및 자세에 대한 정보는 제공하는 엘이디와 내용에 정보를 제공하는 엘이디로 구분될 수 있다. 이처럼 배열위치로 적외선 엘이디의 용도를 구분할 경우, 위치 검출부(126) 및 종류 검출부(127)는 자신들이 정보를 얻어야할 적외선 엘이디를 그 배열 위치에 따라 구분할 수 있다.In this case, the infrared LED may be classified into an LED providing information and an LED providing information on the content according to the arranged position. When the use of the infrared LED is classified by the arrangement position as described above, the position detector 126 and the type detector 127 may classify the infrared LEDs for which they need to obtain information according to the arrangement position.

영상처리부(123)는 위치 검출부(126) 및 종류 검출부(127)로부터 전달받은 정보를 이용해서, 표시되어야 할 가상영상의 종류 및 표시될 위치와 자세를 결정하게 된다. 영상처리부(123)는 표시되어야 할 가상영상을 가상영상 DB(124)에서 검색해서 호출해낸다.The image processor 123 uses the information received from the position detector 126 and the type detector 127 to determine the type of virtual image to be displayed and the position and posture to be displayed. The image processor 123 retrieves and calls the virtual image to be displayed in the virtual image DB 124.

영상처리부(123)는 호출된 가상영상을 가시광선 카메라부(121)에서 촬영된 실제 영상을 오버랩(overlap) 시켜서 증강현실영상을 생성한다.The image processor 123 generates the augmented reality image by overlapping the actual image photographed by the visible light camera unit 121 with the called virtual image.

생성된 증강현실영상은 위한 출력장치(140)에 의해 디스플레이된다. 출력장치(140)로는 , 휴대폰의 디스플레이, 컴퓨터 모니터, HMD(Head Mounted Display), 크리스탈 아이즈(Crystal Eyes) 등의 입체안경이나 안경형 HMD(Optical See-Through HMD) 등이 사용될 수 있다.
The generated augmented reality image is displayed by the output device 140 for. As the output device 140, a stereoscopic glasses such as a display of a mobile phone, a computer monitor, a head mounted display (HMD), crystal eyes, or the like, an optical see-through HMD (HMD) may be used.

이 경우, 적외선 엘이디는 육안으로는 인식되지 않지만, 가시광선 카메라부(121)에 의해서는 인식이 될 수 있고, 그 결과 가시광선 카메라부(121)에서 획득한 영상에는 대상체의 실제영상 뿐만 아니라 적외선 엘이디에 대한 영상이 존재할 수 있고, 이는 증강현실영상에서 일종의 노이즈로 작용을 하게 된다. 따라서, 본 발명에서는 증강현실 구현장치(120)의 영상처리부(123)를 이용해서 노이즈가 보정된 대상체의 실제영상을 얻을 수 있도록 한다.In this case, the infrared LED may not be recognized by the naked eye, but may be recognized by the visible light camera unit 121, and as a result, the image obtained by the visible light camera unit 121 may include not only an actual image of the object but also infrared light. There may be an image of the LED, which acts as a kind of noise in the augmented reality image. Accordingly, in the present invention, the image processor 123 of the apparatus for implementing augmented reality 120 may obtain an actual image of an object whose noise is corrected.

즉, 영상처리부(123)에서는 적외선 카메라부(122)로부터 획득된 영상에서 Convex Hull 알고리즘을 통해 적외선 마커, 즉 적외선 엘이디의 위치 정보를 추출하고, 추출된 적외선 엘이디의 위치정보를 이용해서 가시광선 카메라부(121)로부터 획득된 실제영상에 존재하는 적외선 엘이디가 촬영된 영역을 보정한다. That is, the image processing unit 123 extracts the position information of the infrared marker, that is, the infrared LED, from the image acquired from the infrared camera unit 122 through the Convex Hull algorithm, and uses the extracted infrared LED position information to display the visible light camera. The region where the infrared LED present in the real image acquired from the unit 121 is photographed is corrected.

보정방법으로는 적외선 엘이디의 발광영역을 주변의 실제영상영역으로부터 추측하여 채워나가게 되는 인페인팅(Inpainting) 기법이 사용될 수 있으며, 그 결과 보다 완벽하게 구현된 가상현실 영상을 얻을 수 있게 된다. 보정된 가상현실 영상은 앞서 설명한 출력장치(140)를 통해 디스플레이된다.
As a correction method, an inpainting technique in which the light emitting area of the infrared LED is inferred and filled from the surrounding real image area may be used. As a result, a virtual reality image more fully realized may be obtained. The corrected virtual reality image is displayed through the output device 140 described above.

이하에서는 도4 내지 도6을 참조하여 본 발명에 적용되는 적외선 마커(210)의 구성 및 그로 부터 필요한 정보를 해석하는 방법을 보다 상세히 설명하도록 한다. 이때, 적외선 마커(210)는 상기의 적외선 카메라부(122)를 통해 획득한 영상 또는 획득된 영상에서 적외선 엘에디의 발광부가 배치하는 형태 등을 통칭하는 용어이다.Hereinafter, with reference to Figures 4 to 6 will be described in more detail the configuration of the infrared marker 210 applied to the present invention and a method for interpreting the necessary information therefrom. In this case, the infrared marker 210 is a term used to collectively refer to an image obtained through the infrared camera unit 122 or a form in which the light emitting unit of the infrared LED is arranged in the acquired image.

도4는 본 발명에 적용되는 적외선 마커(210)의 구성도이다.4 is a block diagram of an infrared marker 210 applied to the present invention.

도4를 참조하면, 적외선 마커(210)는 위치영역(220)과 종류영역(230)으로 구성된다.Referring to FIG. 4, the infrared marker 210 includes a location area 220 and a type area 230.

영상처리부(123)는 적외선 엘이디의 화소값 범위를 기저장하고 있음으로 해서, 적외선 카메라부(122)를 통해 입력받은 영상으로부터 획득한 적외선 엘이디의 화소값 범위에 해당하는 값을 추출하여 적외선 엘이디 위치의 중심점 내지 시작점을 추출하고, 추출한 적외선 엘이디의 중심점을 기준으로 공지의 Convex Hull 알고리즘을 활용하여 외곽점들을 추출한다.Since the image processing unit 123 stores the pixel value range of the infrared LED in advance, the image processing unit 123 extracts a value corresponding to the pixel value range of the infrared LED obtained from the image input through the infrared camera unit 122 to locate the infrared LED. Extract the center point to the starting point of, and extract the outer points using the known Convex Hull algorithm based on the center point of the extracted infrared LED.

도 5는 Convex Hull 알고리즘을 활용하여 추출한 외곽점들을 나타낸다.5 shows the outer points extracted by using the Convex Hull algorithm.

추출된 외곽점들 중 중간점(320, 360)의 추출은 수학식 1을 통해 추출할 수 있다.Extraction of the midpoints 320 and 360 of the extracted outer points may be extracted through Equation 1.

Figure pat00001
Figure pat00001

(여기서, Px는 각 점들의 X좌표이며, Py는 각 점들의 Y좌표이고, n은 추출된 적외선 엘이디의 중심점 번호를 나타낸다.)
(Px is the X coordinate of each point, Py is the Y coordinate of each point, and n is the center point number of the extracted infrared LED.)

도 6는 실제영상과 오버랩되는 과정에서, 가상영상이 배치될 위치를 검출하는 과정에 대한 구성도이다. 가상영상이 배치될 위치는 가상영상의 좌상단 점이 배치되는 지점에 의해 결정된다.FIG. 6 is a diagram illustrating a process of detecting a position where a virtual image is to be disposed in a process of overlapping with an actual image. The position where the virtual image is to be arranged is determined by the point where the upper left point of the virtual image is disposed.

가상영상의 좌상단 점을 추출하기 위해 추출된 6개의 외곽점들(310, 320, 330, 340, 350, 360) 중 각각의 모서리점(310, 330, 340, 350)에 대해 중간점(320, 360)과의 거리를 합산하여 최소값으로 추출된 모서리점을 좌상단 모서리점으로 선정한다.An intermediate point 320 for each corner point 310, 330, 340, 350 of the six outer points 310, 320, 330, 340, 350, 360 extracted to extract the upper left point of the virtual image 360) and select the corner point extracted as the minimum value as the upper left corner point.

좌상단 모서리점은 수학식 2를 통해 추출할 수 있다.The upper left corner point may be extracted through Equation 2.

Figure pat00002
Figure pat00002

(여기서, Pn은 모서리점(310, 330, 340, 350)의 좌표이며, C1과 C2는 각각 중간점(320, 360)을 나타낸다. P1(310)의 경우는, P1(310)과 C1(320) 사이의 거리(370)와, P1(310)과 C2(360) 사이의 거리(380) 합이며, P2(330)의 경우는, P2(330)와 C1(320) 사이의 거리(390)와, P2(330)와 C2(360) 사이의 거리(400) 합이며, P3(340)의 경우는, P3(340)와 C1(320) 사이의 거리(410)와, P3(340)와 C2(360) 사이의 거리(420) 합이며, P4(350)의 경우는, P4(350)와 C1(320) 사이의 거리(430)와, P4(350)와 C2(360) 사이의 거리(440) 합이다.)
(Pn is the coordinate of the corner points 310, 330, 340, 350, and C1 and C2 represent intermediate points 320, 360, respectively. In the case of P1 310, P1 310 and C1 ( The distance 370 between 320 and the sum of the distances 380 between P1 310 and C2 360, and in the case of P2 330, the distance 390 between P2 330 and C1 320. ) And the distance 400 between the P2 330 and the C2 360, and in the case of the P3 340, the distance 410 between the P3 340 and the C1 320, and the P3 340. And the distance 420 between C2 360, and in the case of P4 350, the distance 430 between P4 350 and C1 320, and between P4 350 and C2 360. Sum of distances (440).)

도 7은 적외선 마커(210) 중 종류 영역(230)을 도시한 것으로서, 종류 영역의 정보를 해석하면 가상현실 영상에 사용될 가상영상의 종류를 알 수 있게 된다.FIG. 7 illustrates the type region 230 of the infrared marker 210. When the type region information is analyzed, the type of the virtual image to be used for the virtual reality image may be known.

도 7은 4개의 적외선 엘이디가 2X2 매트릭스 형태로 배치된 경우를 예시하였으나, 종류 영역(230)에서의 적외선 엘이디의 배치 형태는 이에 한정되는 것은 아니다. 예를 들어 1XN 형태와 같이 선형적으로 배열될 수도 있고, 적외선 엘이디가 제공하는 정보의 포맷에 따라 적절한 개수의 NXN 형태가 사용될 수도 있음은 물론이다. 특히, 적외선 엘이디는 점등(ON 상태)시에는 '1'을 의미하는 것으로, 소등(OFF 상태)에서는 '0'을 의미하는 것으로 해석될 수 있으므로, 필요에 따라서는 1개의 적외선 엘이디만이 사용될 수도 있다.Although FIG. 7 illustrates a case where four infrared LEDs are arranged in the form of a 2 × 2 matrix, the arrangement of the infrared LEDs in the type region 230 is not limited thereto. For example, it may be arranged linearly, such as 1XN form, an appropriate number of NXN form may be used according to the format of the information provided by the infrared LED. In particular, the infrared LED may be interpreted to mean '1' when it is turned on (ON state) and to mean '0' when it is turned off (OFF state). Therefore, only one infrared LED may be used if necessary. have.

본 발명에서는 종류 영역(230)에서의 정보 제공 방법으로 모스 부호를 적용하도록 한다. 도 8은 본 발명에 따른 종류 영역의 정보 제공 형태를 도시한 것으로서, 본 발명에 사용되는 모스 부호의 구성을 예시한 것이다.In the present invention, the Morse code is applied as a method of providing information in the type region 230. 8 shows a form of providing information of a type region according to the present invention, and illustrates the configuration of a Morse code used in the present invention.

도 8은 90개의 데이터를 이용해서 모스 부호를 생성한 경우를 예시한다. 이를 위한 적외선 엘이디의 구성은 9X10의 배치 형태일 수도 있지만, 1*X의 형태로 적외선 엘이디를 구성할 수도 있고, 1개의 적외선 엘이디만 사용이 될 수도 있다. 도 8에서, '1'은 적외선 엘이디가 점등된 경우를, '0'은 적외선 엘이디가 소등된 경우를 의미한다.8 exemplifies a case where a Morse code is generated using 90 pieces of data. The configuration of the infrared LED for this may be a 9X10 arrangement, but may be configured as an infrared LED in the form of 1 * X, only one infrared LED may be used. In FIG. 8, '1' means a case where the infrared LED is turned on, and '0' means a case where the infrared LED is turned off.

한편, 모스 부호는 1과 0의 조합으로만 구성이 되므로, 정보의 제공이 시작되는 지점(start point)과 종료되는 지점(end point)를 식별할 수 있는 규칙이 제공되어야 부호의 해독이 가능하다.On the other hand, since the Morse code is composed only of a combination of 1 and 0, it is possible to decipher the code only when a rule is provided to identify a start point and an end point of providing information. .

이를 위해서, 특정한 숫자의 배열을 종단 코드로 사용할 수 있다. 예를 들어, '1'연속으로 3번이 나오는 경우를 종단 코드로 사용하고, 종단 코스 이후부터는 다시 정보의 제공이 시작되는 것으로 규정할 수도 있다.To do this, you can use an array of specific numbers as the termination code. For example, it is possible to use the case where the third occurrence of '1' is used as the termination code and to provide the information again after the termination course.

한편, 적외선 엘이디의 개수 또는 위치에 따라 영역 구분을 하고, 영역별로 정보 데이터(information data)를 제공하는 부분과 데이타 간격(inter gap)을 의미하는 부분으로 사전 할당하는 방법으로 구현될 수도 있다.On the other hand, the area may be classified according to the number or position of the infrared LEDs, and may be implemented by a method of pre-allocating the information providing information data and the data gap (inter gap).

도 8은 각 행(line)별로, 초기의 6개 적외선 엘이디는 정보 데이터를 제공하는 것으로, 이후의 3개 엘이디는 데이터 간격을 의미하는 것으로 할당한 경우를 예시하고 있다. 도 8의 경우를 참조하면, 초기의 6개 데이터가 제공하는 모스 부호를 해석하게 되면, 해당 모스 부호가 요구하는 가상영상의 종류를 알 수 있게 되고, 해당 가상영상을 DB(124)에서 검색하게 된다. 모스 부호에 매칭되는 가상영상이 가상영상 DB(124)에서 검색된 이후, 실제 영상과 오버랩되어 가상현실 영상이 생성되고 디스플레이되는 과정은 앞서 설명한 바와 동일하므로 반복 설명은 생략한다.FIG. 8 illustrates a case in which the initial six infrared LEDs provide information data for each line, and the subsequent three LEDs are assigned to mean data intervals. Referring to FIG. 8, when the Morse code provided by the initial six data is analyzed, the type of virtual image required by the Morse code can be known, and the DB 124 searches for the virtual image. do. After the virtual image matching the Morse code is retrieved from the virtual image DB 124, the process of generating and displaying the virtual reality image by overlapping with the actual image is the same as described above, and thus, repeated description thereof will be omitted.

이상에서 설명한 본 발명에 대한 구체적인 설명은 첨부된 도면을 참조한 실시예에 의해서 이루어졌지만, 상술한 실시예는 본 발명의 바람직한 예를 들어 설명하였을 뿐이기 때문에, 본 발명이 상기의 실시예에만 국한되는 것으로 이해되어져서는 아니 되며, 본 발명의 권리범위는 후술하는 청구범위 및 그 등가개념으로 이해되어져야 할 것이다.
Although the detailed description of the present invention described above has been made by the embodiments with reference to the accompanying drawings, the above-described embodiment is only described with a preferred example of the present invention, the present invention is limited only to the above embodiments It should not be understood that the scope of the present invention is to be understood by the claims and equivalent concepts described below.

100 : 증강현실 시스템 110 : 대상체
120 : 증강현실 구현장치 121 : 적외선 카메라부
122 : 가시광선 카메라부 123 : 영상처리부
124 : 가상영상DB 125 : 통신부
126 : 위치 검출부 127 : 종류 검출부
130 : 마커정보 송신기 140 : 출력장치
210 : 적외선 마커 220 : 위치 영역
230 : 종류 영역
100: augmented reality system 110: the object
120: augmented reality realization device 121: infrared camera unit
122: visible light camera unit 123: image processing unit
124: virtual image DB 125: communication unit
126: position detector 127: type detector
130: marker information transmitter 140: output device
210: infrared marker 220: location area
230: Kind area

Claims (7)

적외선 엘이디에 의해 적외선 마커를 생성하는 대상체; 및
상기 대상체를 촬영한 실제 영상과 상기 대상체의 적외선 마커를 촬영하여, 상기 적외선 마커로부터 판독되는 가상 영상을 렌더링하는 증강현실 구현 장치를 포함하되,
상기 적외선 마커가 제공하는 코드는 모스 부호인 것을 특징으로 하는 증강현실 시스템.
An object generating an infrared marker by the infrared LED; And
And an augmented reality implementation apparatus for rendering a virtual image read from the infrared marker by capturing an actual image of the object and an infrared marker of the object,
Augmented reality system, characterized in that the code provided by the infrared marker is a Morse code.
제1항에 있어서,
상기 증강현실 구현장치는,
상기 대상체의 실제 영상을 촬영하는 가시광선 카메라부;
상기 적외선 엘이디의 점등 상태를 촬영하는 적외선 카메라부; 및
상기 실제 영상과 가상 영상을 오버렙하여 가상현실영상을 생성하는 영상처리부를 포함하는 것을 특징으로 하는 증강현실 시스템.
The method of claim 1,
The augmented reality implementation device,
A visible light camera unit for photographing an actual image of the object;
An infrared camera unit photographing a lighting state of the infrared LED; And
An augmented reality system comprising an image processor for generating a virtual reality image by overlapping the real image and the virtual image.
제2항에 있어서,
상기 증강현실 구현장치는,
상기 촬영된 엘이디의 점등 상태로부터 가상현실영상에서 상기 가상 영상이 배치될 위치에 대한 정보를 추출하는 위치 검출부; 및
상기 촬영된 엘이디의 점등 상태로부터 표시되어야 할 가상 영상의 내용에 대한 정보를 추출하는 종류 검출부;를 포함하는 것을 특징으로 하는 증강현실 시스템.
The method of claim 2,
The augmented reality implementation device,
A position detector for extracting information on a position where the virtual image is to be disposed in the virtual reality image from the lit state of the photographed LED; And
And a type detecting unit extracting information on the content of the virtual image to be displayed from the lighting state of the photographed LED.
제2항 또는 제3항에 있어서,
상기 증강현실 구현장치는,
상기 가상 영상을 저장하는 가상 영상 DB; 를 더 포함하는 것을 특징으로 하는 증강현실 시스템.
The method according to claim 2 or 3,
The augmented reality implementation device,
A virtual image DB for storing the virtual image; Augmented reality system characterized in that it further comprises.
제2항 또는 제3항에 있어서,
상기 증강현실 구현장치는,
통신망을 통해 정보의 송수신이 가능한 통신부; 를 더 포함하는 것을 특징으로 하는 증강현실 시스템.
The method according to claim 2 or 3,
The augmented reality implementation device,
A communication unit capable of transmitting and receiving information through a communication network; Augmented reality system characterized in that it further comprises.
제1항에 있어서,
상기 대상체에 구현될 적외선 마커에 대한 정보를 송신하는 마커정보 송신기; 를 더 포함하고,
상기 대상체는,
상기 마커정보 송신기로부터 적외선 마커에 대한 정보를 수신하는 마커정보 수신부;
상기 적외선 엘이디 발광부로부터의 적외선을 외부로 투과시키는 적외선 마커 표시부;
상기 마커정보 수신부로부터 수신된 적외선 마커에 대한 정보에 의해 상기 적외선 엘이디 발광부를 제어하는 제어부; 를 포함하는 것을 특징으로 하는 증강현실 시스템.
The method of claim 1,
A marker information transmitter for transmitting information on an infrared marker to be implemented in the object; Further comprising:
The object,
A marker information receiver configured to receive information on an infrared marker from the marker information transmitter;
An infrared marker display unit which transmits infrared rays from the infrared LED light emitting unit to the outside;
A control unit controlling the infrared LED light emitting unit based on the information on the infrared marker received from the marker information receiving unit; Augmented reality system comprising a.
제1항에 있어서,
상기 증강현실 구현장치에 의해 생성된 증강현실 영상을 출력하는 출력장치; 를 더 포함하는 것을 특징으로 하는 증강현실 시스템.
The method of claim 1,
An output device for outputting an augmented reality image generated by the augmented reality implementation device; Augmented reality system characterized in that it further comprises.
KR1020120010364A 2012-02-01 2012-02-01 Augmented reality system using the morse code KR101315433B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120010364A KR101315433B1 (en) 2012-02-01 2012-02-01 Augmented reality system using the morse code

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120010364A KR101315433B1 (en) 2012-02-01 2012-02-01 Augmented reality system using the morse code

Publications (2)

Publication Number Publication Date
KR20130089032A true KR20130089032A (en) 2013-08-09
KR101315433B1 KR101315433B1 (en) 2013-10-07

Family

ID=49215119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120010364A KR101315433B1 (en) 2012-02-01 2012-02-01 Augmented reality system using the morse code

Country Status (1)

Country Link
KR (1) KR101315433B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100542370B1 (en) 2004-07-30 2006-01-11 한양대학교 산학협력단 Vision-based augmented reality system using invisible marker
KR101397214B1 (en) * 2007-06-05 2014-05-20 삼성전자주식회사 System and method for generating virtual object using augmented reality

Also Published As

Publication number Publication date
KR101315433B1 (en) 2013-10-07

Similar Documents

Publication Publication Date Title
US11488366B2 (en) Augmented reality lighting effects
CN108780578B (en) Augmented reality system and method of operating an augmented reality system
CN107408026B (en) Information processing apparatus, information processing method, and computer program
US10204452B2 (en) Apparatus and method for providing augmented reality-based realistic experience
CN106063261B (en) Enhancement information is shown
US9563981B2 (en) Information processing apparatus, information processing method, and program
CN110476148B (en) Display system and method for providing multi-view content
KR102627636B1 (en) Method and apparatus for alerting to head mounted display user
US8780178B2 (en) Device and method for displaying three-dimensional images using head tracking
CN106062862A (en) System and method for immersive and interactive multimedia generation
CN111881861A (en) Display method, device, equipment and storage medium
US10884576B2 (en) Mediated reality
WO2015200406A1 (en) Digital action in response to object interaction
US10102627B2 (en) Head-mounted display device, method of controlling a head-mounted display device, an information transmitting and receiving system, and a non-transitory computer readable medium for augmenting visually recognized outside scenery
JP2018527649A (en) Techniques for displaying text more efficiently in virtual image generation systems
KR101274301B1 (en) Augmented reality system using the restoration of the image of infrared led area
CN112105983A (en) Enhanced visual ability
KR20190040015A (en) Augmented Reality Devices and Methods
JP2016033611A (en) Information provision system, display device, and method of controlling display device
KR101236644B1 (en) Method of using Infrared marker based on augmented reality for providing Marker information with real-time changing and producing multiple markers
KR101665363B1 (en) Interactive contents system having virtual Reality, augmented reality and hologram
KR101315433B1 (en) Augmented reality system using the morse code
KR20110072108A (en) Vision based augmented reality system using mobile terminal having tag
KR20200063937A (en) System for detecting position using ir stereo camera
CN104850383A (en) Information processing method and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170925

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180928

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190905

Year of fee payment: 7