KR101315433B1 - Augmented reality system using the morse code - Google Patents

Augmented reality system using the morse code Download PDF

Info

Publication number
KR101315433B1
KR101315433B1 KR20120010364A KR20120010364A KR101315433B1 KR 101315433 B1 KR101315433 B1 KR 101315433B1 KR 20120010364 A KR20120010364 A KR 20120010364A KR 20120010364 A KR20120010364 A KR 20120010364A KR 101315433 B1 KR101315433 B1 KR 101315433B1
Authority
KR
Grant status
Grant
Patent type
Prior art keywords
infrared
image
marker
augmented reality
information
Prior art date
Application number
KR20120010364A
Other languages
Korean (ko)
Other versions
KR20130089032A (en )
Inventor
김응곤
류남훈
이혜미
정종욱
Original Assignee
에스알시 주식회사
순천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Grant date

Links

Images

Abstract

본 발명에 따른 증강현실 시스템은 적외선 엘이디에 의해 구현되는 적외선 마커를 가진 대상체 및 상기 대상체의 실제 영상과 상기 대상체의 적외선 마커를 촬영하여, 촬영된 실제 영상 위에 상기 적외선 마커로부터 판독되는 가상 영상을 렌더링하여 새로운 영상을 생성하는 증강현실 구현장치를 포함함으로써, 대상체에 적용되는 마커가 외관상 드러나지 않고도 증강현실을 구현할 수 있는 시스템을 제공한다. Augmented reality system according to the invention renders a virtual image that is read from the infrared marker on the recorded actual image and an infrared marker in the target object in the target object and the target object with an infrared marker which is implemented by an infrared LED, the recorded real image and by including the augmented reality implementation apparatus for creating a new image, provides a system that can be implemented without the augmented reality marker is obscured apparently applied to the target object.

Description

모스 부호 기반의 증강현실 시스템{AUGMENTED REALITY SYSTEM USING THE MORSE CODE} Morse code-based augmented reality system {AUGMENTED REALITY SYSTEM USING THE MORSE CODE}

본 발명은 증강현실 시스템에 관한 것으로서, 보다 상세하게는 모스 부호 기반의 증강현실 시스템에 관한 것이다. The present invention relates to augmented reality systems, and more particularly relates to an augmented reality system of Morse code-based.

증강현실(AUGMENTED REALLITY, AG)이란 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술로서, 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(MIXED REALLITY, MR)이라고도 한다. AR (AUGMENTED REALLITY, AG) is the user and as a technique that shows overlapping the virtual object in the real world, the eye, combines the virtual world with the additional information in real time to the real world, because they show a single image mixed reality (MIXED REALLITY, Also known as MR).

현실세계를 가상세계를 이용해서 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이며, 컴퓨터 그래픽은 현실환경에서 필요로 하는 정보를 추가로 제공하는 역할을 한다. The concept of augmented reality to complement using the virtual world to the real world using the virtual environment created with computer graphics, but the protagonist is a real environment, computer graphics serve to provide additional information required in the real environment. 사용자가 보는 실제 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상환경과의 구분이 모호해지도록 한다는 뜻이다. It means that the user is viewing by overlapping (overlap) the three-dimensional virtual image in real image with the distinction between real and virtual environments so vague. 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다. Real and virtual objects augmented reality technology that will provide a better mix of realism and additional information to allow the user to view the real-world environment.

예를 들어 스마트폰 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기되어 사용자가 가상의 콘텐츠를 제공받을 수 있는 것이다. For example, a smartphone that will illuminate the face around with a camera information such as the location of the stores in your area, your phone number is marked with a stereoscopic image can be provided to users of the virtual content.

이를 위한 방식으로는 GPS 및 LBS 기반의 방식이 있고, 비전, 즉 시각을 기반으로 한 방식이 있는데, 본 발명은 비전을 기반으로 하되, 모스 부호를 활용하는 증강현실 시스템에 관련한 것이다. In such a way as this, there is a method, based on GPS and LBS based on the vision, that is, time and method of the present invention also related to augmented reality systems utilizing, Morse code, but is based on the vision.

비전 기반의 증강현실 시스템에서는 빌딩이나 상점에 적용되어 있는 마커를 카메라를 통해 판독하게 되는데, 이러한 마킹기술로는 2차원 바코드의 일종인 QR(Quick Response) 코드나, 구조화된 글자형식의 코드인 (ePosition) 코드 등을 사용하는 방법이 있다. The vision-based augmented reality system there is to read the marker is applied to the building or shop through the camera of this marking technology is a two-dimensional bar code a type of QR (Quick Response) codes, or structured text format of the Code ( ePosition) there is a way to use the code.

그런데, 종래의 비전 기반의 증강현실 시스템은 육안으로 보이는 마커(Visible Marker,VM)가 표시되어 있는 추적 대상체(Target Object,TO)를 촬영하고 촬영된 대상체의 실제 영상에 가상영상을 렌더링한 화면이 출력되는 시스템인데, 이러한 종래의 시스템에서는 육안으로 보이는 마커를 이용하므로 정확하고 빠르게 증강현실을 구현할 수 있는 장점이 있었으나, 이러한 마커는 추적 대상체에 인위적으로 부가되어야 하는 부가물이기 때문에, 실제 원하는 대상물을 가리게 하거나 육안을 거슬리게 하는 문제가 있다. However, the conventional vision-based augmented reality system is a screen shot of tracking an object (Target Object, TO) with the naked eye look with marker (Visible Marker, VM) is displayed and render the virtual image to the actual image of the photographed object, inde system output, since such a conventional system, additional to touch the advantage of accurately and implement the augmented reality faster because using the human eye seems to be a marker, such a marker may be artificially added to the tracking target object water, the actual desired target obscure or there is a problem that is annoying to the human eye.

또한, 대상체에 대응하는 각각의 마커들이 별도로 마련되어야 하는바 그 응용 영역에 한계가 있다. In addition, there is a limit to the application bar area are each marker corresponding to the target object to be provided separately.

그리고, 육안으로 보이는 마커는 대상체와의 거리가 멀거나, 야간에는 카메라를 통해 인식이 되지 않기 때문에 주간이어야 하며 근접해야만 가상영상을 획득할 수 있는 한계도 있다. Then, a marker appears to the naked eye may also be limits week because there the distance to the object, far or night is not recognized by the camera, and should be close to acquiring a virtual image.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 대상체에 적용되는 마커가 외관상 드러나지 않으면서, 다양한 조합이 가능한 모스 부호를 사용함으로써 보다 다양한 정보를 제공할 수 있는 증강현실 시스템을 제공하는 데 그 목적이 있다. The present invention for solving the above problems, unless obscured appearance, the marker is applied to a target object standing in, to provide a more augmented reality system which can provide a variety of information by using the available Morse code different combinations that purpose there is.

본 발명의 증강현실 시스템은, 적외선 엘이디에 의해 적외선 마커를 생성하는 대상체; Of the present invention the augmented reality system, the object of generating infrared ray marker by an infrared LED; 및 상기 대상체를 촬영한 실제 영상과 상기 대상체의 적외선 마커를 촬영하여, 상기 적외선 마커로부터 판독되는 가상 영상을 렌더링하는 증강현실 구현 장치를 포함하되, 상기 적외선 마커가 제공하는 코드는 모스 부호일 수 있다. And code by photographing a real image and an infrared marker in the target object photographed the subject, including, but augmented reality implementation apparatus for rendering a virtual image that is read from the infrared markers, provided by the infrared marker may be a Morse code .

상기 증강현실 구현장치는, 상기 대상체의 실제 영상을 촬영하는 가시광선 카메라부; The augmented reality implementation apparatus, a visible light camera unit for photographing a real image of the target object; 상기 적외선 엘이디의 점등 상태를 촬영하는 적외선 카메라부; An infrared camera unit for shooting a light-on state of the infrared LED; 및 상기 실제 영상과 가상 영상을 오버렙하여 가상현실영상을 생성하는 영상처리부를 포함할 수 있다. And by rep over the real image and the virtual image may comprise an image processing unit for generating virtual reality images.

상기 증강현실 구현장치는, 상기 촬영된 엘이디의 점등 상태로부터 가상현실영상에서 상기 가상 영상이 배치될 위치에 대한 정보를 추출하는 위치 검출부; The augmented reality device is implemented in a virtual reality image from the light-on state of the photographed LED position detecting unit for extracting information about the location to be disposed above the virtual image; 및 상기 촬영된 엘이디의 점등 상태로부터 표시되어야 할 가상 영상의 내용에 대한 정보를 추출하는 종류 검출부;를 포함할 수 있다. And the type detection unit for extracting information about the contents of the virtual image to be displayed from the lighting state of the LED taken; may include.

상기 증강현실 구현장치는, 상기 가상 영상을 저장하는 가상 영상 DB; The augmented reality device is implemented, a virtual image DB for storing the virtual image; 를 더 포함할 수 있고, 통신망을 통해 정보의 송수신이 가능한 통신부;를 더 포함할 수도 있다. The may further comprise and a communication unit capable of transmitting and receiving information via a communication network; may further comprise a.

본 발명의 증강현실 시스템은 상기 대상체에 구현될 적외선 마커에 대한 정보를 송신하는 마커정보 송신기; Augmented reality marker system information transmitter for transmitting information on an infrared marker is implemented in the target object of the present invention; 를 더 포함하고, 상기 대상체는, 상기 마커정보 송신기로부터 적외선 마커에 대한 정보를 수신하는 마커정보 수신부; Including more, and the target object, the marker information receiver for receiving information about the infrared marker from the marker information transmitter; 상기 적외선 엘이디 발광부로부터의 적외선을 외부로 투과시키는 적외선 마커 표시부; Infrared marker display section for infrared light from the infrared LED light emission unit transmitted to the exterior; 상기 마커정보 수신부로부터 수신된 적외선 마커에 대한 정보에 의해 상기 적외선 엘이디 발광부를 제어하는 제어부;를 포함할 수 있으며, 상기 증강현실 구현장치에 의해 생성된 증강현실 영상을 출력하는 출력장치;를 더 포함할 수도 있다. An output device for outputting the augmented reality image generated by the can, and the augmented reality implementation devices comprise;; a control unit for controlling the light-emitting parts of the infrared LED by the information about the infrared marker received from the marker information receiver further includes You may.

본 발명에 따르면, According to the invention,

추적 대상체에 적용되는 마커가 외관상 드러나지 않기 때문에, 실제 원하는 대상물을 가리거나 육안을 거슬리게 하지 않는다. Since the marker is applied to the tracking target object apparently not revealed, the actual point to the desired object, or does not annoying to the human eye.

또한, 대상체마다 별도의 마커가 구비될 필요가 없으며, 대량의 마커를 일거에 생성이 가능하므로 다양하게 그 응용이 가능해진다. In addition, it is not necessary to be equipped with separate markers for each target object, it is possible to vary its application because it can be produce a large amount of the marker in one action.

그리고, 적외선 마커를 적외선 카메라로 촬영하기 때문에 대상체로부터의 거리가 멀어도 가상영상의 출력이 가능하고, 야간에도 가상영상의 출력이 가능하다. And, because recording the infrared markers with an infrared camera, and the distance from the target object meoleodo possible to output the virtual image, it is possible in the output of the virtual image at night.

더불어, 실제영상에서 드러날 수 있는 적외선 엘이디 등을 보정하는 것에 의해 더욱 완벽한 영상의 재현이 가능하다. In addition, it is possible to reproduce a more complete image by correcting the infrared LED, etc., which can be revealed in the actual image.

나아가, 모스 부호가 제공하는 대상체의 위치 또는 종류에 대한 정보를 활용하게 되므로 모스 부호를 표시할 수 있는 간단한 구성을 통해 대상체에 대한 정보를 제공할 수 있게 되므로 시스템의 구성이 간략해지는 이점이 있다. Moreover, since because the use of information about the position or the type of the target object to the Morse code service enables a simple configuration that can display a Morse code provides information about the object, there is an advantage becomes the system's configuration simplicity.

도1은 본 발명에 따른 증강현실 시스템을 도시한 것이다. Figure 1 illustrates the augmented reality system according to the present invention.
도2는 본 발명에 따른 증강현실 시스템의 일부를 도식화한 것이다. Figure 2 is a schematic view showing a portion of the augmented reality system according to the present invention.
도3은 본 발명에 따른 증강현실 시스템의 응용적 구성을 도시한 것이다. Figure 3 illustrates a configuration of the application ever augmented reality system according to the present invention.
도4는 본 발명에 적용되는 적외선 마커의 구성도이다. Figure 4 is a block diagram of the infrared marker applicable to the present invention.
도5는 적외선 마커로부터 Convex Hull 알고리즘을 활용하여 추출한 외곽점들을 도시한 것이다. 5 shows the outer points extracted by utilizing Convex Hull algorithm from the infrared markers.
도6은 가상영상의 좌상단 코너점 검출 구성도이다. 6 is an upper left corner point detection configuration of the virtual image.
도7은 적외선 마커에서의 종류 영역의 구성도이다. Figure 7 is a block diagram of the type area in the infrared markers.
도8은 본 발명에 사용되는 모스 부호의 구성을 예시한 것이다. Figure 8 is an illustration of a configuration of the Morse code to be used in the present invention.

본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 보다 구체적으로 설명하되, 이미 주지된 기술에 대해서는 설명을 생략하기로 한다. But with reference to the accompanying drawings, preferred embodiments of the invention described in more detail, there will be omitted the description of the already known techniques.

도1은 본 발명에 따른 증강현실 시스템을 도시한 것이고, 도2는 본 발명에 따른 증강현실 시스템의 일부를 도식화한 것이다. Figure 1 depicts the augmented reality system according to the invention, Figure 2 is a schematic view showing a portion of the augmented reality system according to the present invention.

도1 내지 도2를 참조하여 설명하면, 본 발명에 따른 증강현실 시스템(100)은 대상체(110), 증강현실 구현장치(120), 마커정보 송신기(130) 및 출력장치(140)를 포함하여 구성된다. Referring to FIG 1 to FIG. 2, the augmented reality system 100 according to the present invention includes an object 110, the augmented reality implementation device 120, marker information transmitter 130, and an output device 140 It is configured.

대상체(110)는 적외선 엘이디에 의해 구현되는 적외선 마커를 가진 것으로서 사용자가 가상의 콘텐츠를 보고자하는 대상물체이고, 마커정보 송신기(130)는 대상체(110)에 구현될 적외선 마커에 대한 정보를 송신하기 위한 수단이다. Object 110 is the object that you want to view the virtual content as having an infrared marker which is implemented by an infrared LED, a transmitter 130, marker information, transmitting information about the infrared marker is implemented in the target object (110) a means.

본 발명의 증강현실 시스템(100)에서의 대상체(110)는 마커정보 수신부(미도시), 적외선 엘이디 발광부(미도시), 적외선 마커 표시부(IM) 및 제어부(미도시)를 포함하여 구성된다. Object 110 in the augmented reality system 100 of the present invention is configured to include the marker information receiving unit (not shown), an infrared LED light emission unit (not shown), an infrared marker display section (IM) and a control unit (not shown) .

마커정보 수신부는 마커정보 송신기(130)로부터 송신된 적외선 마커에 대한 정보를 수신하기 위한 구성이고, 적외선 엘이디 발광부는 복수의 적외선 엘이디가 배열되어 있어서 전원 제어에 의해 복수의 적외선 엘이디 각각이 발광되는 구성이다. Marker information receiving unit is configured, and the infrared LED light emission unit configuration in which each of the light emitting a plurality of infrared LED by the power supply control method is an array of a plurality of infrared LED for receiving information about the infrared marker transmitted from the marker information transmitter 130, to be. 적외선 마커 표시부(IM)는 발광된 적외선 엘이디의 빛이 대상체(110) 외부로 투과될 수 있도록 하는 구성이다. Infrared marker display section (IM) is a configuration that allows the light of the infrared light-emitting LED can be transmitted to an external target object 110. The

즉, 마커정보 송신기(130)는 해당 대상체(110)에 대한 정보를 대상체(110)에서 적외선 마커의 형태로 구현될 수 있도록 하는 제어신호를 송신하게 되고, 대상체(110)의 마커정보 수신부는 마커정보 송신기(130)에서 전송된 제어신호를 수신하게 된다. That is, the marker information transmitter 130 is to transmit a control signal to be implemented in the form of infrared markers in a subject (110) the information about the target object 110, marker information receiving unit of the target object 110 marker and it receives a control signal transmitted from the information transmitter 130. 마커정보 수신부에 의해 수신된 제어신호는 제어부로 전달되며, 제어부는 제어신호에 따라 적외선 엘이디 발광부의 각각의 적외선 엘이디의 전원을 제어하게 된다. The control signal received by the receiving marker information is passed to the control unit, the control unit will control the power of each infrared LED infrared LED light-emitting portion in response to a control signal. 제어부의 전원제어에 의해서 발광된 적외선 엘이디는 적외선 마커 표시부(IM)를 통해 외부로 투과되는 것이다. The infrared LED light emission by the power control of the controller will be via infrared marker display section (IM) transmitted to the outside.

여기에 적외선 발광부가 외부에서 인식되지 않도록 반투명 유색 아크릴 등으로 된 차단막(미도시)이 더 구성될 수 있고, This infrared light emitting portion may be not be recognized from the outside (not shown) such as a protection film to the translucent colored acrylic further configured to,

상술한 마커정보 송신기(130)와 마커정보 수신부는 유선, Zigbee, Bluetooth 등의 유무선 통신망에 의해 정보의 송수신이 가능하다. The above-described marker information transmitter 130 and the marker information receiving unit is capable of sending and receiving of information by wired or wireless communication network such as a wired, Zigbee, Bluetooth.

다음으로, 증강현실 구현장치(120)는 대상체(110)의 실제 영상과 대상체(110)의 적외선 마커를 촬영하여, 촬영된 실제 영상 위에 적외선 마커로부터 판독되는 가상 영상을 렌더링하여 새로운 영상을 생성하는 장치로서, 가시광선 카메라부(121), 적외선 카메라부(122), 영상처리부(123), 가상영상 DB(124) 및 통신부(125)를 포함한다. Next, the augmented reality implementation unit 120 renders the virtual images by photographing an infrared marker in the real image and the target object 110 in the object 110, and read out from the infrared marker on the captured actual image to generate a new image an apparatus, a visible light camera 121, infrared camera 122, image processing unit 123, a virtual image DB (124) and communication unit (125).

증강현실 구현장치(120)의 가시광선 카메라부(121)는 대상체(110)의 실제 영상을 촬영하기 위한 수단으로, 가시광선 파장 영역의 빛을 수광한다. Visible light camera 121 of the augmented reality implementation of apparatus 120 is a means for photographing a real image of the object 110, and receives the light in the visible light wavelength region.

본 발명에서 증강현실 구현장치(120)는 가시광선 카메라부(121) 외에 적외선 카메라부(122)를 더 포함하여 구성된다. AR implementing device 120 in the present invention further includes an infrared camera module 122, in addition to visible light, the camera unit 121.

적외선 카메라부(122)는 대상체(110)의 적외선 마커를 촬영하기 위한 수단으로, 가시광선 파장 영역보다 긴 적외선 파장 영역의 빛을 수광한다. An infrared camera unit 122 is a means for photographing an infrared marker in the subject 110, and receives the light in the visible wavelength region longer than the infrared wavelength range.

두 카메라부(121,122)에 의해 촬영된 영상은 영상처리부(123)에서 획득받게 된다. An image taken by the two camera unit 121, 122 is received by the image acquisition processing unit 123. 영상처리부(123)는 두 카메라부(121,122)로부터 수신된 아날로그 영상신호를 디지털 영상신호로 변환한 후 디지털신호처리 프로세서를 이용하여 디지털적으로 영상신호를 처리하게 된다. Image processor 123 is to converts the analog image signals received from the two camera unit 121 and 122 into a digital image signal by using a digital signal processor processing an image signal digitally.

즉, 영상처리부(123)는 대상체(110)의 적외선 마커를 촬영하여 얻은 영상신호를 실시간으로 분석하여 분석된 영상신호로부터 실제 영상과 렌더링 되어야 할 가상 영상이 어떤 것인지, 렌더링 될 가상 영상이 배치되어야 할 위치 및 배치되어야 할 가상 영상의 자세에 대한 정보를 해석해낸다. That is, the image processing unit 123 whether the virtual image is to be rendered from the actual image from the image signal analyzed by analyzing a video signal obtained by photographing an infrared marker in the subject 110 in real time, which, of virtual images to be rendered to be placed recall and interpret information about the location and orientation of the virtual image to be deployed to.

렌더링시 실제 영상과 함께 디스플레이될 가상 영상은 가상영상 DB(124)에 저장되어 있다. Virtual image to be displayed with the actual rendered images are stored in the virtual image DB (124). 가상영상 DB(124)는 추가적으로 또는 배타적으로 통신부(125)가 구비할 수 있다. Virtual image DB (124) may be provided additionally or exclusively the communication unit 125.

적외선 마커는 복수의 적외선 엘이디를 포함하게 되는데, 복수의 적외선 엘이디는 2차원 형태로 배열될 수 있다. Infrared markers that there is a plurality of infrared LEDs, a plurality of infrared LEDs may be arranged in two-dimensional form. 이때, 일부의 적외선 엘이디는 렌더링될 가상영상이 표시될 위치 및 자세에 대한 정보는 제공하고, 그 외의 적외선 엘이디는 표시가 요구되는 가상 영상의 내용이 무엇인지에 대한 정보를 제공하는 형태로 구성될 수 있다. At this time, part of the infrared LEDs is provided for information to be displayed, the virtual images to be rendered position and attitude, and other infrared LED is be of a type which provides information as to what the contents of the virtual image displayed requires can.

적외선 카메라(122)가 촬영한 적외선 마커 영상은 위치 검출부(126) 및 종류 검출부(127)로 전달된다. The infrared marker image taking infrared camera 122 is transmitted to the position detecting section 126 and the type of detector 127. 위치 검출부(126)는 촬영된 적외선 마커 영상으로부터 렌더링시 가상영상이 배치되어야 할 위치 및 배치되는 가상영상의 자세에 대한 정보를 추출하기 위한 구성이다. Position detecting section 126 is configured to extract information about the position of the location and arrangement to be disposed, the virtual image, the rendering from the recorded infrared image marker virtual image. 종류 검출부(127)는 촬영된 적외선 마커 영상으로부터 표시가 요구되는 마커의 내용에 대한 정보를 추출하기 위한 구성이다. Type detection unit 127 is configured to extract information about the contents of the marker displayed a request from the recorded infrared marker image.

이때, 적외선 엘이디는 그 배열되어 있는 위치에 따라, 위치 및 자세에 대한 정보는 제공하는 엘이디와 내용에 정보를 제공하는 엘이디로 구분될 수 있다. In this case, the infrared LEDs can be divided into the LED to provide information to the LED and the information providing information about the position and posture according to the position that is the array. 이처럼 배열위치로 적외선 엘이디의 용도를 구분할 경우, 위치 검출부(126) 및 종류 검출부(127)는 자신들이 정보를 얻어야할 적외선 엘이디를 그 배열 위치에 따라 구분할 수 있다. Thus, when separate the use of the infrared LED to the arrangement position, the position detection unit 126 and the type detection unit 127 is an infrared LED to obtain the information they can be distinguished according to their arrangement positions.

영상처리부(123)는 위치 검출부(126) 및 종류 검출부(127)로부터 전달받은 정보를 이용해서, 표시되어야 할 가상영상의 종류 및 표시될 위치와 자세를 결정하게 된다. Image processor 123 is to determine the position detection unit 126 and a type using the information received from the detection unit 127, the type of the virtual image to be displayed and a position and a posture to be displayed. 영상처리부(123)는 표시되어야 할 가상영상을 가상영상 DB(124)에서 검색해서 호출해낸다. Image processor 123 is a virtual image to be displayed recall call by searching in the virtual image DB (124).

영상처리부(123)는 호출된 가상영상을 가시광선 카메라부(121)에서 촬영된 실제 영상을 오버랩(overlap) 시켜서 증강현실영상을 생성한다. Image processor 123 is a call to a virtual image by the visible light camera 121, overlaps (overlap) an actual image taken in to generate the augmented reality images.

생성된 증강현실영상은 위한 출력장치(140)에 의해 디스플레이된다. The resulting augmented reality image is displayed by the output unit 140 for. 출력장치(140)로는 , 휴대폰의 디스플레이, 컴퓨터 모니터, HMD(Head Mounted Display), 크리스탈 아이즈(Crystal Eyes) 등의 입체안경이나 안경형 HMD(Optical See-Through HMD) 등이 사용될 수 있다. An output device (140) include a display and the like, (Head Mounted Display), a computer monitor, the HMD mobile phone, Crystal Eyes (Crystal Eyes) head-mounted stereoscopic glasses or HMD (Optical See-Through HMD), such as may be used.

이 경우, 적외선 엘이디는 육안으로는 인식되지 않지만, 가시광선 카메라부(121)에 의해서는 인식이 될 수 있고, 그 결과 가시광선 카메라부(121)에서 획득한 영상에는 대상체의 실제영상 뿐만 아니라 적외선 엘이디에 대한 영상이 존재할 수 있고, 이는 증강현실영상에서 일종의 노이즈로 작용을 하게 된다. In this case, the infrared LED to the naked eye is not recognized, the visible light can be recognized by the camera unit 121, so that visible light of the image, the object acquired by the camera unit 121, a real image, as well as infrared and the image of the LED may be present, which is to act as a kind of noise from the augmented reality image. 따라서, 본 발명에서는 증강현실 구현장치(120)의 영상처리부(123)를 이용해서 노이즈가 보정된 대상체의 실제영상을 얻을 수 있도록 한다. Therefore, in the present invention, using the image processor 123 of the augmented reality implementation unit 120 is to obtain the actual image of the object is corrected noise.

즉, 영상처리부(123)에서는 적외선 카메라부(122)로부터 획득된 영상에서 Convex Hull 알고리즘을 통해 적외선 마커, 즉 적외선 엘이디의 위치 정보를 추출하고, 추출된 적외선 엘이디의 위치정보를 이용해서 가시광선 카메라부(121)로부터 획득된 실제영상에 존재하는 적외선 엘이디가 촬영된 영역을 보정한다. That is, the image processing unit 123, the infrared marker through Convex Hull algorithm in an image obtained from the infrared camera 122, i.e. to extract the position information of infrared LEDs, and using the position information of the extracted infrared LED visible light camera It corrects the an infrared LED, which exist in the actual photographing area obtained from the unit 121.

보정방법으로는 적외선 엘이디의 발광영역을 주변의 실제영상영역으로부터 추측하여 채워나가게 되는 인페인팅(Inpainting) 기법이 사용될 수 있으며, 그 결과 보다 완벽하게 구현된 가상현실 영상을 얻을 수 있게 된다. Correction method, which is a painting (Inpainting) technique that is out of the light emitting region of the infrared LED populated by estimated from the actual image area of ​​the peripheral can be used, it is possible to obtain the virtual reality image with full implementation than the result. 보정된 가상현실 영상은 앞서 설명한 출력장치(140)를 통해 디스플레이된다. The corrected virtual reality images are displayed via the output device 140 above.

이하에서는 도4 내지 도6을 참조하여 본 발명에 적용되는 적외선 마커(210)의 구성 및 그로 부터 필요한 정보를 해석하는 방법을 보다 상세히 설명하도록 한다. Hereinafter, with reference to FIGS. 4 to 6 will be described in more detail to the construction and method of analyzing the information required from it of the infrared marker 210, which is applicable to the present invention. 이때, 적외선 마커(210)는 상기의 적외선 카메라부(122)를 통해 획득한 영상 또는 획득된 영상에서 적외선 엘에디의 발광부가 배치하는 형태 등을 통칭하는 용어이다. At this time, the infrared marker 210 is a general term for a form such as to place the light emitting portion of the infrared El eddy in the image or the obtained image obtained by the infrared camera 122 of the.

도4는 본 발명에 적용되는 적외선 마커(210)의 구성도이다. Figure 4 is a block diagram of the infrared marker 210, which is applicable to the present invention.

도4를 참조하면, 적외선 마커(210)는 위치영역(220)과 종류영역(230)으로 구성된다. 4, the infrared marker (210) is of a location area 220 and the type region 230.

영상처리부(123)는 적외선 엘이디의 화소값 범위를 기저장하고 있음으로 해서, 적외선 카메라부(122)를 통해 입력받은 영상으로부터 획득한 적외선 엘이디의 화소값 범위에 해당하는 값을 추출하여 적외선 엘이디 위치의 중심점 내지 시작점을 추출하고, 추출한 적외선 엘이디의 중심점을 기준으로 공지의 Convex Hull 알고리즘을 활용하여 외곽점들을 추출한다. Image processor 123 is a reservoir for the pixel value range of an infrared LED, and that in it, to extract the value corresponding to the pixel value range of the infrared LEDs obtained from an image received through an infrared camera module 122, an infrared LED position extracting a central point to the starting point of, and utilizing Convex Hull algorithm known relative to the center point of the infrared LED extracted extracts the outside point.

도 5는 Convex Hull 알고리즘을 활용하여 추출한 외곽점들을 나타낸다. Figure 5 shows the outer points extracted by utilizing Convex Hull algorithm.

추출된 외곽점들 중 중간점(320, 360)의 추출은 수학식 1을 통해 추출할 수 있다. Of the extraction point extracted outside of the intermediate point (320, 360) can be extracted from the equation (1).

Figure 112012008501843-pat00001

(여기서, Px는 각 점들의 X좌표이며, Py는 각 점들의 Y좌표이고, n은 추출된 적외선 엘이디의 중심점 번호를 나타낸다.) (Here, Px is the X coordinate of each point, Py is the Y-coordinate of each point, n represents the number of center points of the extracted infrared LEDs.)

도 6는 실제영상과 오버랩되는 과정에서, 가상영상이 배치될 위치를 검출하는 과정에 대한 구성도이다. Figure 6 is in the process of overlapping with the real image, a block diagram of a process for detecting a position to place the virtual image. 가상영상이 배치될 위치는 가상영상의 좌상단 점이 배치되는 지점에 의해 결정된다. Position to the virtual image layout is determined by the point at which the upper left point is disposed in the virtual image.

가상영상의 좌상단 점을 추출하기 위해 추출된 6개의 외곽점들(310, 320, 330, 340, 350, 360) 중 각각의 모서리점(310, 330, 340, 350)에 대해 중간점(320, 360)과의 거리를 합산하여 최소값으로 추출된 모서리점을 좌상단 모서리점으로 선정한다. For each of the corner points (310, 330, 340, 350) of the six outer point extraction in order to extract the upper left point of the virtual image (310, 320, 330, 340, 350, 360) intermediate positions (320, 360) by summing the distance to be selected for the extracted edge point to a minimum value in the upper left corner point.

좌상단 모서리점은 수학식 2를 통해 추출할 수 있다. The upper left corner point may be extracted through the equation (2).

Figure 112012008501843-pat00002

(여기서, Pn은 모서리점(310, 330, 340, 350)의 좌표이며, C1과 C2는 각각 중간점(320, 360)을 나타낸다. P1(310)의 경우는, P1(310)과 C1(320) 사이의 거리(370)와, P1(310)과 C2(360) 사이의 거리(380) 합이며, P2(330)의 경우는, P2(330)와 C1(320) 사이의 거리(390)와, P2(330)와 C2(360) 사이의 거리(400) 합이며, P3(340)의 경우는, P3(340)와 C1(320) 사이의 거리(410)와, P3(340)와 C2(360) 사이의 거리(420) 합이며, P4(350)의 경우는, P4(350)와 C1(320) 사이의 거리(430)와, P4(350)와 C2(360) 사이의 거리(440) 합이다.) (Where, Pn is the coordinates of the corner points (310, 330, 340, 350), C1 and C2 each represent an intermediate point (320, 360). P1 (310) is, P1 (310) for the C1 ( and the distance 370 between the 320), P1 (310) and the sum distance 380 between C2 (360), the distance between the, P2 (330) and C1 (320) for P2 (330) (390 ), and the sum distance 400 between P2 (330), and C2 (360), if the P3 (340) is provided with a distance 410 between P3 (340) and C1 (320), P3 (340) and between C2 (360) is the sum distance 420 between, in the case of P4 (350), P4 (350) and C1 (320) the distance (430) and, P4 (350) and C2 (360) between the distance 440, is the sum.)

도 7은 적외선 마커(210) 중 종류 영역(230)을 도시한 것으로서, 종류 영역의 정보를 해석하면 가상현실 영상에 사용될 가상영상의 종류를 알 수 있게 된다. 7 is as showing the type region 230 of the infrared marker 210, when interpreting the information in the type area, it is possible to identify the type of the virtual image to be used for virtual reality images.

도 7은 4개의 적외선 엘이디가 2X2 매트릭스 형태로 배치된 경우를 예시하였으나, 종류 영역(230)에서의 적외선 엘이디의 배치 형태는 이에 한정되는 것은 아니다. 7 is arranged in the form of an infrared LED in the four infrared LEDs, but the example of a case arranged in a 2X2 matrix, the type region 230 is not limited to this. 예를 들어 1XN 형태와 같이 선형적으로 배열될 수도 있고, 적외선 엘이디가 제공하는 정보의 포맷에 따라 적절한 개수의 NXN 형태가 사용될 수도 있음은 물론이다. For example, there may be arranged linearly as in the form of 1XN, an infrared LED is provided in the form of NXN suitable number in accordance with the format of the information may be used that as a matter of course. 특히, 적외선 엘이디는 점등(ON 상태)시에는 '1'을 의미하는 것으로, 소등(OFF 상태)에서는 '0'을 의미하는 것으로 해석될 수 있으므로, 필요에 따라서는 1개의 적외선 엘이디만이 사용될 수도 있다. In particular, the infrared LED is lit to mean a "1" at the time (ON state) and off (OFF state) in it can be interpreted to mean "0", if necessary, one infrared LED only and may be used have.

본 발명에서는 종류 영역(230)에서의 정보 제공 방법으로 모스 부호를 적용하도록 한다. In the present invention, to apply a Morse code for information in a type region 230 method. 도 8은 본 발명에 따른 종류 영역의 정보 제공 형태를 도시한 것으로서, 본 발명에 사용되는 모스 부호의 구성을 예시한 것이다. 8 is provided as showing the type information of the types of area according to the present invention, an illustration of a configuration of a Morse code to be used in the present invention.

도 8은 90개의 데이터를 이용해서 모스 부호를 생성한 경우를 예시한다. Figure 8 illustrates a case where generation of Morse code using the 90 data. 이를 위한 적외선 엘이디의 구성은 9X10의 배치 형태일 수도 있지만, 1*X의 형태로 적외선 엘이디를 구성할 수도 있고, 1개의 적외선 엘이디만 사용이 될 수도 있다. Configuration of the infrared LED to do this, but may be arranged in the form of 9X10, and also configure the infrared LED in the form of a 1 * X, may be used only one infrared LED. 도 8에서, '1'은 적외선 엘이디가 점등된 경우를, '0'은 적외선 엘이디가 소등된 경우를 의미한다. 8, the '1' is '0', a case where an infrared LED light, means a case where the infrared LED off.

한편, 모스 부호는 1과 0의 조합으로만 구성이 되므로, 정보의 제공이 시작되는 지점(start point)과 종료되는 지점(end point)를 식별할 수 있는 규칙이 제공되어야 부호의 해독이 가능하다. On the other hand, Morse code is a translation of the 1's and 0's by the combination only, so the arrangement, must be provided for identifying the rule for the point (end point) is terminated and the point (start point) is provided with a start of the information code can .

이를 위해서, 특정한 숫자의 배열을 종단 코드로 사용할 수 있다. To do this, you can use an array of specific numbers to the end code. 예를 들어, '1'연속으로 3번이 나오는 경우를 종단 코드로 사용하고, 종단 코스 이후부터는 다시 정보의 제공이 시작되는 것으로 규정할 수도 있다. For example, it may be defined to be used when the three come the "1" continuous to the end code, and thereafter the end of the course provides information Restart.

한편, 적외선 엘이디의 개수 또는 위치에 따라 영역 구분을 하고, 영역별로 정보 데이터(information data)를 제공하는 부분과 데이타 간격(inter gap)을 의미하는 부분으로 사전 할당하는 방법으로 구현될 수도 있다. On the other hand, may be implemented in a manner that pre-allocated to the portion means a portion and a data gap (inter gap) to provide a cell decomposition, and the information data (information data) for each region according to the number or location of the infrared LED.

도 8은 각 행(line)별로, 초기의 6개 적외선 엘이디는 정보 데이터를 제공하는 것으로, 이후의 3개 엘이디는 데이터 간격을 의미하는 것으로 할당한 경우를 예시하고 있다. 8 is in each row (line), 6 Infrared LED of initially to provide the information data, the three LED subsequent illustrates a case where assignment to mean a data interval. 도 8의 경우를 참조하면, 초기의 6개 데이터가 제공하는 모스 부호를 해석하게 되면, 해당 모스 부호가 요구하는 가상영상의 종류를 알 수 있게 되고, 해당 가상영상을 DB(124)에서 검색하게 된다. Referring to Figure 8 for, when interpreted Morse code provided by the six data early, and so a corresponding Morse code number of the type of the virtual image that requires, to search for the virtual image in the DB (124) do. 모스 부호에 매칭되는 가상영상이 가상영상 DB(124)에서 검색된 이후, 실제 영상과 오버랩되어 가상현실 영상이 생성되고 디스플레이되는 과정은 앞서 설명한 바와 동일하므로 반복 설명은 생략한다. Since the virtual image to be matched to the Morse code retrieved from the virtual image DB (124), is overlapped with the actual image process of generating a virtual reality image being displayed are the same as those described above, a repetitive description thereof will be omitted.

이상에서 설명한 본 발명에 대한 구체적인 설명은 첨부된 도면을 참조한 실시예에 의해서 이루어졌지만, 상술한 실시예는 본 발명의 바람직한 예를 들어 설명하였을 뿐이기 때문에, 본 발명이 상기의 실시예에만 국한되는 것으로 이해되어져서는 아니 되며, 본 발명의 권리범위는 후술하는 청구범위 및 그 등가개념으로 이해되어져야 할 것이다. Since a detailed description of the present invention described above is based been made by an embodiment with reference to the accompanying drawings, the embodiment described above has only hayeoteul described with reference to a preferred embodiment of the invention, the invention is not limited to the above embodiments No jyeoseoneun is understood to be, the scope of the present invention will be understood by the following claims and their equivalent concepts.

100 : 증강현실 시스템 110 : 대상체 100: augmented reality system 110: object
120 : 증강현실 구현장치 121 : 적외선 카메라부 120: AR implementing device 121: an infrared camera unit
122 : 가시광선 카메라부 123 : 영상처리부 122: visible light camera module 123: image processing unit
124 : 가상영상DB 125 : 통신부 124: virtual image DB 125: Communication
126 : 위치 검출부 127 : 종류 검출부 126: position detection unit 127: detection type
130 : 마커정보 송신기 140 : 출력장치 130: marker information transmitter 140: Output device
210 : 적외선 마커 220 : 위치 영역 210: infrared markers 220: Location Area
230 : 종류 영역 230: type region

Claims (7)

  1. 적외선 엘이디에 의해 적외선 마커를 생성하는 대상체로서, 상기 적외선 마커는 적외선 위치영역과 적외선 종류영역을 가지며, As a target object of generating infrared ray marker by an infrared LED, the infrared marker has a region where the infrared and infrared type region,
    상기 대상체를 촬영한 실제 영상과 상기 대상체의 적외선 마커를 촬영하여, 상기 촬영된 실제 영상 위에 상기 적외선 마커로부터 판독되는 가상 영상을 렌더링하여 새로운 증강현실 영상을 생성하는 증강현실 구현 장치로서, An augmented reality device for implementing the recording of the infrared marker image and the actual object to the target object photographed by rendering a virtual image that is read from the infrared marker on the recorded actual image create a new augmented reality image,
    상기 증강현실 구현장치는, 상기 대상체의 실제 영상을 촬영하는 가시광선 카메라부; The augmented reality implementation apparatus, a visible light camera unit for photographing a real image of the target object; 상기 적외선 마커를 촬영하는 적외선 카메라부; An infrared camera unit for photographing the infrared markers; 상기 촬영된 적외선 마커 영상으로부터 렌더링시 가상 영상이 배치될 위치 및 배치되는 가상 영상의 자세에 대한 정보를 추출하는 위치 검출부; Position detecting unit for extracting information about the position of the virtual image is located and arranged to be disposed from the virtual image when rendering the photographed infrared marker image; 상기 촬영된 적외선 마커 영상으로부터 표시되어야 할 가상 영상의 내용에 대한 정보를 추출하는 종류 검출부; Type detection unit for extracting information about the contents of the virtual image to be displayed from the recording of the infrared marker image; 가상 영상이 저장되는 가상 영상 DB; DB virtual image that the virtual image is stored; 및, 상기 위치 검출부 및 종류 검출부로부터 전달받은 정보를 이용하여 표시되어야 할 가상 영상의 종류 및 표시될 위치와 자세를 결정하여 표시되어야 할 가상 영상을 상기 가상 영상 DB에서 검색하여 호출하고, 상기 호출된 가상 영상을 상기 가시광선 카메라부에서 촬영된 실제 영상에 오버랩하여 증강현실 영상을 생성하는 영상처리부;를 포함하며, And, wherein the position detecting section and the virtual image to be displayed to determine the type and location and orientation to be displayed in the virtual image is to be the display using the information received from the type detection unit searches in the virtual image DB by calling and the called It includes; virtual video image processor for generating an augmented reality image to the visible light overlapping with the real image taken by the camera unit
    상기 영상처리부는 적외선 엘이디의 화소값 범위를 기저장하고 있어 적외선 마커 영상으로부터 획득한 적외선 엘이디의 화소값 범위에 해당하는 값을 추출하여 적외선 엘이디 위치의 중심점 내지 시작점을 추출하고, 추출한 적외선 엘이디의 중심점을 기준으로 외곽점, 중간점 및 좌상단 모서리점을 추출하여 이 추출된 점을 기준으로 가상영상의 위치와 자세를 결정하며, The image processor is the reservoir for the pixel value range of an infrared LED and it extracts a value corresponding to the pixel value range of the infrared LEDs obtained from the infrared marker image extract the central point to the starting point of the infrared LED position, and the center point of the extracted infrared LED by reference to extract the outline point, intermediate point and an upper left corner point and determining the position and attitude of the virtual image based on the extracted points,
    상기 적외선 마커의 종류영역이 제공하는 코드는 모스 부호이며, 상기 영상처리부는 상기 모스 부호를 해석하여 가상 영상의 종류를 결정하는 것을 특징으로 하는 증강현실 시스템. Code provided by the type of region of the infrared marker is a Morse code, the image processor is augmented reality system, characterized in that for determining the type of the virtual image by interpreting the Morse code.
  2. 삭제 delete
  3. 삭제 delete
  4. 삭제 delete
  5. 제1항에 있어서, According to claim 1,
    상기 증강현실 구현장치는, The augmented reality implementation device,
    통신망을 통해 정보의 송수신이 가능한 통신부; A communication unit capable of transmitting and receiving information via a communication network; 를 더 포함하는 것을 특징으로 하는 증강현실 시스템. The augmented reality system further comprises.
  6. 제1항에 있어서, According to claim 1,
    상기 대상체에 구현될 적외선 마커에 대한 정보를 송신하는 마커정보 송신기; Marker information transmitter for transmitting information on an infrared marker is implemented in the target object; 를 더 포함하고, Including more and
    상기 대상체는, The object is,
    상기 마커정보 송신기로부터 적외선 마커에 대한 정보를 수신하는 마커정보 수신부; Marker information receiver for receiving information about the infrared marker from the marker information transmitter;
    상기 적외선 엘이디 발광부로부터의 적외선을 외부로 투과시키는 적외선 마커 표시부; Infrared marker display section for infrared light from the infrared LED light emission unit transmitted to the exterior;
    상기 마커정보 수신부로부터 수신된 적외선 마커에 대한 정보에 의해 상기 적외선 엘이디 발광부를 제어하는 제어부; A control unit for controlling the infrared LED light-emitting unit by the information about the infrared marker received from the marker information receiving unit; 를 포함하는 것을 특징으로 하는 증강현실 시스템. Augmented reality system comprising: a.
  7. 제1항에 있어서, According to claim 1,
    상기 증강현실 구현장치에 의해 생성된 증강현실 영상을 출력하는 출력장치; An output device for outputting the augmented reality image generated by the augmented reality device implementation; 를 더 포함하는 것을 특징으로 하는 증강현실 시스템. The augmented reality system further comprises.
KR20120010364A 2012-02-01 2012-02-01 Augmented reality system using the morse code KR101315433B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20120010364A KR101315433B1 (en) 2012-02-01 2012-02-01 Augmented reality system using the morse code

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20120010364A KR101315433B1 (en) 2012-02-01 2012-02-01 Augmented reality system using the morse code

Publications (2)

Publication Number Publication Date
KR20130089032A true KR20130089032A (en) 2013-08-09
KR101315433B1 true KR101315433B1 (en) 2013-10-07

Family

ID=49215119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20120010364A KR101315433B1 (en) 2012-02-01 2012-02-01 Augmented reality system using the morse code

Country Status (1)

Country Link
KR (1) KR101315433B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100542370B1 (en) 2004-07-30 2006-01-03 한양대학교 산학협력단 Vision-based augmented reality system using invisible marker
KR20080107211A (en) * 2007-06-05 2008-12-10 삼성전자주식회사 System and method for generating virtual object using augmented reality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100542370B1 (en) 2004-07-30 2006-01-03 한양대학교 산학협력단 Vision-based augmented reality system using invisible marker
KR20080107211A (en) * 2007-06-05 2008-12-10 삼성전자주식회사 System and method for generating virtual object using augmented reality

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
논문1:한국전자통신학회 *
논문2:한국전자통신학회 *

Also Published As

Publication number Publication date Type
KR20130089032A (en) 2013-08-09 application

Similar Documents

Publication Publication Date Title
Höllerer et al. Mobile augmented reality
Carmigniani et al. Augmented reality technologies, systems and applications
US6720961B2 (en) Method and apparatus for displaying an image in three dimensions
US9024842B1 (en) Hand gestures to signify what is important
US20160048019A1 (en) Content presentation in head worn computing
US20040201823A1 (en) Context aware projector
US20120274745A1 (en) Three-dimensional imager and projection device
US7817104B2 (en) Augmented reality apparatus and method
US6278461B1 (en) Augmented reality vision systems which derive image information from other vision systems
US20130141434A1 (en) Virtual light in augmented reality
US20120249416A1 (en) Modular mobile connected pico projectors for a local multi-user collaboration
US6307556B1 (en) Augmented reality vision systems which derive image information from other vision system
US20120075484A1 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
US20120244939A1 (en) System and method for defining an augmented reality character in computer generated virtual reality using coded stickers
US20070247457A1 (en) Device and Method for Presenting an Image of the Surrounding World
US20140368532A1 (en) Virtual object orientation and visualization
US20120262558A1 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
US20120120070A1 (en) System and method to display maintenance and operational instructions of an apparatus using augmented reality
US8094091B2 (en) Information presenting apparatus, method, and computer program product
US20140306994A1 (en) Personal holographic billboard
US20120210254A1 (en) Information processing apparatus, information sharing method, program, and terminal device
US20080266323A1 (en) Augmented reality user interaction system
US8179604B1 (en) Wearable marker for passive interaction
Karitsuka et al. A wearable mixed reality with an on-board projector
US20130100009A1 (en) Multi-user interaction with handheld projectors

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170925

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180928

Year of fee payment: 6