KR20120122512A - 3D augmented reality photo service system, and service method using thereof - Google Patents

3D augmented reality photo service system, and service method using thereof Download PDF

Info

Publication number
KR20120122512A
KR20120122512A KR1020110040711A KR20110040711A KR20120122512A KR 20120122512 A KR20120122512 A KR 20120122512A KR 1020110040711 A KR1020110040711 A KR 1020110040711A KR 20110040711 A KR20110040711 A KR 20110040711A KR 20120122512 A KR20120122512 A KR 20120122512A
Authority
KR
South Korea
Prior art keywords
service
image
virtual object
information
client
Prior art date
Application number
KR1020110040711A
Other languages
Korean (ko)
Other versions
KR101352385B1 (en
Inventor
김영곤
이환용
Original Assignee
주식회사 휴원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 휴원 filed Critical 주식회사 휴원
Priority to KR1020110040711A priority Critical patent/KR101352385B1/en
Publication of KR20120122512A publication Critical patent/KR20120122512A/en
Application granted granted Critical
Publication of KR101352385B1 publication Critical patent/KR101352385B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Abstract

PURPOSE: A three-dimensional augmented reality photo service system and a service method using the same are provided to supply a photo image service by utilizing an augmented reality technology. CONSTITUTION: A photo service client(10) generates a depth map about a service location image(S300). The photo service client layers the service location image based on the depth map(S400). The photo service client inserts an virtual object between the layered images(S430). A photo service server(30) matches the images based on context information of a user(S610). The photo service client photographs a subject by using the matched image(S700). The photo service client stores the photographed image(S800). [Reference numerals] (10) Photo service client; (30) Photo service server; (AA) Start; (BB) Context information transmission; (CC) End; (S100) Location information transmission?; (S120) Transmission of service information registered in location information; (S125) Camera preview; (S127) Characteristic points are detected?; (S130) Service information display in camera preview; (S140) Selecting service; (S200) Virtual object exists?; (S210) Require transmission to server; (S215) Searching database; (S217) Transmitting virtual object; (S230) Loading virtual object; (S300) Generating depth map; (S350) Based on characteristic point?; (S400) Layering image based on characteristic point; (S410) Layering image of two or more layers according to depth; (S430) Inserting images of virtual object; (S500) Micro-controlling virtual object; (S600) Requiring work to a server?; (S610) Accordance of images based on context information; (S620) Result video transmission; (S630) Accordance of images based on context information; (S700) Photographing; (S800) Storing images

Description

3D 증강현실 포토 서비스 시스템 및 이를 이용한 서비스 방법.{3D augmented reality photo service system, and service method using thereof}3D augmented reality photo service system, and service method using equivalent}

본 발명은 증강현실과 입체영상 기술을 이용한 증강현실 영상서비스 시스템 및 이를 이용한 방법에 관한 것으로, 더욱 상세하게는, 증강현실은 위치정보, 깊이정보 및 특징점을 추출하여 추적하는 방법 등을 이용하여 현실 장면에 가상 객체를 정합하여 다양하고 현실감 있는 3D 증강현실 서비스 시스템 및 그 방법에 관한 것이다. The present invention relates to an augmented reality video service system using augmented reality and stereoscopic imaging technology and a method using the same. More specifically, augmented reality is a reality using a method for extracting and tracking location information, depth information and feature points, etc. The present invention relates to various and realistic 3D augmented reality service systems and methods of matching virtual objects to scenes.

입체영상기술은 사람의 오른쪽 눈과 왼쪽 눈이 서로 다른 각도에서 본 사물의 상을 뇌에서 합쳐져 하나의 입체 상으로 보이는 원리를 이용하여, 두 개 이상의 카메라를 사용해 영상에 깊이 정보를 부여함으로써 입체감을 느낄 수 있도록 하는 기술이다. 영화 아바타의 성공으로 입체영상기술은 영화산업에서부터 급속히 확산되어 TV와 스마트폰 그리고 개인용 카메라에도 적용되어 출시되고 있다. Stereoscopic imaging technology uses the principle that the image of an object viewed by human's right eye and left eye from different angles is combined in the brain and appears as one stereoscopic image. It is a technology that makes you feel. With the success of movie avatars, stereoscopic image technology has been rapidly spreading from the movie industry and is being applied to TVs, smartphones and personal cameras.

이와 더블어 현실영상에 부가적인 영상을 부가하는 증강현실 기술이 널리 사용되고 있는데, 현재 널리 사용되는 스마트폰에 적용되는 기술은 현실 영상에 2D 영상을 부가하여 제공하거나, 3D 영상을 제공하더라도 현실 영상과 매치가 되지 않는 부가적 영상으로 부자연스럽고, 화면상 상대적 공간을 많이 차지하면서, 그 크기 및 위치를 적정하게 조절하기 힘들다는 문제점이 있다.Augmented reality technology that adds additional images to the double-reality video is widely used. Currently, the technology applied to the widely used smart phone is matched with the real image even if the 2D image is added to the real image or the 3D image is provided. There is a problem that it is unnatural as an additional image that does not become, and takes up a lot of relative space on the screen, and it is difficult to properly adjust its size and position.

또한, 종래의 기술은 스마트폰이나 카메라에 텍스트 또는 2차원적인 영상을 부가하여 제공하는 경우에는, 화면에 나타나는 영상이 복잡하고 조잡해 보일 뿐만 아니라 현실감이 떨어지고, 상기 2차원적 영상은 실제 화면에 나타나는 카메라 영상의 변화 또는 사용자의 조정에 알맞는 추가 영상을 제공할 수 없고, 제한된 범위에서만 사용할 수 있다는 점에서 다양한 서비스를 제공하지 못한다는 문제점이 있다.
In addition, in the conventional technology, when a text or a two-dimensional image is added to a smartphone or a camera and provided, the image displayed on the screen is not only complicated and coarse, but also lacks reality, and the two-dimensional image is displayed on an actual screen. There is a problem in that it cannot provide an additional image suitable for the change of the displayed camera image or the adjustment of the user, and cannot provide various services in that it can be used only in a limited range.

상술한 문제를 해결하고자 하는 본 발명의 과제는 증강현실 기술과 입체영상 기술을 활용하여 실감 있는 사진 영상서비스 시스템과 방법을 제공하는 것을 목적으로 한다. 또한, 사용자의 기호 또는 선택에 따라 다양하고 재미있는 영상 서비스를 제공할 수 있고, 무선망을 이용하여 낮은 영상처리 능력을 갖는 클라이언트 단말기를 사용할 수 있고, 처리 속도를 높이고, 다양한 서비스를 확장하여 제공하기 위함이다.An object of the present invention to solve the above problems is to provide a realistic photo image service system and method utilizing augmented reality technology and stereoscopic image technology. In addition, it is possible to provide a variety of interesting video services according to the user's preferences or selection, to use a client terminal having a low image processing capability using a wireless network, to increase the processing speed and to provide a variety of services to expand For sake.

상술한 문제를 해결하기 위한 본 발명의 제1 특징은 클라이언트, 무선망 및 포토 서비스 서버로 구성된 시스템을 이용하는 방법에 있어서, (a) 상기 서비스 서버를 통해 수신받은 서비스 정보를 통해 상기 클라이언트가 서비스 위치에 포토 서비스를 선택하는 단계; (b) 상기 서비스에 해당하는 가상객체가 존재하는 경우, 상기 서비스 위치 영상에 가상객체를 적재하는 단계; (c) 상기 서비스 위치 영상에 대한 깊이지도를 생성하는 단계; (d) 상기 서비스 위치 영상을 상기 깊이지도를 바탕으로 계층(layer)화 하는 단계; (e) 상기 가상객체를 상기 계층(layer)화된 영상 사이에 삽입하는 단계; (f) 사용자의 컨텍스트 정보에 기반하여 영상을 정합하고, 정합된 영상을 이용하여 촬영하는 단계; 및 (g) 상기 촬영된 영상을 저장하는 단계를 포함하는 것이다.A first aspect of the present invention for solving the above problems is a method using a system consisting of a client, a wireless network and a photo service server, the method comprising: (a) a service location of the client through service information received through the service server; Selecting a photo service; (b) loading the virtual object on the service location image when the virtual object corresponding to the service exists; (c) generating a depth map of the service location image; (d) layering the service location image based on the depth map; (e) inserting the virtual object between the layered images; (f) registering an image based on context information of the user, and photographing using the matched image; And (g) storing the photographed image.

여기서, 상기 (a) 단계는, 상기 클라이언트가 상기 포토 서비스 서버로 위치정보를 전송하는 단계; 상기 포토 서비스 서버가 상기 위치정보에 등록된 서비스 정보를 상기 클라이언트에 전송하는 단계; 상기 클라이언트에 표시된 상기 서비스 정보를 통해 포토 서비스를 선택하는 단계를 포함하는 것이 바람직하다.Here, step (a) may include: transmitting, by the client, location information to the photo service server; Transmitting, by the photo service server, service information registered in the location information to the client; It is preferable to include the step of selecting a photo service through the service information displayed on the client.

또한, 바람직하게는 상기 위치정보를 전송하지 않는 경우, 상기 클라이언트의 카메라 영상에서 특징점을 탐색하여는 단계; 상기 특징점이 탐색되는 겨우, 상기 포토 서비스를 선택하는 단계를 포함하는 것일 수 있고, 상기 (b) 단계는, 상기 가상객체가 존재하지 않는 경우, 상기 서비스 서버로 가상객체의 전송을 요청하는 단계; 상기 서비스 서버가 데이터 베이스를 검색하는 단계; 상기 서비스 서버가 검색된 가상객체를 상기 클라이언트로 전송하는 단계를 포함하는 것일 수 있다.Also, preferably, when the location information is not transmitted, searching for a feature point in a camera image of the client; If the feature point is found, it may include selecting the photo service, and the step (b) may include: requesting transmission of the virtual object to the service server when the virtual object does not exist; Searching the database by the service server; The service server may include transmitting the searched virtual object to the client.

더하여, 상기 (d) 단계는, 상기 특징점 있는 경우, 특징점을 기반으로 영상을 계층화하고, 상기 특징점이 없는 경우, 깊이에 따라 적어도 2계층으로 영상을 계층화하는 단계인 것이 바람직하고, 상기 (e) 단계 후, 상기 클라이언트가 선택적으로 상기 가상객체를 미세조정하는 단계를 더 포함하는 것이 바람직하다.In addition, in the step (d), if the feature point exists, the image is layered based on the feature point, and if the feature point is absent, it is preferable that the image is layered into at least two layers according to the depth, and (e) After the step, the client preferably further comprises the step of fine-tuning the virtual object.

또한, 상기 미세조정은 상기 가상객체의 크기, 방향 및 위치를 조정하는 것이 바람직하고, 상기 (f) 단계는, 상기 컨텍스트 정보를 서비스 서버로 전송하는 단계; 상기 서비스 서버에서 상기 컨텍스트 정보와 상기 가상객체가 삽입된 결과영상을 정합하는 단계를 포함하는 것이 바람직하며, 상기 결과영상은, 현재 위치정보, 시간정보, 영상정보 및 센서정보 중 적어도 어느 하나를 포함하는 것이 바람직하다.In addition, the fine adjustment is preferably to adjust the size, direction and position of the virtual object, the step (f), the step of transmitting the context information to the service server; Preferably, the service server includes the step of registering the context information and a result image in which the virtual object is inserted, and the result image includes at least one of current location information, time information, image information, and sensor information. It is desirable to.

그리고, 본 발명의 제2 특징은 상술한 어느 하나의 방법에 사용되는 3D 증강현실 포토 서비스 시스템이고, 여기서, 상기 서비스 시스템은, 서비스 정보와 가상객체 그리고 영상 처리와 영상 저장 기능을 제공하는 서비스 서버; 및 상기 서비스 서버와 무선통신하는 통신부와, 현실의 입체영상 정보를 취득하는 입체영상 취득 장치와, 상기 취득한 영상 정보로부터 특징점을 추출하고, 깊이지도를 생성하여 상기 영상을 깊이에 따라 2단계 이상의 계층(layer)으로 분리하고, 상기 분리한 영상 계층(layer) 사이에 상기 가상객체를 삽입하는 영상 전처리부와, 상기 삽입된 가상 객체를 위치, 크기, 방향 중 적어도 어느 하나를 보정하고, 사용자가 선택한 컨텍스트 정보를 이용하여 가상객체에 부가적인 효과를 적용하여 영상을 정합하는 영상 후처리부로 구성된 클라이언트 단말기를 포함하는 것이 바람직하다.The second aspect of the present invention is a 3D augmented reality photo service system used in any one of the above-described methods, wherein the service system is a service server that provides service information, virtual objects, image processing, and image storage functions. ; And a communication unit wirelessly communicating with the service server, a stereoscopic image acquisition device for acquiring real stereoscopic image information, and extracting feature points from the acquired image information, generating a depth map, and layering the image according to depth by two or more levels. an image preprocessor for separating the virtual object between the separated image layers, and correcting at least one of a position, a size, and a direction of the inserted virtual object, and selecting a user It is preferable to include a client terminal composed of an image post-processing unit to match the image by applying an additional effect to the virtual object using the context information.

이와 같은 본 발명을 제공하면, 종래의 2차원적 정보를 부가하거나, 3차원 객체를 단순히 부가하여 제공하는 증강현실 서비스와는 차별화되고, 3차원 가상객체 깊이지도에 따라 상기 가상객체를 정합하여 보다 자연스럽고 현실감이 높은 사진 영상 서비스를 제공할 수 있게 된다.According to the present invention, it is differentiated from the augmented reality service that adds conventional 2D information or simply adds a 3D object, and matches the virtual object according to a 3D virtual object depth map. It is possible to provide a natural and realistic photo image service.

뿐만 아니라, 사용자의 기호 또는 선택에 따라 컨텍스트 정보를 부가하여, 다양하고 재미있는 사진 영상 서비스를 제공할 수 있다. 또한, 무선망을 이용하여 서비스 서버를 통한 영상처리 방법을 선택적으로 적용함으로써, 낮은 영상처리 능력을 갖는 클라이언트 단말기를 사용할 수 있고, 처리 속도를 높이고, 다양한 서비스를 확장하여 제공할 수 있다는 큰 장점이 있다.In addition, various and interesting photo image services may be provided by adding context information according to a user's preference or selection. In addition, by selectively applying an image processing method through a service server using a wireless network, it is possible to use a client terminal having a low image processing capability, to increase the processing speed, and to provide various services by expanding the service. have.

도 1은 본 발명에 따른 일 실시예로서, 3D 증강현실 포토 서비스 방법의 흐름도를 나타낸 도면이고,
도 2는 본 발명에 따른 3D 증강현실 포토 서비스 방법을 간략하게 나타낸 모식도,
도 3은 본 발명에 따른 3D 증강현실 포토 서비스 방법의 흐름을 모식화한 도면이다.
1 is a flowchart illustrating a 3D augmented reality photo service method according to an embodiment of the present invention.
Figure 2 is a schematic diagram showing a simplified 3D augmented reality photo service method according to the present invention,
3 is a view schematically illustrating the flow of a 3D augmented reality photo service method according to the present invention.

본 발명의 이점 및 특징, 그리고 그것을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 통해 설명될 것이다. 그러나 본 발명은 여기에서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 단지, 본 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여 제공되는 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and how to accomplish it, will be described with reference to the embodiments described in detail below with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. The embodiments are provided so that those skilled in the art can easily carry out the technical idea of the present invention to those skilled in the art.

도면들에 있어서, 본 발명의 실시예들은 도시된 특정 형태로 제한되는 것이 아니며 명확성을 기하기 위하여 과장된 것이다. 또한 명세서 전체에 걸쳐서 동일한 참조번호로 표시된 부분들은 동일한 구성요소를 나타낸다.In the drawings, embodiments of the present invention are not limited to the specific forms shown and are exaggerated for clarity. In addition, parts denoted by the same reference numerals throughout the specification represent the same components.

본 명세서에서 "및/또는"이란 표현은 전후에 나열된 구성요소들 중 적어도 하나를 포함하는 의미로 사용된다. 또한, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, 명세서에서 사용되는 "포함한다" 또는 "포함하는"으로 언급된 구성요소, 단계, 동작 및 소자는 하나 이상의 다른 구성요소, 단계, 동작, 소자 및 장치의 존재 또는 추가를 의미한다.
The expression "and / or" is used herein to mean including at least one of the components listed before and after. In addition, the singular also includes the plural unless specifically stated otherwise in the text. Also, components, steps, operations and elements referred to in the specification as " comprises "or" comprising " refer to the presence or addition of one or more other components, steps, operations, elements, and / or devices.

이하에서 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 일 실시예로서, 3D 증강현실 포토 서비스 방법의 흐름도를 나타낸 도면이다. 도 1에 나타낸 바와 같이, 본 발명에 따른 서비스 방법은 클라이언트, 무선망 및 포토 서비스 서버로 구성된 시스템을 이용하는 방법에 있어서, (a) 상기 서비스 서버를 통해 수신받은 서비스 정보를 통해 상기 클라이언트가 서비스 위치에 포토 서비스를 선택하는 단계(S140); (b) 상기 서비스에 해당하는 가상객체가 존재하는 경우, 상기 서비스 위치 영상에 가상객체를 적재하는 단계(S230); (c) 상기 서비스 위치 영상에 대한 깊이지도를 생성하는 단계(S300); (d) 상기 서비스 위치 영상을 상기 깊이지도를 바탕으로 계층(layer)화하는 단계(S410,S400); (e) 상기 가상객체를 상기 계층(layer)화된 영상에 삽입하는 단계(S430); (f) 사용자의 컨텍스트 정보에 기반하여 영상을 정합하고(S610, S630), 정합된 영상을 이용하여 촬영하는 단계(S700); 및 (g) 상기 촬영된 영상을 저장하는 단계(S800)를 포함하는 것을 특징으로 한다. 1 is a flowchart illustrating a 3D augmented reality photo service method according to an embodiment of the present invention. As shown in Figure 1, the service method according to the present invention is a method using a system consisting of a client, a wireless network and a photo service server, (a) the service location of the client through the service information received through the service server Selecting a photo service at step S140; (b) loading the virtual object on the service location image when the virtual object corresponding to the service exists (S230); (c) generating a depth map of the service location image (S300); (d) layering the service location image based on the depth map (S410, S400); (e) inserting the virtual object into the layered image (S430); (f) registering images based on context information of the user (S610 and S630) and photographing using the matched image (S700); And (g) storing the captured image (S800).

여기서, 클라이언트인 사용자 단말기는 포토 서비스를 구현하고 실행하는 카메라가 내장된 단말기 또는 시스템으로서, 가상객체 그리고 영상 처리와 영상 저장 기능을 제공하는 서버부; 현실의 입체 영상정보를 취득하기 위한 입체 영상 취득 장치; 상기 취득한 영상 정보로부터 특징점을 추출하고, 깊이 지도를 생성하여 영상을 깊이에 따라 2단계 이상의 계층(layer)으로 분리하고, 상기 분리한 영상 계층 사이에 상기 가상객체를 삽입하는 영상 전처리부; 상기 삽입된 가상 객체를 위치, 크기, 방향을 보정하고, 현재 환경에 관련한 컨텍스트 정보를 이용하여 가상객체에 부가적인 효과를 적용하고, 영상을 정합하는 영상 후처리부를 포함하여 구성한다.(도시하지 않음)Here, the user terminal as a client is a terminal or system with a built-in camera for implementing and executing the photo service, a virtual object and a server unit for providing image processing and image storage functions; A stereoscopic image acquisition device for acquiring stereoscopic image information of reality; An image preprocessing unit extracting feature points from the acquired image information, generating a depth map to separate the image into two or more layers according to depths, and inserting the virtual object between the separated image layers; The inserted virtual object is configured to include a post-processing unit for correcting a position, a size, a direction, applying an additional effect to the virtual object using context information related to the current environment, and matching the image. Not)

이하에서, 상술한 시스템, 무선망(인터넷망, YiFi 등) 및 서비스 서버를 이용하여 이하에 설명하는 본 발명의 바람직한 3D 증강현실 포토서비스 방법에 대하여 도면을 참조하여 구체적으로 설명하기로 한다.Hereinafter, a preferred 3D augmented reality photo service method of the present invention described below using a system, a wireless network (Internet network, YiFi, etc.) and a service server will be described in detail with reference to the accompanying drawings.

먼저, 영상서비스 클라이언트는 현재 위치 정보에 등록된 서비스를 영상 서비스를 검색하기 위해서는, 서비스 서버로 무선망을 이용하여 현재 위치 정보를 전송한다.(S100) 서비스 서버는 상기 위치정보에 등록된 서비스가 있다면 상기 클라이언트로 서비스정보를 전송한다.(S120) 상기 클라이언트는 전송받은 서비스 정보를 표시하고 사용자의 선택을 대기하고(S130), 사용자는 상기 클라이언트 단말기를 통해 서비스를 선택할 수 있다.(S140) First, the video service client transmits the current location information using the wireless network to the service server in order to search for the video service for the service registered in the current location information (S100). If so, the service information is transmitted to the client (S120). The client displays the received service information and waits for a user's selection (S130), and the user can select a service through the client terminal (S140).

그리고, 상기 위치 정보를 이용한 서비스 검색을 사용하지 않고, 현 위치에 QR코드 또는 특정 마커를 이용한다면 카메라의 프리뷰 영상에서(S125) 특징점을 탐색하여(S127) 서비스를 선택하는 것도 가능하다. 이는 무선망을 통하여 위치를 인식하고, 3D 증강현실 포토 서비스를 구현하는 것도 가능하지만, 마커나 QR 코드가 서비스 위치에 존재하는 경우, 클라이언트 단말기에서 이를 인식하여 서비스에 적용할 수 있게 된다.If a QR code or a specific marker is used at the current location without using the service search using the location information, the service may be selected by searching for a feature point in the preview image of the camera (S125). It is also possible to recognize the location through a wireless network and to implement a 3D augmented reality photo service, but if a marker or QR code exists in the service location, the client terminal can recognize it and apply it to the service.

이처럼, 상기 클라이언트 단말기(10)의 서비스 정보 표시 화면에서 사용자가 서비스를 선택하거나, 영상에서 특징점을 발견하면, 가상객체가 클라이언트에 존재하는지를 검사한다.(S200) 여기서, 가상객체는 증강현실을 구현하는 3D 입체영상 객체로서, 카메라에서 촬영되는 실사화면에 상기 가상객체를 추가하여 증강현실 포토 서비스를 구현하게 된다.As such, when the user selects a service or finds a feature point in the image on the service information display screen of the client terminal 10, it is checked whether the virtual object exists in the client (S200). Here, the virtual object implements augmented reality. As a 3D stereoscopic image object, the augmented reality photo service is implemented by adding the virtual object to the live screen captured by the camera.

상기 클라이언트가 자체적으로 가상객체가 존재하면 적재를 하고(S230), 존재하지 않는다면 상기 영상서비스 서버에 가상객체 전송을 요청한다.(S210) 영상서비스 서버(30)는 상기 가상객체 전송 요청을 받으면 가상객체 데이터베이스에서 해당 가상객체를 추출하여(S215) 상기 클라이언트로 전송한다.(S217) If the client has a virtual object, the client loads itself (S230). If the client does not exist, the client requests a virtual object transmission to the video service server. (S210) The video service server 30 receives a virtual object transmission request. The virtual object is extracted from the object database (S215) and transmitted to the client (S217).

상기 클라이언트는 현실 장면의 영상에 대한 깊이지도를 생성한다.(S300) 깊이지도는 3D 컴퓨터 그래픽에서 시점(viewpoint)으로부터 사물이 지표면에서의 높이 또는 깊이에 따른 이미지 또는 이미지 채널을 의미하는데, 3D 영상으로 특정 영상을 구현하기 위해서는 상기와 같은 깊이지도를 기반으로 하여 영상을 계층 또는 레이어화고 이를 합성하여 영상처리함으로써, 입체영상을 구현할 수 있다.The client generates a depth map of the image of the real scene. (S300) The depth map refers to an image or an image channel according to the height or depth of the object from the viewpoint in 3D computer graphics according to the height, 3D image. In order to implement a specific image, a stereoscopic image can be realized by layering or layering an image based on the depth map as described above, and synthesizing the image.

그리고나서, 클라이언트는 상기 깊이지도를 이용하여, 영상에 특징점이 있다면 특징점에 기반하여 영상을 계층으로 분리하고(S400), 특징점이 없다면, 깊이에 따라 2계층 이상의 계층으로 분리한다.(S410) Then, using the depth map, the client separates the image into hierarchies based on the feature points if the feature points exist in the image (S400), and separates the image into two or more hierarchies according to the depth if the feature points exist (S410).

분리된 영상에 상기 가상객체 영상을 삽입하고(S430), 미세 조정이 필요하면 가상객체를 사용자가 수동으로 위치, 방향 그리고 크기에 관한 미세조정을 수행할 수 있다.(S500) 이는 사용자의 기호 또는 선택에 따라 가상객체를 크기, 위치, 방향 등을 선택할 수 있게 함으로써, 맞춤형 서비스를 구현할 수 있도록 하기 위함이다.The virtual object image is inserted into the separated image (S430), and if fine adjustment is required, the user may manually adjust the virtual object with respect to the position, direction, and size (S500). The purpose is to implement a customized service by allowing the virtual object to be selected in size, position, and orientation depending on the selection.

그리고, 상기 가상객체가 삽입된 결과물 영상의 정합은 사용자의 선택에 따라 상기 클라이언트에서 수행하거나 상기 서비스 서버에서 수행하는 것이 가능한데, 상기 클라이언트에서 상기 결과물을 정합시에는 현재 위치정보, 시간정보, 영상정보, 센서 정보와 같은 자동으로 획득한 정보와 사용자로부터 제공받은 컨텍스트 정보를 이용하여 현재 상황에 맞게 상기 가상객체에 효과를 적용한 후 분리된 영상을 정합한다.(S630) The matching of the resultant image into which the virtual object is inserted may be performed by the client or by the service server according to a user's selection. When the result is matched by the client, current location information, time information, and image information may be performed. Using the automatically acquired information such as sensor information and the context information provided from the user, the effect is applied to the virtual object according to the current situation and then the separated images are matched.

또한, 클라이언트에서 서비스 서버에 작업을 요청하면서(S600) 사용자의 컨텍스트 정보를 전송하고, 서비스 서버는 전송받은 컨텍스트 정보를 이용해 가상객체에 효과를 적용한 후 분리된 영상을 정합하고(S610) 결과영상을 클라이언트로 전송한다.(S620) 클라이언트는 촬영을 하여 결과 영상을 저장한다.(S800)In addition, the client transmits the user's context information while requesting an operation from the client (S600), and the service server applies the effect to the virtual object using the received context information and matches the separated image (S610). The client transmits the image to the client (S620). The client takes a photograph and stores the resultant image.

여기서 컨텍스트 정보는 클라이언트 단말기(10)에서 구현할 수 있는 카메라 영상의 각종 효과를 말하는 것으로, 사용자가 직접 선택하는 것이 가능하다. 컨텍스트 정보는 가상객체에 더하여지는 것으로, 다양한 효과(눈, 비, 낙엽, 계절효과 영상 등)를 추가하여 구성할 수 있기 때문에, 사용자는 더욱 풍부하고 재미있는 포토 서비스를 제공받을 수 있게 된다.
Here, the context information refers to various effects of the camera image that can be implemented in the client terminal 10 and can be directly selected by the user. The context information is added to the virtual object and can be configured by adding various effects (snow, rain, fallen leaves, seasonal effect images, etc.), so that the user can be provided with a richer and more interesting photo service.

도 2는 본 발명에 따른 3D 증강현실 포토 서비스 방법을 간략하게 나타낸 모식도이다. 도 2에 나타낸 바와 같이, 소실된 문화 유적지에서 문화재를 복원하여 보여주는 영상 서비스와 학교운동장에서 피라미드를 증강하는 영상 서비스를 구현하는 것을 보여준다. 이처럼 본 발명의 3D 증강현실 포토 서비스는, 다양한 장소에서 현실 화면 영상에, 가상객체를 더하여 3D 증강현실 포토 서비스를 제공하는 것으로, 종래의 2차원적 정보를 부가하여 제공하는 증강현실 서비스와는 차별화되고, 3차원 가상객체를 더하고, 깊이지도에 따라 상기 가상객체를 정합하여 보다 자연스럽고 리얼리티가 높은 사진 영상 서비스를 제공할 수 있게 된다.Figure 2 is a schematic diagram showing a brief 3D augmented reality photo service method according to the present invention. As shown in Figure 2, it shows that the video service to restore the cultural property in the lost cultural heritage site and the video service to augment the pyramid in the school grounds. As described above, the 3D augmented reality photo service of the present invention provides a 3D augmented reality photo service by adding a virtual object to a reality screen image in various places, and is differentiated from the augmented reality service that provides additional 2D information. 3D virtual objects are added and the virtual objects are matched according to a depth map to provide a more natural and realistic photo image service.

뿐만 아니라, 사용자의 기호 또는 선택에 따라 컨텍스트 정보를 부가하여, 다양하고 재미있는 사진 영상 서비스를 제공할 수 있다. 또한, 무선망을 이용하여 서비스 서버를 통한 영상처리 방법을 선택적으로 적용함으로써, 낮은 영상처리 능력을 갖는 클라이언트 단말기를 사용할 수 있고, 처리 속도를 높이고, 다양한 서비스를 확장하여 제공할 수 있다는 큰 장점이 있다.
In addition, various and interesting photo image services may be provided by adding context information according to a user's preference or selection. In addition, by selectively applying an image processing method through a service server using a wireless network, it is possible to use a client terminal having a low image processing capability, to increase the processing speed, and to provide various services by expanding the service. have.

도 3은 본 발명에 따른 3D 증강현실 포토 서비스 방법의 흐름을 모식화한 도면이다. 도 3에 나타낸 바와 같이, 본 발명의 서비스 방법은 현실 장면을 깊이에 따라 계층으로 분리하고, 가상객체 영상을 삽입하고, 컨텍스트 정보를 이용해 가상객체에 실감 효과를 적용하여 결과 영상을 생성하는 흐름을 보여준다. 3 is a view schematically illustrating the flow of a 3D augmented reality photo service method according to the present invention. As shown in FIG. 3, the service method of the present invention separates a scene into layers according to depth, inserts a virtual object image, and applies a sensory effect to the virtual object using context information to generate a result image. Shows.

먼저, 클라이언트 단말기 내장된 입체영상 취득 장치로부터 획득한 입체 영상에 대해 깊이 지도를 생성한다. 상기 취득된 현실 장면 영상에 QR코드 또는 미리 지정된 마커와 같은 특징점이 존재하면, 상기 특징점을 기준으로 특징점 영상 계층과 특징점 상위영상 계층, 그리고 특징점 하위영상 계층으로 깊이에 따라 영상을 분리한다.First, a depth map is generated for a stereoscopic image obtained from a stereoscopic image acquisition apparatus built in a client terminal. If a feature point, such as a QR code or a predetermined marker, exists in the obtained real scene image, the image is separated according to depth into a feature point image layer, a feature point upper image layer, and a feature point lower image layer based on the feature point.

만약 현실 장면에 특징점이 없다면, 깊이 지도를 이용해 2개 이상의 계층으로 분리하는 것도 가능하다. 분리된 영상에서 특징점 영상 계층이 있는 경우에는 특징점 영상 대신에 가상객체 영상을 삽입한다. 특징점 영상 계층이 없는 경우에는 분리된 영상 계층의 중앙에 가상객체 계층을 삽입한다. If there are no features in the real scene, it is possible to use a depth map to separate two or more layers. If there is a feature image layer in the separated image, the virtual object image is inserted instead of the feature image. If there is no feature point image layer, the virtual object layer is inserted in the center of the separated image layer.

필요에 따라 가상객체 영상의 위치, 방향, 그리고 크기를 보정하는 것이 가능하다. 최종적으로 위치정보, 시간정보 또는 사용자로부터 제공받은 현재 컨텍스트 정보를 이용해 가상객체에 다양한 효과를 적용한다. 도 3에 나타난 실시예는 현실장면에 눈이 쌓여 있다는 컨텍스트 정보를 통해 가상객체에도 눈이 쌓인 효과를 적용하여 영상을 정합하는 것을 나타낸다.
If necessary, it is possible to correct the position, orientation, and size of the virtual object image. Finally, various effects are applied to the virtual object using location information, time information, or current context information provided from the user. The embodiment shown in FIG. 3 shows that the image is matched by applying the effect of snow accumulation to the virtual object through the context information that snow is accumulated in the real scene.

이상의 설명에서 본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도 내에서 다양한 개조 및 변화가 가능 하다는 것을 당 업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.
While the invention has been shown and described with respect to the specific embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined by the appended claims. Anyone with it will know easily.

Claims (11)

클라이언트, 무선망 및 포토 서비스 서버로 구성된 시스템을 이용하는 방법에 있어서,
(a) 상기 서비스 서버를 통해 수신받은 서비스 정보를 통해 상기 클라이언트가 서비스 위치에 포토 서비스를 선택하는 단계;
(b) 상기 서비스에 해당하는 가상객체가 존재하는 경우, 상기 서비스 위치 영상에 가상객체를 적재하는 단계;
(c) 상기 서비스 위치 영상에 대한 깊이지도를 생성하는 단계;
(d) 상기 서비스 위치 영상을 상기 깊이지도를 바탕으로 계층(layer)화 하는 단계;
(e) 상기 가상객체를 상기 계층(layer)화된 영상 사이에 삽입하는 단계;
(f) 사용자의 컨텍스트 정보에 기반하여 영상을 정합하고, 정합된 영상을 이용하여 촬영하는 단계; 및
(g) 상기 촬영된 영상을 저장하는 단계를 포함하는 것을 특징으로 하는 3D 증강현실 포토 서비스 방법.
In the method using a system consisting of a client, a wireless network and a photo service server,
(a) selecting, by the client, a photo service at a service location through service information received through the service server;
(b) loading the virtual object on the service location image when the virtual object corresponding to the service exists;
(c) generating a depth map of the service location image;
(d) layering the service location image based on the depth map;
(e) inserting the virtual object between the layered images;
(f) registering an image based on context information of the user, and photographing using the matched image; And
3g augmented reality photo service method comprising the step of storing the captured image.
제1항에 있어서,
상기 (a) 단계는,
상기 클라이언트가 상기 포토 서비스 서버로 위치정보를 전송하는 단계;
상기 포토 서비스 서버가 상기 위치정보에 등록된 서비스 정보를 상기 클라이언트에 전송하는 단계;
상기 클라이언트에 표시된 상기 서비스 정보를 통해 포토 서비스를 선택하는 단계를 포함하는 것을 특징으로 하는 3D 증강현실 포토 서비스 방법.
The method of claim 1,
The step (a)
Transmitting, by the client, location information to the photo service server;
Transmitting, by the photo service server, service information registered in the location information to the client;
And selecting a photo service through the service information displayed on the client.
제2항에 있어서,
상기 위치정보를 전송하지 않는 경우,
상기 클라이언트의 카메라 영상에서 특징점을 탐색하여는 단계;
상기 특징점이 탐색되는 경우, 상기 포토 서비스를 선택하는 단계를 포함하는 것을 특징으로 하는 3D 증강현실 포토 서비스 방법.
The method of claim 2,
If you do not transmit the location information,
Searching for a feature point in the camera image of the client;
And if the feature point is found, selecting the photo service.
제1항에 있어서,
상기 (b) 단계는,
상기 가상객체가 존재하지 않는 경우,
상기 서비스 서버로 가상객체의 전송을 요청하는 단계;
상기 서비스 서버가 데이터 베이스를 검색하는 단계;
상기 서비스 서버가 검색된 가상객체를 상기 클라이언트로 전송하는 단계를 포함하는 것을 특징으로 하는 3D 증강현실 포토 서비스 방법.
The method of claim 1,
The step (b)
If the virtual object does not exist,
Requesting transmission of a virtual object to the service server;
Searching the database by the service server;
And transmitting, by the service server, the searched virtual object to the client.
제3항에 있어서,
상기 (d) 단계는,
상기 특징점 있는 경우, 특징점을 기반으로 영상을 계층화 하고,
상기 특징점이 없는 경우, 깊이에 따라 적어도 2계층으로 영상을 계층화하는 단계인 것을 특징으로 하는 3D 증강현실 포토 서비스 방법.
The method of claim 3,
The step (d)
If there is the feature point, the image is layered based on the feature point,
3D augmented reality photo service method characterized in that the step of layering the image to at least two layers according to the depth, if there is no feature point.
제1항에 있어서,
상기 (e) 단계 후,
상기 클라이언트가 선택적으로 상기 가상객체를 미세조정하는 단계를 더 포함하는 것을 특징으로 하는 3D 증강현실 포토 서비스 방법.
The method of claim 1,
After the step (e),
And selectively adjusting, by the client, the virtual object.
제7항에 있어서,
상기 미세조정은 상기 가상객체의 크기, 방향 및 위치를 조정하는 것을 특징으로 하는 3D 증강현실 포토 서비스 방법.
The method of claim 7, wherein
The fine adjustment is a 3D augmented reality photo service method, characterized in that for adjusting the size, direction and position of the virtual object.
제1항에 있어서,
상기 (f) 단계는,
상기 컨텍스트 정보를 서비스 서버로 전송하는 단계;
상기 서비스 서버에서 상기 컨텍스트 정보와 상기 가상객체가 삽입된 결과영상을 정합하는 단계를 포함하는 것을 특징으로 하는 3D 증강현실 포토 서비스 방법.
The method of claim 1,
The step (f)
Transmitting the context information to a service server;
And matching the resultant image in which the context information is inserted into the virtual server by the service server.
제8항에 있어서,
상기 결과영상은,
현재 위치정보, 시간정보, 영상정보 및 센서정보 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 3D 증강현실 포토 서비스 방법.
9. The method of claim 8,
The resulting image,
3D augmented reality photo service method comprising at least one of current location information, time information, image information and sensor information.
제1항 내지 제9항 중 어느 한항의 방법에 사용되는 3D 증강현실 포토 서비스 시스템.
A 3D augmented reality photo service system used in the method of any one of claims 1 to 9.
제10항에 있어서,
상기 서비스 시스템은,
서비스 정보와 가상객체 그리고 영상 처리와 영상 저장 기능을 제공하는 서비스 서버; 및
상기 서비스 서버와 무선통신하는 통신부와, 현실의 입체영상 정보를 취득하는 입체영상 취득 장치와, 상기 취득한 영상 정보로부터 특징점을 추출하고, 깊이지도를 생성하여 상기 영상을 깊이에 따라 2단계 이상의 계층으로 분리하고, 상기 분리한 영상 계층 사이에 상기 가상객체를 삽입하는 영상 전처리부와, 상기 삽입된 가상 객체를 위치, 크기, 방향 중 적어도 어느 하나를 보정하고, 사용자가 선택한 컨텍스트 정보를 이용하여 가상객체에 부가적인 효과를 적용하여 영상을 정합하는 영상 후처리부로 구성된 클라이언트 단말기를 포함하는 것을 특징으로 하는 3D 증강현실 포토 서비스 시스템.








The method of claim 10,
The service system,
A service server providing service information, virtual objects, and image processing and image storage functions; And
A communication unit wirelessly communicating with the service server, a stereoscopic image acquisition device for acquiring actual stereoscopic image information, and extracting feature points from the acquired image information, generating a depth map, and generating the depth map in two or more levels according to depths. An image preprocessor that separates the virtual object between the separated image layers, and corrects at least one of a position, a size, and a direction of the inserted virtual object, and uses the context information selected by the user. 3D augmented reality photo service system comprising a client terminal comprising an image post-processing unit to match the image by applying an additional effect to.








KR1020110040711A 2011-04-29 2011-04-29 3D augmented reality photo service system, and service method using thereof KR101352385B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110040711A KR101352385B1 (en) 2011-04-29 2011-04-29 3D augmented reality photo service system, and service method using thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110040711A KR101352385B1 (en) 2011-04-29 2011-04-29 3D augmented reality photo service system, and service method using thereof

Publications (2)

Publication Number Publication Date
KR20120122512A true KR20120122512A (en) 2012-11-07
KR101352385B1 KR101352385B1 (en) 2014-01-16

Family

ID=47508766

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110040711A KR101352385B1 (en) 2011-04-29 2011-04-29 3D augmented reality photo service system, and service method using thereof

Country Status (1)

Country Link
KR (1) KR101352385B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2529037A (en) * 2014-06-10 2016-02-10 2Mee Ltd Augmented reality apparatus and method
US10885333B2 (en) 2012-09-12 2021-01-05 2Mee Ltd Augmented reality apparatus and method
KR102299902B1 (en) 2020-07-17 2021-09-09 (주)스마트큐브 Apparatus for providing augmented reality and method therefor
CN113793288A (en) * 2021-08-26 2021-12-14 广州微咔世纪信息科技有限公司 Virtual character co-shooting method and device and computer readable storage medium
US11363325B2 (en) 2014-03-20 2022-06-14 2Mee Ltd Augmented reality apparatus and method
KR20230077981A (en) * 2021-11-26 2023-06-02 주식회사 렛시 Augmented reality content authoring method of multi-scene structure by scene unitization, storage medium in which a program executing the same, and augmented reality content authoring system including the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446414B1 (en) * 2002-07-15 2004-08-30 손광훈 Device for Hierarchical Disparity Estimation and Method Thereof and Apparatus for Stereo Mixed Reality Image Synthesis using it and Method Thereof

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885333B2 (en) 2012-09-12 2021-01-05 2Mee Ltd Augmented reality apparatus and method
US11361542B2 (en) 2012-09-12 2022-06-14 2Mee Ltd Augmented reality apparatus and method
US11363325B2 (en) 2014-03-20 2022-06-14 2Mee Ltd Augmented reality apparatus and method
GB2529037A (en) * 2014-06-10 2016-02-10 2Mee Ltd Augmented reality apparatus and method
CN106664376A (en) * 2014-06-10 2017-05-10 2Mee 有限公司 Augmented reality apparatus and method
GB2529037B (en) * 2014-06-10 2018-05-23 2Mee Ltd Augmented reality apparatus and method
US10679413B2 (en) 2014-06-10 2020-06-09 2Mee Ltd Augmented reality apparatus and method
US11094131B2 (en) 2014-06-10 2021-08-17 2Mee Ltd Augmented reality apparatus and method
KR102299902B1 (en) 2020-07-17 2021-09-09 (주)스마트큐브 Apparatus for providing augmented reality and method therefor
CN113793288A (en) * 2021-08-26 2021-12-14 广州微咔世纪信息科技有限公司 Virtual character co-shooting method and device and computer readable storage medium
KR20230077981A (en) * 2021-11-26 2023-06-02 주식회사 렛시 Augmented reality content authoring method of multi-scene structure by scene unitization, storage medium in which a program executing the same, and augmented reality content authoring system including the same

Also Published As

Publication number Publication date
KR101352385B1 (en) 2014-01-16

Similar Documents

Publication Publication Date Title
KR101352385B1 (en) 3D augmented reality photo service system, and service method using thereof
CN104205828B (en) For the method and system that automatic 3D rendering is created
CN106550182B (en) Shared unmanned aerial vehicle viewing system
US20190371073A1 (en) System and method for augmented reality content delivery in pre-captured environments
US9159169B2 (en) Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program
CN108154058B (en) Graphic code display and position area determination method and device
US8963999B1 (en) Augmented reality with earth data
CN107197153B (en) Shooting method and shooting device for photo
US20150042678A1 (en) Method for visually augmenting a real object with a computer-generated image
CN105574006A (en) Method and device for establishing photographing template database and providing photographing recommendation information
CN112702521B (en) Image shooting method and device, electronic equipment and computer readable storage medium
CN105373929A (en) Method of providing photographing recommending information and apparatus thereof
JP4958689B2 (en) Stereoscopic image generating apparatus and program
WO2022047701A1 (en) Image processing method and apparatus
WO2011096343A1 (en) Photographic location recommendation system, photographic location recommendation device, photographic location recommendation method, and program for photographic location recommendation
KR20150031085A (en) 3D face-modeling device, system and method using Multiple cameras
US20150326847A1 (en) Method and system for capturing a 3d image using single camera
CN113253845A (en) View display method, device, medium and electronic equipment based on eye tracking
JPWO2013145820A1 (en) Imaging apparatus, method, storage medium, and program
JP6775669B2 (en) Information processing device
US20150228112A1 (en) Using Embedded Camera Parameters to Determine a Position for a Three-Dimensional Model
JP5906165B2 (en) Virtual viewpoint image composition device, virtual viewpoint image composition method, and virtual viewpoint image composition program
KR20170014693A (en) Augmented reality imaging photo system using the background of the image
TWI536832B (en) System, methods and software product for embedding stereo imagery
CN114387532A (en) Boundary identification method and device, terminal, electronic equipment and unmanned equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161228

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171227

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190108

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200103

Year of fee payment: 7