KR102643766B1 - The method and the system of displaying the object information using machine learning and augmented reality(AR) technology - Google Patents

The method and the system of displaying the object information using machine learning and augmented reality(AR) technology Download PDF

Info

Publication number
KR102643766B1
KR102643766B1 KR1020210018004A KR20210018004A KR102643766B1 KR 102643766 B1 KR102643766 B1 KR 102643766B1 KR 1020210018004 A KR1020210018004 A KR 1020210018004A KR 20210018004 A KR20210018004 A KR 20210018004A KR 102643766 B1 KR102643766 B1 KR 102643766B1
Authority
KR
South Korea
Prior art keywords
image
information
neural network
learning data
artificial neural
Prior art date
Application number
KR1020210018004A
Other languages
Korean (ko)
Other versions
KR20220114691A (en
Inventor
김서규
최정헌
안승도
Original Assignee
주식회사 큐에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 큐에스 filed Critical 주식회사 큐에스
Priority to KR1020210018004A priority Critical patent/KR102643766B1/en
Publication of KR20220114691A publication Critical patent/KR20220114691A/en
Application granted granted Critical
Publication of KR102643766B1 publication Critical patent/KR102643766B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

본 발명은 기계학습 및 증강현실 기술을 이용하여 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 방법 및 시스템에 관한 것이다.
본 발명의 일 실시예에 따른 객체 정보 표시 시스템은, 객체의 3차원 모델을 제1 방향에서 촬영한 제1 이미지, 상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보 및 상기 객체의 식별 정보를 포함하는 학습 데이터를 생성하고, 상기 학습 데이터를 이용하여 인공 신경망을 학습하는 서버; 및 적어도 하나의 객체를 포함하는 영상을 획득하고, 학습된 인공 신경망을 이용하여 상기 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 객체의 식별 정보를 생성하고, 상기 식별 정보를 참조하여 상기 영상 상에 상기 영역 정보 및 상기 객체 정보를 표시하는 단말; 을 포함한다.
The present invention relates to a method and system for recognizing objects in an image using machine learning and augmented reality technology and displaying information about the recognized object on the image.
An object information display system according to an embodiment of the present invention includes a first image of a three-dimensional model of an object taken in a first direction, first area information indicating an area corresponding to the object on the first image, and the object. A server that generates training data including identification information and trains an artificial neural network using the training data; and acquiring an image including at least one object, generating area information corresponding to the object and identification information of the object from the image using a learned artificial neural network, and generating an image on the image with reference to the identification information. a terminal displaying the area information and the object information; Includes.

Description

기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템 {The method and the system of displaying the object information using machine learning and augmented reality(AR) technology}{The method and the system of displaying the object information using machine learning and augmented reality(AR) technology}

본 발명은 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템에 관한 것으로, 보다 구체적으로는 기계학습 및 증강현실 기술을 이용하여 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 방법 및 시스템에 관한 것이다.The present invention relates to an object information display method and an object information display system based on machine learning and augmented reality technology. More specifically, it uses machine learning and augmented reality technology to recognize objects in an image and recall information about the recognized object. It relates to a method and system for displaying images on an image.

구조물의 유지관리를 하기 위해서는 수년간의 경험이 필요하고, 숙련자라 할지라도 신규 구조물 도입 시 이를 숙지하는데 오랜 시간이 소요된다. 통상 정비사들은 설비의 유지 보수를 위한 메뉴얼을 항상 휴대하여 유지 보수 업무를 수행하여 왔다.Maintaining a structure requires several years of experience, and even for experienced people, it takes a long time to become familiar with it when introducing a new structure. Normally, mechanics always carry a manual for maintenance of equipment and perform maintenance work.

종래의 2차원 메뉴얼은 단순히 구성요소의 설명과 2차원 도면으로만 각 부품을 확인할 수 있도록 작성되어 있어, 사용자가 부품의 상세 설명을 확인하거나 상세 구성을 분해, 조립, 회전, 확대, 축소하는 것이 불가하여 한계점이 있었다.Conventional two-dimensional manuals are written so that each part can be checked simply through component descriptions and two-dimensional drawings, making it difficult for users to check the detailed description of the part or disassemble, assemble, rotate, enlarge, or reduce the detailed configuration. There was a limit as it was impossible.

이러한 문제점을 해결하기 위하여, 실사영상을 기반으로 한 정비 메뉴얼 단말기를 제공하는 방법이 안출되었다. 선행기술문헌 1을 참조하면, 실사영상을 기반으로 한 정비 메뉴얼 단말기는 정비하고자 하는 영역을 카메라로 촬영하여 무선통신을 통해 정비가이드 관리 서버로 전송하고, 정비 가이드 관리 서버는 전송받은 실사영상을 분석하여 이에 따른 정비 가이드 영상을 무선통신을 통해 정비 메뉴얼 단말기로 전송함으로써, 정비하고자 하는 영역에 대해서 실사 영상으로 구현된 정비 가이드를 실시간으로 제공받을 수 있게 된다.In order to solve this problem, a method of providing a maintenance manual terminal based on live images was devised. Referring to prior art document 1, a maintenance manual terminal based on a live image captures the area to be maintained with a camera and transmits it to the maintenance guide management server through wireless communication, and the maintenance guide management server analyzes the received live image. By transmitting the corresponding maintenance guide video to the maintenance manual terminal through wireless communication, it is possible to receive a maintenance guide implemented as a live video for the area to be maintained in real time.

하지만, 종래의 객체 인식 기법은 객체가 가지는 특성을 설계하고 검출함으로써 객체를 찾아내는 방식으로만 진행되었다. 객체를 인식하기 위해 2차원 이미지가 중점적으로 사용되었으며, QR 코드와 같은 특정 마커에 기초하여 객체를 식별하는 기술이 주를 이루어 유사한 구조를 갖는 객체를 높은 정확도로 구분하여 인식하기 어렵다는 문제점이 있다.However, conventional object recognition techniques only proceeded to find objects by designing and detecting the characteristics of the objects. Two-dimensional images have been mainly used to recognize objects, and the technology for identifying objects based on specific markers such as QR codes is mainly used, so there is a problem that it is difficult to distinguish and recognize objects with similar structures with high accuracy.

1. 한국 특허 등록 제 10-1195446 호 (발명의 명칭 : 증강현실 기반의 정비 가이드 제공 단말기 및 이를 이용한 정비 가이드 제공 방법)1. Korean Patent Registration No. 10-1195446 (Title of invention: Augmented reality-based maintenance guide providing terminal and method of providing maintenance guide using the same)

이에, 본 발명의 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 시스템은 단말에서 획득된 영상 내의 객체를 인식하고, 인식된 객체의 정보를 영상 상에 표시하는 기술을 제시함에 목적이 있다.Accordingly, the purpose of the object information display method and system based on machine learning and augmented reality technology of the present invention is to present a technology for recognizing objects in an image acquired from a terminal and displaying information on the recognized object on the image.

또한, 본 발명의 객체 정보 표시 방법 및 시스템은 객체의 3차원 모델을 이용하여 다양한 조건에 따른 객체 이미지를 학습 데이터로 생성하고, 이로부터 학습된 인공 신경망을 기초로 영상 내의 객체를 인식하는 방법을 제시함에 목적이 있다.In addition, the object information display method and system of the present invention generate object images according to various conditions as learning data using a three-dimensional model of the object, and provide a method of recognizing objects in the image based on an artificial neural network learned from this. There is a purpose in presenting it.

또한, 본 발명의 객체 정보 표시 방법 및 시스템은 인식된 객체에 대응되는 객체 정보를 영상 내 증강 현실로 표시하는 방법을 제시함에 목적이 있다.Additionally, the object information display method and system of the present invention aims to present a method of displaying object information corresponding to a recognized object in augmented reality within an image.

또한, 본 발명의 객체 정보 표시 방법 및 시스템은 사용자의 피드백에 기반하여 인공 신경망을 갱신하는 방법을 제시함에 목적이 있다.Additionally, the object information display method and system of the present invention aims to present a method of updating an artificial neural network based on user feedback.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 객체 정보 표시 방법은, 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 방법에 있어서, 적어도 하나의 객체를 포함하는 영상을 획득하는 단계; 학습된 인공 신경망을 이용하여, 상기 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 객체의 식별 정보를 생성하는 단계; 상기 식별 정보를 참조하여 상기 객체에 대응되는 객체 정보를 획득하는 단계; 및 상기 영상 상에 상기 영역 정보 및 상기 객체 정보를 표시하는 단계; 를 포함한다.A method for displaying object information according to an embodiment of the present invention to solve the above-described problem is a method of recognizing an object in an image and displaying information about the recognized object on the image, including at least one object. Acquiring an image; Generating area information corresponding to the object and identification information of the object from the image using a learned artificial neural network; Obtaining object information corresponding to the object by referring to the identification information; and displaying the region information and the object information on the image. Includes.

또한, 본 발명의 객체 정보 표시 방법은, 상기 객체 정보 표시 방법은 상기 영상을 획득하는 단계 이전에, 서버로부터 상기 학습된 인공 신경망을 수신하는 단계; 를 더 포함하고, 상기 학습된 인공 신경망을 수신하는 단계는, 상기 학습된 인공 신경망을 구성하는 적어도 하나의 파라미터를 수신하는 단계; 를 포함할 수 있다.In addition, the object information display method of the present invention includes: receiving the learned artificial neural network from a server before acquiring the image; Further comprising: receiving the learned artificial neural network, comprising: receiving at least one parameter constituting the learned artificial neural network; may include.

또한, 본 발명의 객체 정보 표시 방법은, 상기 서버는, 객체의 3차원 이미지로부터 학습 데이터를 생성하고, 상기 학습 데이터를 이용하여 상기 인공 신경망을 학습할 수 있다.Additionally, in the method for displaying object information of the present invention, the server can generate learning data from a 3D image of the object and train the artificial neural network using the learning data.

또한, 본 발명의 객체 정보 표시 방법은, 상기 서버는 상기 학습 데이터를 생성함에 있어서, 상기 객체의 3차원 모델을 제1 방향에서 촬영한 제1 이미지를 생성하고, 상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보를 생성하고, 상기 제1 이미지, 상기 제1 영역 정보 및 상기 객체의 식별 정보를 포함하는 제1 학습 데이터를 생성하고, 상기 인공 신경망은 상기 제1 학습 데이터에 기반하여, 상기 제1 학습 데이터에 포함되는 상기 제1 이미지, 상기 제1 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.In addition, in the method for displaying object information of the present invention, when generating the learning data, the server generates a first image in which a three-dimensional model of the object is photographed in a first direction, and displays the object on the first image. Generating first area information indicating a corresponding area, generating first learning data including the first image, the first area information, and identification information of the object, and the artificial neural network is configured to use the first learning data Based on this, it may be a neural network that learns the correlation between the first image, the first region information, and the identification information included in the first learning data.

또한, 본 발명의 객체 정보 표시 방법은, 상기 서버는 상기 객체의 3차원 모델을 상기 제1 방향과 상이한 제2 방향에서 촬영한 제2 이미지, 상기 제2 이미지 상에서 상기 객체에 해당하는 제2 영역 정보 및 상기 객체의 식별 정보를 포함하는 제2 학습 데이터를 생성하고, 상기 인공 신경망은 상기 제1 학습 데이터 및 상기 제2 학습 데이터를 포함하는 학습 데이터에 기반하여 학습되는 신경망일 수 있다.In addition, in the object information display method of the present invention, the server displays a second image of the three-dimensional model of the object in a second direction different from the first direction, and a second area corresponding to the object on the second image. Second learning data including information and identification information of the object may be generated, and the artificial neural network may be a neural network that is trained based on learning data including the first learning data and the second learning data.

또한, 본 발명의 객체 정보 표시 방법은, 상기 서버는 상기 학습 데이터를 생성함에 있어서, 상기 객체의 3차원 모델을 상기 제1 방향에서 촬영한 제1 깊이 이미지를 생성하고, 상기 제1 학습 데이터는 상기 제1 깊이 이미지를 더 포함하고, 상기 인공 신경망은 상기 제1 학습 데이터에 기반하여, 상기 제1 이미지, 상기 제1 깊이 이미지, 상기 제1 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.In addition, in the object information display method of the present invention, when generating the learning data, the server generates a first depth image in which a three-dimensional model of the object is photographed in the first direction, and the first learning data is It further includes the first depth image, and the artificial neural network is a neural network that learns a correlation between the first image, the first depth image, the first region information, and the identification information based on the first learning data. It can be.

또한, 본 발명의 객체 정보 표시 방법은, 상기 서버는 상기 학습 데이터를 생성함에 있어서, 상기 제1 이미지의 적어도 하나의 파라미터를 조절한 제3 이미지를 생성하고, 상기 적어도 하나의 파라미터는 이미지의 조도, 명암, 대비 및 선명도 중 적어도 하나를 포함하고, 상기 제3 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제3 영역 정보를 생성하고, 상기 제3 이미지, 상기 제3 영역 정보 및 상기 객체의 식별 정보를 포함하는 제3 학습 데이터를 생성하고, 상기 인공 신경망은 상기 제3 학습 데이터에 기반하여, 상기 제3 학습 데이터에 포함되는 상기 제3 이미지, 상기 제3 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.In addition, in the object information display method of the present invention, when generating the learning data, the server generates a third image by adjusting at least one parameter of the first image, and the at least one parameter is the illuminance of the image. , includes at least one of brightness, contrast, and sharpness, and generates third area information indicating an area corresponding to the object on the third image, and identification information of the third image, the third area information, and the object. Generate third learning data including, and the artificial neural network determines a correlation between the third image, the third region information, and the identification information included in the third learning data based on the third learning data. It could be a learned neural network.

또한, 본 발명의 객체 정보 표시 방법은, 상기 영상을 획득하는 단계는, 상기 객체에 대한 깊이 영상을 획득하는 단계; 를 포함하고, 상기 영역 정보 및 상기 식별 정보를 생성하는 단계는, 상기 학습된 인공 신경망을 이용하여, 상기 영상 및 상기 깊이 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 식별 정보를 생성하는 단계; 를 포함할 수 있다.In addition, in the object information display method of the present invention, the step of acquiring the image includes acquiring a depth image for the object; The step of generating the area information and the identification information includes: generating area information and the identification information corresponding to the object from the image and the depth image using the learned artificial neural network; may include.

또한, 본 발명의 객체 정보 표시 방법은, 상기 영역 정보 및 상기 식별 정보를 생성하는 단계에서 상기 객체의 식별 정보가 생성되지 않는 경우, 상기 객체 정보 표시 방법은, 사용자의 피드백에 기반하여 상기 인공 신경망을 갱신하는 단계; 를 더 포함할 수 있다.In addition, in the object information display method of the present invention, if the identification information of the object is not generated in the step of generating the area information and the identification information, the object information display method uses the artificial neural network based on the user's feedback. updating; may further include.

또한, 본 발명의 객체 정보 표시 방법은, 상기 인공 신경망을 갱신하는 단계는, 상기 영상 상에서 상기 객체에 해당하는 영역을 설정하는 사용자 입력 및 상기 객체의 식별 정보에 대한 상기 사용자 입력을 획득하는 단계; 상기 객체에 해당하는 영역을 참조하여, 상기 객체의 이미지 및 상기 객체의 깊이 이미지 중 적어도 하나를 포함하는 피드백 학습 데이터를 생성하는 단계; 및 상기 피드백 학습 데이터가 추가된 학습 데이터에 기반하여 상기 인공 신경망을 학습하도록 하는 요청을 상기 서버에 전송하는 단계; 를 더 포함할 수 있다.In addition, in the object information display method of the present invention, updating the artificial neural network includes obtaining a user input for setting an area corresponding to the object on the image and the user input for identification information of the object; Referring to the area corresponding to the object, generating feedback learning data including at least one of an image of the object and a depth image of the object; and transmitting a request to the server to train the artificial neural network based on the training data to which the feedback training data is added. may further include.

또한, 본 발명의 객체 정보 표시 방법은, 상기 객체 정보를 표시하는 단계는, 상기 영상 상에 상기 객체에 대응되는 영역을 표시하는 제1 표시 개체를 표시하는 단계로써, 상기 제1 표시 개체는 상기 객체의 윤곽선의 적어도 일부를 따르는 선을 포함하고; 및 상기 객체 정보를 표시하는 제2 표시 개체를 상기 제1 표시 개체에 인접하여 표시하는 단계; 를 포함할 수 있다.In addition, in the object information display method of the present invention, the displaying the object information includes displaying a first display object that displays an area corresponding to the object on the image, wherein the first display object is includes a line that follows at least part of the outline of the object; and displaying a second display object displaying the object information adjacent to the first display object. may include.

또한, 본 발명의 객체 정보 표시 시스템은, 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 시스템에 있어서, 객체의 3차원 모델을 제1 방향에서 촬영한 제1 이미지, 상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보 및 상기 객체의 식별 정보를 포함하는 학습 데이터를 생성하고, 상기 학습 데이터를 이용하여 인공 신경망을 학습하는 서버; 및 적어도 하나의 객체를 포함하는 영상을 획득하고, 학습된 인공 신경망을 이용하여 상기 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 객체의 식별 정보를 생성하고, 상기 식별 정보를 참조하여 상기 영상 상에 상기 영역 정보 및 상기 객체 정보를 표시하는 단말; 을 포함한다.In addition, the object information display system of the present invention is a system for recognizing an object in an image and displaying information on the recognized object on the image, including a first image of a three-dimensional model of the object taken in a first direction, the a server that generates training data including first region information indicating a region corresponding to the object in a first image and identification information of the object, and trains an artificial neural network using the training data; and acquiring an image including at least one object, generating area information corresponding to the object and identification information of the object from the image using a learned artificial neural network, and generating an image on the image with reference to the identification information. a terminal displaying the area information and the object information; Includes.

본 발명의 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 시스템에 따르면, 객체의 3차원 모델을 이용하여 다양한 조건에 따른 객체 이미지를 학습 데이터로 활용함으로써 객체 인식의 정확도를 높일 수 있다.According to the object information display method and system based on machine learning and augmented reality technology of the present invention, the accuracy of object recognition can be increased by using object images according to various conditions as learning data using a three-dimensional model of the object.

또한, 본 발명의 객체 정보 표시 방법 및 시스템에 따르면, 인식된 객체에 대응되는 객체 정보를 영상 내 증강 현실로 표시함으로써 사용자의 매뉴얼 활용도를 높일 수 있다.In addition, according to the object information display method and system of the present invention, the user's manual utilization can be increased by displaying object information corresponding to the recognized object in augmented reality within the image.

또한, 본 발명의 객체 정보 표시 방법 및 시스템에 따르면, 사용자의 피드백에 기반하여 인공 신경망을 갱신하는 기술을 도입함으로써, 양질의 학습 데이터를 확보할 수 있을 뿐 아니라 본 발명의 객체 정보 표시 시스템을 이용할수록 시스템의 정확도가 높아지는 이점을 가진다.In addition, according to the object information display method and system of the present invention, by introducing a technology for updating the artificial neural network based on user feedback, it is possible to not only secure high-quality learning data but also use the object information display system of the present invention. This has the advantage of increasing the accuracy of the system.

도 1은 본 발명의 일 실시예에 따른 객체 정보 표시 시스템의 개략적인 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 단말에 구비되는 객체 정보 표시 장치의 구성을 나타내는 도면이다.
도 3 및 도 4는 본 발명의 서버에 의해 학습된 인공 신경망의 예시적인 구조를 설명하기 위한 도면이다.
도 5는 본 발명의 서버가 인공 신경망의 학습을 위한 학습 데이터를 생성하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 서버가 복수의 학습 데이터를 이용하여 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 단말이 인공 신경망을 이용하여 영역 정보 및 객체 정보를 출력하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 단말에 제공된 영상 상에 객체 정보가 표시된 화면을 나타내는 예시이다.
도 9는 본 발명의 일 실시예에 따른 객체 정보 표시 방법을 설명하기 위한 흐름도이다.
1 is a diagram illustrating a schematic configuration of an object information display system according to an embodiment of the present invention.
Figure 2 is a diagram showing the configuration of an object information display device provided in a terminal according to an embodiment of the present invention.
3 and 4 are diagrams for explaining an exemplary structure of an artificial neural network learned by the server of the present invention.
Figure 5 is a diagram for explaining a process in which the server of the present invention generates learning data for training an artificial neural network.
Figure 6 is a diagram for explaining how the server of the present invention learns an artificial neural network using a plurality of learning data.
Figure 7 is a diagram for explaining a process in which the terminal of the present invention outputs area information and object information using an artificial neural network.
Figure 8 is an example showing a screen where object information is displayed on an image provided to the terminal of the present invention.
Figure 9 is a flowchart for explaining a method for displaying object information according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms. The present embodiments only serve to ensure that the disclosure of the present invention is complete and that common knowledge in the technical field to which the present invention pertains is not limited. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Although first, second, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. In the following embodiments, terms such as include or have mean that the features or components described in the specification exist, and do not exclude in advance the possibility of adding one or more other features or components.

도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and shape of each component shown in the drawings are arbitrarily shown for convenience of explanation, so the present invention is not necessarily limited to what is shown.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Like reference numerals refer to like elements throughout the specification.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or fully combined or combined with each other, and as can be fully understood by those skilled in the art, various technical interconnections and operations are possible, and each embodiment may be implemented independently of each other. It may be possible to conduct them together due to a related relationship.

이하, 첨부된 도면을 참고로 하여 본 발명의 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 객체 정보 표시 방법에 대하여 자세히 설명한다.Hereinafter, with reference to the attached drawings, an object information display method for recognizing an object in an image of the present invention and displaying information on the recognized object on the image will be described in detail.

도 1은 본 발명의 일 실시예에 따른 객체 정보 표시 시스템의 개략적인 구성을 도시한 도면이다.1 is a diagram illustrating a schematic configuration of an object information display system according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 객체 정보 표시 시스템(1000)은 기계학습 및 증강현실 기술을 기반으로 영상 내 객체를 인식하고, 인식된 객체의 정보를 상기 영상 상에 표시할 수 있다.The object information display system 1000 according to an embodiment of the present invention can recognize objects in an image based on machine learning and augmented reality technology and display information about the recognized object on the image.

본 발명에서 '객체'(object)는 영상 내 인식 대상이 되는 타겟 대상물을 지칭하는 것으로, 예컨대 유지 보수를 위한 정비를 하는 경우 정비 대상이 되는 사물일 수 있다.In the present invention, 'object' refers to a target object that is subject to recognition in an image, and may be an object that is subject to maintenance when, for example, maintenance is performed.

본 발명에서 '인공 신경망'은 서버(100) 또는 단말(200)이 수행하는 서비스에 적합하게 학습된 신경망으로, 머신 러닝(Machine Learning) 또는 딥러닝(Deep Learning) 기법에 의해 학습된 인공 신경망을 의미할 수 있다. 이와 같은 신경망의 구조에 대해서는 도 3 내지 도 4를 참조하여 후술한다.In the present invention, an 'artificial neural network' is a neural network learned to be suitable for the service performed by the server 100 or the terminal 200, and is an artificial neural network learned by machine learning or deep learning techniques. It can mean. The structure of such a neural network will be described later with reference to FIGS. 3 and 4.

본 발명의 일 실시예에 따른 객체 정보 표시 시스템은 도 1에 도시된 바와 같이 서버(100), 단말(200) 및 통신망(300)을 포함하여 구성된다. The object information display system according to an embodiment of the present invention includes a server 100, a terminal 200, and a communication network 300, as shown in FIG. 1.

본 발명의 서버(100)는 객체의 3차원 모델을 이용하여 인공 신경망을 학습하는 학습 데이터를 생성하고, 이러한 학습 데이터를 이용하여 영상 내 객체를 인식하는 인공 신경망을 학습한다. 또한 서버(100)는 단말(200)에 학습된 인공 신경망을 제공하고, 단말(200)로부터 피드백 학습 데이터를 획득하여 인공 신경망을 갱신할 수 있다.The server 100 of the present invention generates learning data for training an artificial neural network using a three-dimensional model of an object, and uses this learning data to learn an artificial neural network that recognizes objects in an image. Additionally, the server 100 may provide a learned artificial neural network to the terminal 200 and obtain feedback learning data from the terminal 200 to update the artificial neural network.

이러한 서버(100)는 코로케이션 서버 (Co-location Server) 또는 클라우드 서버 (cloud server) 일 수 있고, 이러한 서버에 포함되는 장치일 수도 있으며, 이에 제한되지는 않는 다양한 공지의 형태로 구현될 수도 있다.This server 100 may be a co-location server or a cloud server, or may be a device included in such a server, and may be implemented in various known forms without being limited thereto. .

서버(100)가 단말(200)과 함께 본 발명의 객체 정보 표시 방법을 수행하는 구체적인 방법에 대해서는 이하 도 3 내지 도 9를 참조하여 후술한다.A specific method for the server 100 to perform the object information display method of the present invention together with the terminal 200 will be described later with reference to FIGS. 3 to 9.

본 발명의 단말(200)은 본 발명의 객체 정보 표시 방법을 수행하는 장치이다. 단말(200)은 서버(100)로부터 수신한 학습된 인공 신경망을 이용하여 본 발명의 객체 정보 표시 방법의 서비스를 수행할 수 있다.The terminal 200 of the present invention is a device that performs the object information display method of the present invention. The terminal 200 can perform the service of the object information display method of the present invention using the learned artificial neural network received from the server 100.

구체적으로 단말(200)은 적어도 하나의 객체를 포함하는 영상을 획득하고, 학습된 인공 신경망을 이용하여, 영상으로부터 상기 객체에 대응되는 영역 정보, 식별 정보를 생성하여 상기 객체에 대응되는 객체 정보를 획득한다.Specifically, the terminal 200 acquires an image including at least one object, uses a learned artificial neural network, generates area information and identification information corresponding to the object from the image, and provides object information corresponding to the object. Acquire.

여기서 객체에 대응되는 '영역 정보'라 함은 영상 내 타겟이 되는 객체의 위치 또는 영역을 의미할 수 있으며, '식별 정보'라 함은 타겟이 되는 객체의 명칭, 고유 식별번호와 같이 객체를 특정할 수 있는 정보를 포함하는 것을 망라한다. 또한, 객체에 대응되는 '객체 정보'라 함은 사용자가 타겟이 되는 객체와 관련된 설명을 포함하는 것으로, 예컨대 타겟이 되는 객체의 매뉴얼 정보일 수 있다. 그 외에도 객체 정보는 객체와 관련된 정보를 포함하는 다양한 것일 수 있다.Here, 'area information' corresponding to an object may mean the location or area of the target object in the image, and 'identification information' refers to the name of the target object and unique identification number that identifies the object. It encompasses information that can be used. Additionally, 'object information' corresponding to an object includes a description related to the object targeted by the user, and may be, for example, manual information of the targeted object. In addition, object information may be various things including information related to an object.

도 2는 본 발명의 일 실시예에 따른 단말(200)에 구비되는 객체 정보 표시 장치(210)의 구성을 나타내는 도면이다.Figure 2 is a diagram showing the configuration of the object information display device 210 provided in the terminal 200 according to an embodiment of the present invention.

도 2를 참조하면, 객체 정보 표시 장치(210)는 통신부(211), 제어부(212), 영상 획득부(213), 깊이 정보 획득부(214), 디스플레이부(215) 및 메모리(216)를 포함한다. 또한 도면에는 도시되지 않았으나, 본 발명의 일 실시예에 따른 객체 정보 표시 장치(210)는 입/출력부, 프로그램 저장부 등을 더 포함할 수 있다. Referring to FIG. 2, the object information display device 210 includes a communication unit 211, a control unit 212, an image acquisition unit 213, a depth information acquisition unit 214, a display unit 215, and a memory 216. Includes. In addition, although not shown in the drawing, the object information display device 210 according to an embodiment of the present invention may further include an input/output unit, a program storage unit, etc.

단말(200)은 유무선 통신 환경에서 웹 또는 모바일 서비스를 이용할 수 있는 통신 단말일 수 있다. 구체적으로, 단말(200)은 범용 (general purpose) 컴퓨터, 특수 목적용 컴퓨터, 스마트폰과 같은 모바일 단말, 데스크탑 또는 노트북 컴퓨터이거나, 착용가능한 디스플레이 장치 예컨대 HMD(Head Mounted Display)장치일 수 있으며, 이들과 결합하여 사용하는 부속 장치일 수 있다. The terminal 200 may be a communication terminal capable of using web or mobile services in a wired or wireless communication environment. Specifically, the terminal 200 may be a general purpose computer, a special purpose computer, a mobile terminal such as a smartphone, a desktop or laptop computer, or a wearable display device such as a Head Mounted Display (HMD) device. It may be an accessory device used in combination with.

통신부(211)는 단말(200)이 서버(100)와 같은 다른 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.The communication unit 211 may be a device that includes hardware and software necessary for the terminal 200 to transmit and receive signals such as control signals or data signals with another device, such as the server 100, through a wired or wireless connection.

제어부(212)는 프로세서(Processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(Processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The control unit 212 may include all types of devices that can process data, such as a processor. Here, 'processor' may mean, for example, a data processing device built into hardware that has a physically structured circuit to perform a function expressed by code or instructions included in a program. Examples of data processing devices built into hardware include microprocessor, central processing unit (CPU), processor core, multiprocessor, and application-specific integrated (ASIC). Circuit), FPGA (Field Programmable Gate Array), etc., but the scope of the present invention is not limited thereto.

영상 획득부(213)는 단말(200)에 구비되거나 단말(200)과 연결된 카메라 모듈로, 객체의 적어도 일부를 포함하는 영상을 획득할 수 있는 것이라면 비제한적으로 적용될 수 있다. 그 밖에 영상 획득부(213)는 사용자 단말(200)에 구비되거나 또는 단말(200)과 연결된 공지의 영상 획득 장치라면 비제한적으로 적용될 수 있다.The image acquisition unit 213 is a camera module provided in or connected to the terminal 200, and can be applied without limitation as long as it can acquire an image including at least a part of an object. In addition, the image acquisition unit 213 may be applied without limitation to any known image acquisition device provided in the user terminal 200 or connected to the terminal 200.

깊이 정보 획득부(214)는 단말(200)에 구비되거나 단말(200)과 연결된 카메라 모듈로, ToF 카메라, 뎁스 비전 카메라와 같은 3차원 영상 정보를 획득할 수 있는 것이라면 비제한적으로 적용될 수 있다.The depth information acquisition unit 214 is a camera module provided in or connected to the terminal 200, and can be applied without limitation as long as it can acquire three-dimensional image information, such as a ToF camera or a depth vision camera.

디스플레이부(215)는 단말(200)에 구비되거나 단말(200)과 연결된 표시장치일 수 있으며, 사용자에게 본 발명의 객체 정보 표시 방법에 따른 표시 영상을 나타낼 수 있는 것이라면 비제한적으로 적용될 수 있다.The display unit 215 may be a display device provided in the terminal 200 or connected to the terminal 200, and may be applied without limitation as long as it can display a display image according to the object information display method of the present invention to the user.

메모리(216)는 단말(200)이 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 메모리는 자기 저장 매체(Magnetic Storage Media) 또는 플래시 저장 매체(Flash Storage Media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 메모리(216)는 서버(100)에 의해 생성된 인공 신경망 모델과 관련된 파라미터들을 일시적 및/또는 영구적으로 저장할 수 있다. 물론 메모리(216)는 인공 신경망들을 학습하기 위한 학습 데이터도 저장할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.The memory 216 functions to temporarily or permanently store data processed by the terminal 200. Memory may include magnetic storage media or flash storage media, but the scope of the present invention is not limited thereto. Memory 216 may temporarily and/or permanently store parameters related to the artificial neural network model generated by server 100. Of course, the memory 216 can also store learning data for learning artificial neural networks. However, this is an example and the spirit of the present invention is not limited thereto.

단말(200)은 서버(100)와 통신하며 본 발명의 객체 정보 표시 방법을 수행하거나 이러한 프로그램 또는 어플리케이션이 탑재될 수 있는 단말이라면 제한 없이 채용될 수 있다. 이하 명세서에서는 설명의 편의를 위해 사용자 단말(200)을 본 발명의 객체 정보 표시 방법을 수행하는 어플리케이션이 탑재된 모바일 단말 것으로 상정하고 설명하나, 본 발명의 범위가 이에 한정되는 것은 아니다.The terminal 200 communicates with the server 100 and can be employed without limitation as long as it performs the object information display method of the present invention or can be loaded with such a program or application. In the following specification, for convenience of explanation, it is assumed that the user terminal 200 is a mobile terminal equipped with an application that performs the object information display method of the present invention, but the scope of the present invention is not limited thereto.

단말(200) 및 이에 포함되는 객체 정보 표시 장치(210)가 수행하는 구체적인 객체 정보 표시 방법에 대해서는 이하 도 3 내지 도 9를 참조하여 후술한다.A detailed object information display method performed by the terminal 200 and the object information display device 210 included therein will be described later with reference to FIGS. 3 to 9.

한편 도 1을 참조하면, 본 발명의 일 실시예에 따른 통신망(300)은 시스템의 각 구성 간의 데이터 송수신을 매개하는 수단을 의미할 수 있다. 이와 같은 통신망(300)은 근거리 네트워크 (local area network; LAN), 광역 네트워크 (wide area network; WAN), 거대도시 네트워크 (metropolitan area network; MAN), 종합정보 네트워크 (Integrated Service Digital Network; ISDN) 등의 유선 네트워크, 3G나 LTE (Long Term Evolution), 5G 와 같은 이동통신이나 와이파이 (Wi-Fi), 와이파이 다이렉트 (Wi-Fi Direct), 위성통신 같은 무선 네트워크, 블루투스 (Bluetooth), 지그비 (Zigbee), 저전력 단거리 무선망 IPv6(6LoWPAN), 근거리장 통신(Near Field communication) 과 같은 단거리 무선 네트워크 (Wireless Personal Area Network) 중 어느 하나일 수 있고, 나아가 이들의 조합, 또는 임의의 다른 네트워크일 수도 있으며, 이들로 한정되는 것은 아니다.Meanwhile, referring to FIG. 1, the communication network 300 according to an embodiment of the present invention may mean a means for mediating data transmission and reception between each component of the system. Such a communication network 300 includes a local area network (LAN), a wide area network (WAN), a metropolitan area network (MAN), an integrated service digital network (ISDN), etc. wired networks, mobile communications such as 3G, LTE (Long Term Evolution), 5G, wireless networks such as Wi-Fi, Wi-Fi Direct, satellite communications, Bluetooth, and Zigbee. , low-power short-range wireless network IPv6 (6LoWPAN), short-range wireless network (Wireless Personal Area Network) such as Near Field Communication, or a combination thereof, or any other network, It is not limited to these.

도 3 및 도 4는 본 발명의 서버에 의해 학습된 인공 신경망의 예시적인 구조를 설명하기 위한 도면이다.3 and 4 are diagrams for explaining an exemplary structure of an artificial neural network learned by the server of the present invention.

본 발명의 일 실시예에 따른 인공 신경망은 도 3에 도시된 바와 같은 합성 곱 신경망(CNN: Convolutional Neural Network) 모델에 따른 인공 신경망일 수 있다. 이때 CNN 모델은 복수의 연산 레이어(Convolutional Layer, Pooling Layer)를 번갈아 수행하여 최종적으로는 입력 데이터의 특징을 추출하는 데 사용되는 계층 모델일 수 있다.The artificial neural network according to an embodiment of the present invention may be an artificial neural network based on a convolutional neural network (CNN) model as shown in FIG. 3. At this time, the CNN model may be a hierarchical model used to ultimately extract features of input data by alternately performing a plurality of computational layers (Convolutional Layer, Pooling Layer).

본 발명의 일 실시예에 따른 서버(100)는 학습 데이터를 지도학습(Supervised Learning) 기법에 따라 처리하여 인공 신경망 모델을 구축하거나 학습시킬 수 있다. 서버(100)가 인공 신경망을 학습시키는 방법에 대한 상세한 설명은 후술한다.The server 100 according to an embodiment of the present invention can build or learn an artificial neural network model by processing learning data according to a supervised learning technique. A detailed description of how the server 100 trains the artificial neural network will be described later.

본 발명의 일 실시예에 따른 서버(100)는 복수의 학습 데이터를 이용하여, 어느 하나의 입력 데이터를 인공 신경망에 입력하여 생성된 출력 값이 해당 학습 데이터에 표지된 값에 근접하도록 각 레이어 및/또는 각 노드의 가중치를 갱신하는 과정을 반복하여 수행함으로써 인공 신경망을 학습시킬 수 있다. The server 100 according to an embodiment of the present invention uses a plurality of learning data to input one input data into an artificial neural network so that the output value generated is close to the value labeled in the corresponding learning data. /Or, the artificial neural network can be trained by repeatedly performing the process of updating the weight of each node.

이때 본 발명의 일 실시예에 따른 서버(100)는 역전파(Back Propagation) 알고리즘에 따라 각 레이어 및/또는 각 노드의 가중치(또는 계수)를 갱신할 수 있다.At this time, the server 100 according to an embodiment of the present invention may update the weight (or coefficient) of each layer and/or each node according to a back propagation algorithm.

본 발명의 일 실시예에 따른 서버(100)는 입력 데이터의 특징 값을 추출하기 위한 컨볼루션 레이어(Convolution layer), 추출된 특징 값을 결합하여 특징 맵을 구성하는 풀링 레이어(pooling layer)를 생성할 수 있다. 또한 본 발명의 일 실시예에 따른 서버(100)는 생성된 특징 맵을 결합하여, 입력 데이터가 복수의 항목 각각에 해당할 확률을 결정할 준비를 하는 풀리 커넥티드 레이어(Fully Conected Layer)를 생성할 수 있다. 본 발명의 일 실시예에 따른 서버(100)는 입력 데이터에 대응되는 출력을 포함하는 아웃풋 레이어(Output Layer)를 산출할 수 있다.The server 100 according to an embodiment of the present invention generates a convolution layer for extracting feature values of input data and a pooling layer for forming a feature map by combining the extracted feature values. can do. In addition, the server 100 according to an embodiment of the present invention combines the generated feature maps to generate a fully connected layer that prepares to determine the probability that the input data corresponds to each of a plurality of items. You can. The server 100 according to an embodiment of the present invention can calculate an output layer including output corresponding to input data.

도 3에 도시된 예시에서는, 입력 데이터가 5X7 형태의 블록으로 나누어지며, 컨볼루션 레이어의 생성에 5X3 형태의 단위 블록이 사용되고, 풀링 레이어의 생성에 1X4 또는 1X2 형태의 단위 블록이 사용되는 것으로 도시되었지만, 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다. 따라서 입력 데이터의 종류 및/또는 각 블록의 크기는 다양하게 구성될 수 있다.In the example shown in Figure 3, the input data is divided into blocks of 5 However, this is an example and the spirit of the present invention is not limited thereto. Therefore, the type of input data and/or the size of each block can be configured in various ways.

한편 이와 같은 인공 신경망은 서버(100)의 저장부에 인공 신경망을 구성하는 적어도 하나의 노드의 계수, 노드의 가중치 및 인공 신경망을 구성하는 복수의 레이어 간의 관계를 정의하는 함수의 계수들의 형태로 저장될 수 있다. 물론 인공 신경망의 구조 또한 저장부에 소스코드 및/또는 프로그램의 형태로 저장될 수 있다.Meanwhile, such an artificial neural network is stored in the storage of the server 100 in the form of coefficients of a function that defines the coefficient of at least one node constituting the artificial neural network, the weight of the node, and the relationship between the plurality of layers constituting the artificial neural network. It can be. Of course, the structure of the artificial neural network can also be stored in the storage unit in the form of source code and/or program.

본 발명의 일 실시예에 따른 인공 신경망은 도 4에 도시된 바와 같은 순환 신경망(Recurrent Neural Network, RNN) 모델에 따른 인공 신경망일 수 있다.The artificial neural network according to an embodiment of the present invention may be an artificial neural network based on a Recurrent Neural Network (RNN) model as shown in FIG. 4.

도 4를 참조하면, 이와 같은 순환 신경망(RNN) 모델에 따른 인공 신경망은 적어도 하나의 입력 노드(N1)를 포함하는 입력 레이어(L1), 복수의 히든 노드(N2)를 포함하는 히든 레이어(L2) 및 적어도 하나의 출력 노드(N3)를 포함하는 출력 레이어(L3)를 포함할 수 있다. 이때 입력 레이어(L1)의 적어도 하나의 입력 노드(N1)에는 제2 텍스트 생성을 위한 하나 이상의 평가 이미지가 입력될 수 있다.Referring to FIG. 4, the artificial neural network according to this recurrent neural network (RNN) model includes an input layer (L1) including at least one input node (N1), and a hidden layer (L2) including a plurality of hidden nodes (N2). ) and an output layer (L3) including at least one output node (N3). At this time, one or more evaluation images for generating the second text may be input to at least one input node (N1) of the input layer (L1).

히든 레이어(L2)는 도시된 바와 같이 전체적으로 연결된(Fully Connected) 하나 이상의 레이어를 포함할 수 있다. 히든 레이어(L2)가 복수의 레이어를 포함하는 경우, 인공 신경망은 각각의 히든 레이어 사이의 관계를 정의하는 함수(미도시)를 포함할 수 있다. 출력 레이어(L3)의 적어도 하나의 출력 노드(N3)는 제어부(112)의 제어에 따라 인공 신경망이 입력 레이어(L1)의 입력 값으로부터 생성한 출력 값을 포함할 수 있다. 가령 출력 레이어(L3)에는 하나 이상의 평가 이미지에 대응되는 음을 묘사하는 제2 텍스트 데이터가 포함될 수 있다. The hidden layer L2 may include one or more layers that are fully connected as shown. When the hidden layer (L2) includes a plurality of layers, the artificial neural network may include a function (not shown) that defines the relationship between each hidden layer. At least one output node N3 of the output layer L3 may include an output value generated by an artificial neural network from input values of the input layer L1 under the control of the control unit 112. For example, the output layer L3 may include second text data depicting sounds corresponding to one or more evaluation images.

한편 각 레이어의 각 노드에 포함되는 값은 벡터일 수 있다. 또한 각 노드는 해당 노드의 중요도에 대응되는 가중치를 포함할 수도 있다.Meanwhile, the value included in each node of each layer may be a vector. Additionally, each node may include a weight corresponding to the importance of the node.

한편 인공 신경망은 입력 레이어(L1)와 히든 레이어(L2)의 관계를 정의하는 제1 함수(F1) 및 히든 레이어(L2)와 출력 레이어(L3)의 관계를 정의하는 제2 함수(F2)를 포함할 수 있다. 제1 함수(F1)는 입력 레이어(L1)에 포함되는 입력 노드(N1)와 히든 레이어(L2)에 포함되는 히든 노드(N2)간의 연결관계를 정의할 수 있다. 이와 유사하게, 제2 함수(F2)는 히든 레이어(L2)에 포함되는 히든 노드(N2)와 출력 레이어(L2)에 포함되는 출력 노드(N2)간의 연결관계를 정의할 수 있다. 이와 같은 제1 함수(F1), 제2 함수(F2) 및 히든 레이어 사이의 함수들은 이전 노드의 입력에 기초하여 결과물을 출력하는 순환 신경망 모델을 포함할 수 있다.Meanwhile, the artificial neural network uses a first function (F1) that defines the relationship between the input layer (L1) and the hidden layer (L2) and a second function (F2) that defines the relationship between the hidden layer (L2) and the output layer (L3). It can be included. The first function (F1) may define a connection relationship between the input node (N1) included in the input layer (L1) and the hidden node (N2) included in the hidden layer (L2). Similarly, the second function (F2) may define a connection relationship between the hidden node (N2) included in the hidden layer (L2) and the output node (N2) included in the output layer (L2). The functions between the first function (F1), the second function (F2), and the hidden layer may include a recurrent neural network model that outputs a result based on the input of the previous node.

서버(100)에 의해 인공 신경망이 학습되는 과정에서, 복수의 학습 데이터에 기초하여 제1 함수(F1) 및 제2 함수(F2)가 학습될 수 있다. 물론 인공 신경망이 학습되는 과정에서 전술한 제1 함수(F1) 및 제2 함수(F2) 외에 복수의 히든 레이어 사이의 함수들 또한 학습될 수 있다.In the process of learning the artificial neural network by the server 100, the first function (F1) and the second function (F2) may be learned based on a plurality of learning data. Of course, in the process of learning the artificial neural network, functions between a plurality of hidden layers in addition to the above-described first function (F1) and second function (F2) may also be learned.

본 발명의 일 실시예에 따른 인공 신경망은 표지(Labeled)된 학습 데이터를 기반으로 지도학습(Supervised Learning) 방식으로 학습될 수 있다. The artificial neural network according to an embodiment of the present invention can be learned using a supervised learning method based on labeled learning data.

본 발명의 일 실시예에 따른 서버(100)는 복수의 학습 데이터를 이용하여, 어느 하나의 입력 데이터를 인공 신경망에 입력하여 생성된 출력 값이 해당 학습 데이터에 표지된 값에 근접하도록 전술한 함수들(F1, F2, 히든 레이어 사이의 함수들 등)을 갱신하는 과정을 반복하여 수행함으로써 인공 신경망을 학습시킬 수 있다. The server 100 according to an embodiment of the present invention uses a plurality of learning data to input any one input data into an artificial neural network and performs the above-described function so that the output value generated is close to the value labeled in the corresponding learning data. An artificial neural network can be trained by repeatedly performing the process of updating the functions (F1, F2, functions between hidden layers, etc.).

이때 본 발명의 일 실시예에 따른 서버(100)는 역전파(Back Propagation) 알고리즘에 따라 전술한 함수들(F1, F2, 히든 레이어 사이의 함수들 등)을 갱신할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.At this time, the server 100 according to an embodiment of the present invention may update the above-described functions (F1, F2, functions between hidden layers, etc.) according to a back propagation algorithm. However, this is an example and the spirit of the present invention is not limited thereto.

한편 도 3 및 도 4에서 설명한 인공 신경망의 종류 및/또는 구조는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다. 따라서 다양한 종류의 모델의 인공 신경망이 명세서를 통하여 설명하는 '인공 신경망'에 해당할 수 있다.Meanwhile, the types and/or structures of artificial neural networks described in FIGS. 3 and 4 are exemplary and the scope of the present invention is not limited thereto. Therefore, artificial neural networks of various types of models may correspond to the 'artificial neural network' described throughout the specification.

이하에서는 서버(100)가 인공 신경망을 학습하는 과정에 대해서 먼저 설명하고, 단말(200)이 학습된 인공 신경망을 이용하여 객체 정보를 표시하는 방법에 대하여 설명한다.Below, the process by which the server 100 learns the artificial neural network will first be described, and then the method by which the terminal 200 displays object information using the learned artificial neural network will be described.

도 5는 본 발명의 서버(100)가 인공 신경망(620)의 학습을 위한 학습 데이터(520)를 생성하는 과정을 설명하기 위한 도면이고, 도 6은 본 발명의 서버(100)가 복수의 학습 데이터(610)를 이용하여 인공 신경망(620)을 학습하는 방법을 설명하기 위한 도면이다.Figure 5 is a diagram for explaining the process by which the server 100 of the present invention generates learning data 520 for training the artificial neural network 620, and Figure 6 shows the server 100 of the present invention generating a plurality of learning data. This diagram is for explaining a method of learning an artificial neural network 620 using data 610.

본 발명의 서버(100)는 도 5에 따라 생성된 학습 데이터를 이용하여 도 6의 방식으로 인공 신경망을 학습시킬 수 있다.The server 100 of the present invention can train an artificial neural network in the method of FIG. 6 using the training data generated according to FIG. 5.

도 5를 참조하면, 본 발명의 서버(100)는 소스 데이터(510)로부터 인공 신경망의 학습을 위한 복수의 학습 데이터(520)를 생성한다. Referring to FIG. 5, the server 100 of the present invention generates a plurality of learning data 520 for training an artificial neural network from source data 510.

소스 데이터(510)는 객체의 3차원 모델(511)을 포함하고, 3차원 모델은 객체의 실제 모습을 3D로 모델링한 이미지일 수 있다. 복수의 학습 데이터(520)는 3차원 모델(511)을 특정 방향에서 캡쳐한 2차원의 이미지와, 그 특정 방향에서의 깊이 정보를 포함한 깊이 이미지(depth map) 중 적어도 하나를 포함할 수 있다.The source data 510 includes a 3D model 511 of the object, and the 3D model may be an image modeling the actual appearance of the object in 3D. The plurality of learning data 520 may include at least one of a two-dimensional image captured from a specific direction of the three-dimensional model 511 and a depth image (depth map) including depth information in the specific direction.

예를 들어, 첫 번째 학습 데이터(521)의 경우, 3차원 자동차 모델(511)을 D1 방향에서 캡쳐한 2차원이 이미지(521A)와 D1 방향에서의 깊이 이미지(521B)를 포함할 수 있다. 이와 유사하게 두 번째 학습 데이터(522) 및 세 번째 학습 데이터(523)도 3차원 모델(511)을 D2 방향에서, D3 방향에서 캡쳐한 2차원의 이미지와, 그 특정 방향에서의 깊이 정보를 포함한 깊이 이미지를 포함할 수 있다.For example, in the case of the first training data 521, the 3D car model 511 may include a two-dimensional image 521A captured in the D1 direction and a depth image 521B in the D1 direction. Similarly, the second learning data 522 and the third learning data 523 also include two-dimensional images captured of the three-dimensional model 511 in the D2 direction and D3 direction, and depth information in that specific direction. May contain depth images.

본 발명의 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 시스템에 따르면, 객체의 3차원 모델을 이용하여 다양한 조건에 따른 객체 이미지를 학습 데이터로 활용함으로써 객체 인식의 정확도를 높일 수 있다.According to the object information display method and system based on machine learning and augmented reality technology of the present invention, the accuracy of object recognition can be increased by using object images according to various conditions as learning data using a three-dimensional model of the object.

도 6을 참조하면, 본 발명의 서버(100)는 도 5에 도시된 바와 같이 객체의 3차원 모델(511)로부터 복수의 학습 데이터(520)를 생성하고, 생성된 복수의 학습 데이터(520)를 포함하는 학습 데이터(610)를 이용하여 인공 신경망(620)을 학습한다.Referring to FIG. 6, the server 100 of the present invention generates a plurality of learning data 520 from the three-dimensional model 511 of the object as shown in FIG. 5, and the generated plurality of learning data 520 The artificial neural network 620 is learned using the learning data 610 including.

본 발명의 일 실시예에 따른 인공 신경망(620)은 복수의 학습 데이터(610) 각각에 포함되는 2차원 이미지, 깊이 이미지, 객체에 대응되는 영역 정보 및 객체의 식별 정보 간의 상관관계를 학습한(또는 학습하는) 신경망을 의미할 수 있다.The artificial neural network 620 according to an embodiment of the present invention learns the correlation between the two-dimensional image, the depth image, the area information corresponding to the object, and the identification information of the object included in each of the plurality of learning data 610 ( It may refer to a neural network (or learning).

본 발명의 서버(100)는 복수의 학습 데이터(620)를 생성함에 있어서, 객체의 3차원 모델(511)을 제1 방향(D1)에서 촬영한 제1 이미지(611A)를 생성하고, 상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보(611C)를 생성하고, 제1 이미지(611A), 제1 영역 정보(611C) 및 객체의 식별 정보(611D)를 포함하는 제1 학습 데이터(611)를 생성할 수 있다.When generating a plurality of learning data 620, the server 100 of the present invention generates a first image 611A obtained by photographing the three-dimensional model 511 of the object in the first direction D1, and 1 Generate first area information 611C indicating the area corresponding to the object on the image, and first learning including the first image 611A, first area information 611C, and object identification information 611D Data 611 can be generated.

또한, 본 발명의 서버(100)는 복수의 학습 데이터(620)를 생성함에 있어서, 객체의 3차원 모델(511)을 제1 방향과 상이한 제2 방향(D2)에서 촬영한 제2 이미지를 생성하고, 제2 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제2 영역 정보를 생성하고, 제2 이미지, 제2 영역 정보 및 객체의 식별 정보를 포함하는 제2 학습 데이터(612)를 생성할 수 있다.In addition, when generating a plurality of learning data 620, the server 100 of the present invention generates a second image by photographing the three-dimensional model 511 of the object in a second direction D2 that is different from the first direction. and generate second area information indicating the area corresponding to the object on the second image, and generate second learning data 612 including the second image, second area information, and identification information of the object. .

이때, 본 발명의 인공 신경망(620)은 제1 학습 데이터(611) 및 제2 학습 데이터(612)에 기반하여 제1 학습 데이터(611) 및 제2 학습 데이터(612)에 포함되는 이미지, 영역 정보 및 객체의 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.At this time, the artificial neural network 620 of the present invention uses the images and regions included in the first learning data 611 and the second learning data 612 based on the first learning data 611 and the second learning data 612. It may be a neural network that learns the correlation between information and object identification information.

또한, 본 발명의 서버(100)는 복수의 학습 데이터(620)를 생성함에 있어서, 객체의 3차원 모델(511)을 제1 방향(D1)에서 촬영한 제1 깊이 이미지(611B)를 더 생성하고, 제1 학습 데이터(611)는 제1 이미지(611A), 제1 영역 정보(611C) 및 객체의 식별 정보(611D)에 제1 깊이 이미지(611B)를 더 포함할 수 있다. 다시 말해, 복수의 학습 데이터(620)는 2차원 이미지, 객체에 대응되는 영역 정보 및 객체의 식별 정보 만을 포함하는 학습 데이터일 수도 있으며, 2차원 이미지, 깊이 이미지, 객체에 대응되는 영역 정보 및 객체의 식별 정보를 포함하는 학습 데이터일 수도 있다.In addition, when generating a plurality of learning data 620, the server 100 of the present invention further generates a first depth image 611B obtained by photographing the three-dimensional model 511 of the object in the first direction D1. And, the first learning data 611 may further include a first depth image 611B in addition to the first image 611A, first region information 611C, and object identification information 611D. In other words, the plurality of learning data 620 may be learning data that includes only a two-dimensional image, area information corresponding to the object, and object identification information, and may include a two-dimensional image, a depth image, area information corresponding to the object, and object identification information. It may be learning data containing identification information.

제1 학습 데이터(611) 및 제2 학습 데이터(612)가 제1 깊이 이미지(611B) 및 제2 깊이 이미지를 학습 데이터로 포함하는 경우, 본 발명의 인공 신경망(620)은 제1 학습 데이터(611) 및 제2 학습 데이터(612)에 포함되는 이미지, 깊이 이미지, 영역 정보 및 객체의 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.When the first learning data 611 and the second learning data 612 include the first depth image 611B and the second depth image as learning data, the artificial neural network 620 of the present invention uses the first learning data ( 611) and may be a neural network that has learned the correlation between the image, depth image, region information, and object identification information included in the second learning data 612.

또한, 본 발명의 서버(100)는 복수의 학습 데이터(620)를 생성함에 있어서, 제1 이미지(611A)의 적어도 하나의 파라미터를 조절한 제3 이미지를 생성할 수 있다. 이때, 적어도 하나의 파라미터는 이미지의 조도, 명암, 대비 및 선명도 중 적어도 하나일 수 있다. 다시 말해, 본 발명의 서버(100)는 객체의 3차원 모델(511)을 제1 방향(D1)에서 촬영한 제1 이미지(611A)의 조도를 조절하여 제1 이미지(611A)와 다른 제3 이미지를 생성할 수 있다. 이때 서버(100)는 제3 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제3 영역 정보를 생성하고, 상기 제3 이미지, 제3 영역 정보 및 객체의 식별 정보를 포함하는 제3 학습 데이터(613)를 생성할 수 있다.Additionally, when generating a plurality of learning data 620, the server 100 of the present invention may generate a third image by adjusting at least one parameter of the first image 611A. At this time, the at least one parameter may be at least one of illuminance, brightness, contrast, and sharpness of the image. In other words, the server 100 of the present invention adjusts the illuminance of the first image 611A of the three-dimensional model 511 of the object in the first direction D1 to create a third image different from the first image 611A. Images can be created. At this time, the server 100 generates third area information indicating the area corresponding to the object on the third image, and third learning data 613 including the third image, third area information, and identification information of the object. can be created.

이때, 본 발명의 인공 신경망(620)은 제3 학습 데이터(613)에 기반하여 제3 학습 데이터(613)에 포함되는 이미지, 깊이 이미지, 영역 정보 및 객체의 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.At this time, the artificial neural network 620 of the present invention is a neural network that learns the correlation between the image, depth image, region information, and object identification information included in the third learning data 613 based on the third learning data 613. It can be.

한편, 복수의 학습 데이터(610)에서 '객체에 대응되는 영역 정보'라 함은, 객체가 존재하는 위치를 나타내기 위한 마스크(mask) 이미지일 수 있으며, 객체의 '식별 정보'라 함은 객체의 명칭, 고유 식별번호와 같이 객체를 특정할 수 있는 정보를 의미할 수 있다.Meanwhile, in the plurality of learning data 610, 'area information corresponding to the object' may be a mask image to indicate the location where the object exists, and 'identification information' of the object may refer to the object's It may refer to information that can identify an object, such as its name or unique identification number.

도 7은 본 발명의 단말이 인공 신경망(620)을 이용하여 영역 정보(641) 및 객체 정보(642)를 출력하는 과정을 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating a process in which the terminal of the present invention outputs area information 641 and object information 642 using an artificial neural network 620.

본 발명의 단말(200)은 서버(100)로부터 도 5 및 도 6의 방법에 따라 학습된 인공 신경망(620)을 수신하고, 수신된 인공 신경망(620)을 이용하여 영역 정보 및 객체 정보를 출력한다. 여기서 인공 신경망(620)을 수신한다 함은, 학습된 인공 신경망(620)을 구성하는 적어도 하나의 파라미터를 수신하는 것을 의미할 수 있다.The terminal 200 of the present invention receives the artificial neural network 620 learned according to the method of FIGS. 5 and 6 from the server 100, and outputs area information and object information using the received artificial neural network 620. do. Here, receiving the artificial neural network 620 may mean receiving at least one parameter constituting the learned artificial neural network 620.

도 7을 참조하면, 본 발명의 단말(200)은 학습된 인공 신경망(620)을 이용하여, 영상(631) 및 깊이 영상(632)을 포함한 입력 정보(630)로부터 상기 객체에 대응되는 영역 정보(641) 및 식별 정보(642)를 포함하는 출력 정보(640)를 생성한다. 이때, 입력 정보(630)에서 깊이 영상(632)은 선택적인 정보일 수 있다.Referring to FIG. 7, the terminal 200 of the present invention uses a learned artificial neural network 620 to obtain region information corresponding to the object from input information 630 including an image 631 and a depth image 632. Output information 640 including 641 and identification information 642 is generated. At this time, the depth image 632 may be optional information in the input information 630.

한편, 단말(200)이 학습된 인공 신경망(620)을 이용하여 본 발명의 구체적인 객체 정보 표시 방법을 수행하는 것에 대해서는 도 9의 흐름도를 참조하여 후술하도록 한다.Meanwhile, how the terminal 200 performs the specific object information display method of the present invention using the learned artificial neural network 620 will be described later with reference to the flowchart of FIG. 9.

도 8은 본 발명의 단말(200)에 제공된 영상 상에 객체 정보가 표시된 화면(80)을 나타내는 예시이다.Figure 8 is an example showing a screen 80 on which object information is displayed on an image provided to the terminal 200 of the present invention.

도 8은 구체적으로, 사용자가 단말(200)을 통해 자동차 내부 부품의 유지 보수를 위하여 자동차 내부 부품의 객체 정보를 표시하는 상황을 예시한다.FIG. 8 specifically illustrates a situation in which a user displays object information of internal automobile parts for maintenance of automobile internal parts through the terminal 200.

단말(200)이 적어도 하나의 객체가 포함된 영역의 영상을 획득하면, 제어부(212)는 학습된 인공 신경망을 이용하여 영상으로부터 인식 가능한 객체를 인식하여 객체 정보를 표시한다.When the terminal 200 acquires an image of an area containing at least one object, the control unit 212 recognizes a recognizable object from the image using a learned artificial neural network and displays object information.

표시 화면(80)은 단말(200)로부터 획득된 영상과, 영상 상에 증강현실 기술로 표시되는 제1 영역(81)과 인식된 객체에 대응되는 객체 정보가 표시되는 제2 영역(83)을 포함할 수 있다. 여기서, '객체 정보'라 함은 사용자가 타겟이 되는 객체와 관련된 설명을 포함하는 것으로, 예컨대 타겟이 되는 객체의 매뉴얼 정보일 수 있다.The display screen 80 includes an image acquired from the terminal 200, a first area 81 displayed on the image using augmented reality technology, and a second area 83 where object information corresponding to the recognized object is displayed. It can be included. Here, 'object information' includes a description related to the object targeted by the user, and may be manual information of the targeted object, for example.

표시 화면(80)은 영상 상에 상기 객체에 대응되는 영역을 표시하는 제1 표시 개체(81A)를 포함할 수 있다. 이때, 제1 표시 개체(81A)는 객체의 윤곽선의 적어도 일부를 따르는 선을 포함할 수 있다. 또한, 표시 화면(80)은 객체 정보와 관련된 사항을 표시하는 제2 표시 개체(81B)를 제1 표시 개체(81A)에 인접하여 표시할 수 있다. 제1 표시 개체(81A) 및 제2 표시 개체(81B)는 단말(200)이 획득한 영상 상에 증강현실 기술로 표시될 수 있다. 또한, 단말(200)은 객체 정보와 관련된 사항을 영상이 표시되는 제1 영역(81)에 인접한 제2 영역(83)에 표시할 수도 있다. The display screen 80 may include a first display object 81A that displays an area corresponding to the object on the image. At this time, the first display object 81A may include a line that follows at least part of the outline of the object. Additionally, the display screen 80 may display a second display object 81B that displays information related to object information adjacent to the first display object 81A. The first display object 81A and the second display object 81B may be displayed using augmented reality technology on the image acquired by the terminal 200. Additionally, the terminal 200 may display matters related to object information in the second area 83 adjacent to the first area 81 where the image is displayed.

본 발명의 객체 정보 표시 방법 및 시스템에 따르면, 인식된 객체에 대응되는 객체 정보를 영상 내 증강 현실로 표시함으로써 사용자의 매뉴얼 활용도를 높일 수 있다.According to the object information display method and system of the present invention, the user's utilization of the manual can be increased by displaying object information corresponding to the recognized object in augmented reality within the image.

한편, 도 8에 도시된 표시 형태는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, the display form shown in FIG. 8 is exemplary and the spirit of the present invention is not limited thereto.

도 9는 본 발명의 일 실시예에 따른 객체 정보 표시 방법을 설명하기 위한 흐름도이다. 이하에서는 도 1 내지 도 8을 통해 설명한 내용과 중복되는 내용의 설명은 생략하되, 도 1 내지 도 8을 함께 참조하여 설명한다.Figure 9 is a flowchart for explaining a method for displaying object information according to an embodiment of the present invention. Hereinafter, description of content that overlaps with the content described with reference to FIGS. 1 to 8 will be omitted, but will be described with reference to FIGS. 1 to 8 together.

본 발명의 단말(200)은 도 9에 도시된 바에 따라 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시할 수 있다.The terminal 200 of the present invention can recognize an object in an image as shown in FIG. 9 and display information about the recognized object on the image.

단말(200)은 서버(100)로부터 학습된 인공 신경망(620)을 수신한다(S91).The terminal 200 receives the learned artificial neural network 620 from the server 100 (S91).

단말(200)이 학습된 인공 신경망을 수신하는 단계(S91)는, 상기 학습된 인공 신경망을 구성하는 적어도 하나의 파라미터를 수신하는 단계를 포함할 수 있다.The step (S91) of the terminal 200 receiving a learned artificial neural network may include receiving at least one parameter constituting the learned artificial neural network.

단말(200)은 적어도 하나의 객체를 포함하는 영상을 획득하고(S92), 학습된 인공 신경망(620)을 이용하여, 상기 영상으로부터 객체에 대응되는 영역 정보(641) 및 식별 정보(642)를 생성한다(S93).The terminal 200 acquires an image including at least one object (S92), and uses a learned artificial neural network 620 to generate area information 641 and identification information 642 corresponding to the object from the image. Create (S93).

예컨대, 단말(200)이 객체인 자동차를 포함하는 영상을 획득한 경우, 학습된 인공 신경망(620)을 통해 단말(200)은 영상 내 포함된 객체가 구체적으로 어떤 자동차의 모델인지에 대한 모델명 즉, 식별 정보를 생성하고, 자동차를 제외한 영역을 마스킹하는 마스킹 이미지 즉, 영역 정보를 생성할 수 있다.For example, when the terminal 200 acquires an image containing a car as an object, the terminal 200 uses the learned artificial neural network 620 to identify the model of the car that the object included in the image is, i.e. , identification information can be generated and a masking image that masks the area excluding the car, that is, area information, can be generated.

단말(200)은 상기 식별 정보를 참조하여 객체에 대응되는 객체 정보를 획득하고(S94), 생성된 영역 정보와 객체 정보를 표시 화면에 표시한다(S95)The terminal 200 refers to the identification information to obtain object information corresponding to the object (S94) and displays the generated area information and object information on the display screen (S95).

한편, 영역 정보 및 식별 정보를 생성하는 단계(S93)에서 객체의 식별 정보가 생성되지 않는 경우, 본 발명의 객체 정보 표시 방법은, 사용자의 피드백에 기반하여 인공 신경망(620)을 갱신하는 단계를 수행할 수 있다. Meanwhile, if the identification information of the object is not generated in the step of generating area information and identification information (S93), the object information display method of the present invention includes the step of updating the artificial neural network 620 based on the user's feedback. It can be done.

다시 말해, 영역 정보 및 식별 정보를 생성하는 단계(S93)에서 객체의 식별 정보가 생성되지 않는 경우, 단말(200)은 피드백 학습 데이터를 생성(S96)함으로써 인공 신경망을 갱신할 수 있다.In other words, if the identification information of the object is not generated in the step of generating area information and identification information (S93), the terminal 200 can update the artificial neural network by generating feedback learning data (S96).

영역 정보 및 식별 정보를 생성하는 단계(S93)에서 객체의 식별 정보가 생성되지 않는 경우는 객체가 인식 불가인 상태를 의미하므로, 본 발명의 객체 정보 표시 방법은 이 때의 영상 정보를 바탕으로 학습 데이터를 생성하고, 생성된 피드백 학습 데이터로 인공 신경망을 학습시키는 과정을 더 포함한다.If no object identification information is generated in the step of generating area information and identification information (S93), it means that the object is unrecognizable. Therefore, the object information display method of the present invention learns based on the image information at this time. It further includes the process of generating data and training an artificial neural network with the generated feedback learning data.

인공 신경망을 갱신하는 단계는, 영상 상에서 객체에 해당하는 영역을 설정하는 사용자 입력 및 객체의 식별 정보에 대한 사용자 입력을 획득하는 단계와, 객체에 해당하는 영역을 참조하여 객체의 이미지 및 객체의 깊이 이미지 중 적어도 하나를 포함하는 피드백 학습 데이터를 생성하는 단계와, 피드백 학습 데이터가 추가된 학습 데이터에 기반하여 서버(100)가 인공 신경망을 학습하도록 하는 요청을 상기 서버(100)에 전송하는 단계를 포함할 수 있다.The step of updating the artificial neural network includes obtaining a user input for setting an area corresponding to the object on the image and a user input for identification information of the object, and obtaining an image of the object and the depth of the object by referring to the area corresponding to the object. Generating feedback learning data including at least one of the images, and transmitting to the server 100 a request for the server 100 to learn an artificial neural network based on the learning data to which the feedback learning data is added. It can be included.

본 발명의 객체 정보 표시 방법 및 시스템에 따르면, 사용자의 피드백에 기반하여 인공 신경망을 갱신하는 기술을 도입함으로써, 양질의 학습 데이터를 확보할 수 있을 뿐 아니라 본 발명의 객체 정보 표시 시스템을 이용할수록 시스템의 정확도가 높아지는 이점을 가진다. According to the object information display method and system of the present invention, by introducing technology to update the artificial neural network based on user feedback, not only can high-quality learning data be secured, but the more the object information display system of the present invention is used, the more the system It has the advantage of increasing accuracy.

이상 설명된 본 발명에 따른 비-접촉식 장치 제어 방법의 다양한 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. Various embodiments of the non-contact device control method according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such computer program may be stored in a computer-readable medium. can be recorded

이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 나아가, 매체는 네트워크 상에서 전송 가능한 형태로 구현되는 무형의 매체를 포함할 수 있으며, 예를 들어 소프트웨어 또는 애플리케이션 형태로 구현되어 네트워크를 통해 전송 및 유통이 가능한 형태의 매체일 수도 있다.At this time, the media includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROM. , RAM, flash memory, etc., may include hardware devices specifically configured to store and execute program instructions. Furthermore, the medium may include intangible media implemented in a form that can be transmitted over a network. For example, it may be a form of media implemented in the form of software or an application that can be transmitted and distributed over a network.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

1000 … 객체 정보 표시 시스템
100 … 서버
200 … 단말
210 … 객체 정보 표시 장치
211 … 통신부
212 … 제어부
213 … 영상 획득부
214 … 깊이 정보 획득부
215 … 디스플레이부
216 … 메모리
300 … 통신망
510 … 3차원 모델
520 … 2차원 이미지
610 … 학습 데이터
620 … 인공 신경망
630 … 입력 데이터
640 … 출력 데이터
1000 … Object information display system
100 … server
200 … terminal
210 … object information display device
211 … Ministry of Communications
212 … control unit
213 … video acquisition department
214 … Depth information acquisition unit
215 … display part
216 … Memory
300... communications network
510 … 3d model
520 … two-dimensional image
610 … training data
620 … artificial neural network
630 … input data
640 … output data

Claims (12)

영상 내 객체를 인식하고 인식된 객체의 객체 정보를 상기 영상 상에 표시하는 방법에 있어서,
적어도 하나의 객체를 포함하는 영상을 획득하는 단계로써, 상기 영상은 상기 객체에 대한 영상 및 상기 객체에 대한 깊이 영상을 포함하는 단계;
학습된 인공 신경망을 이용하여, 상기 객체에 대한 영상 및 상기 객체에 대한 깊이 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 객체의 식별 정보를 생성하는 단계;
상기 식별 정보를 참조하여 상기 객체에 대응되는 객체 정보를 획득하는 단계; 및
상기 영상 상에 상기 영역 정보 및 상기 객체 정보를 표시하는 단계; 를 포함하고,
상기 학습된 인공 신경망은, 객체의 이미지, 객체에 대한 깊이 이미지, 객체의 이미지 상에서 상기 객체에 상응하는 영역 정보 및 객체의 식별 정보 간의 상관관계를 학습한 신경망이고,
상기 객체 정보는, 상기 영상 내의 객체와 관련된 설명을 포함하는 정보인, 객체 정보 표시 방법.
In a method of recognizing an object in an image and displaying object information of the recognized object on the image,
Obtaining an image including at least one object, the image including an image for the object and a depth image for the object;
Using a learned artificial neural network, generating area information corresponding to the object and identification information of the object from an image of the object and a depth image of the object;
Obtaining object information corresponding to the object by referring to the identification information; and
displaying the area information and the object information on the image; Including,
The learned artificial neural network is a neural network that learned the correlation between the image of the object, the depth image of the object, the area information corresponding to the object on the image of the object, and the identification information of the object,
The object information is information containing a description related to the object in the image, How to display object information.
제1 항에 있어서,
상기 객체 정보 표시 방법은 상기 영상을 획득하는 단계 이전에,
서버로부터 상기 학습된 인공 신경망을 수신하는 단계; 를 더 포함하고,
상기 학습된 인공 신경망을 수신하는 단계는, 상기 학습된 인공 신경망을 구성하는 적어도 하나의 파라미터를 수신하는 단계; 를 포함하는, 객체 정보 표시 방법.
According to claim 1,
The method for displaying object information prior to acquiring the image,
Receiving the learned artificial neural network from a server; It further includes,
Receiving the learned artificial neural network may include receiving at least one parameter constituting the learned artificial neural network; A method of displaying object information, including.
제2 항에 있어서,
상기 서버는,
객체의 3차원 모델로부터 학습 데이터를 생성하고,
상기 학습 데이터를 이용하여 상기 인공 신경망을 학습하는, 객체 정보 표시 방법.
According to clause 2,
The server is,
Generate learning data from a 3D model of the object,
A method for displaying object information, learning the artificial neural network using the learning data.
제3 항에 있어서,
상기 서버는 상기 학습 데이터를 생성함에 있어서,
상기 객체의 3차원 모델을 제1 방향에서 촬영한 제1 이미지를 생성하고,
상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보를 생성하고,
상기 제1 이미지, 상기 제1 영역 정보 및 상기 객체의 식별 정보를 포함하는 제1 학습 데이터를 생성하고,
상기 인공 신경망은 상기 제1 학습 데이터에 기반하여, 상기 제1 학습 데이터에 포함되는 상기 제1 이미지, 상기 제1 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망인, 객체 정보 표시 방법.
According to clause 3,
When the server generates the learning data,
Generating a first image of a three-dimensional model of the object taken in a first direction,
Generating first area information indicating an area corresponding to the object in the first image,
Generating first learning data including the first image, the first region information, and identification information of the object,
The artificial neural network is a neural network that learns the correlation between the first image, the first region information, and the identification information included in the first learning data, based on the first learning data.
제4 항에 있어서,
상기 서버는 상기 객체의 3차원 모델을 상기 제1 방향과 상이한 제2 방향에서 촬영한 제2 이미지, 상기 제2 이미지 상에서 상기 객체에 해당하는 제2 영역 정보 및 상기 객체의 식별 정보를 포함하는 제2 학습 데이터를 생성하고,
상기 인공 신경망은 상기 제1 학습 데이터 및 상기 제2 학습 데이터를 포함하는 학습 데이터에 기반하여 학습되는 신경망인, 객체 정보 표시 방법.
According to clause 4,
The server includes a second image of the three-dimensional model of the object in a second direction different from the first direction, second area information corresponding to the object on the second image, and identification information of the object. 2 Generate training data,
The artificial neural network is a neural network learned based on learning data including the first learning data and the second learning data.
제4 항에 있어서,
상기 서버는 상기 학습 데이터를 생성함에 있어서,
상기 객체의 3차원 모델을 상기 제1 방향에서 촬영한 제1 깊이 이미지를 생성하고,
상기 제1 학습 데이터는 상기 제1 깊이 이미지를 더 포함하고,
상기 인공 신경망은 상기 제1 학습 데이터에 기반하여, 상기 제1 이미지, 상기 제1 깊이 이미지, 상기 제1 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망인, 객체 정보 표시 방법.
According to clause 4,
When the server generates the learning data,
Generate a first depth image by photographing the three-dimensional model of the object in the first direction,
The first learning data further includes the first depth image,
The artificial neural network is a neural network that learns the correlation between the first image, the first depth image, the first region information, and the identification information based on the first learning data.
제4 항에 있어서,
상기 서버는 상기 학습 데이터를 생성함에 있어서,
상기 제1 이미지의 적어도 하나의 파라미터를 조절한 제3 이미지를 생성하고, 상기 적어도 하나의 파라미터는 이미지의 조도, 명암, 대비 및 선명도 중 적어도 하나를 포함하고,
상기 제3 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제3 영역 정보를 생성하고,
상기 제3 이미지, 상기 제3 영역 정보 및 상기 객체의 식별 정보를 포함하는 제3 학습 데이터를 생성하고,
상기 인공 신경망은 상기 제3 학습 데이터에 기반하여, 상기 제3 학습 데이터에 포함되는 상기 제3 이미지, 상기 제3 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망인, 객체 정보 표시 방법.
According to clause 4,
When the server generates the learning data,
Generating a third image by adjusting at least one parameter of the first image, wherein the at least one parameter includes at least one of illuminance, brightness, contrast, and sharpness of the image,
Generating third area information indicating an area corresponding to the object in the third image,
Generating third learning data including the third image, the third region information, and identification information of the object,
The artificial neural network is a neural network that learns the correlation between the third image, the third region information, and the identification information included in the third learning data, based on the third learning data.
삭제delete 제1 항에 있어서,
상기 영역 정보 및 상기 식별 정보를 생성하는 단계에서 상기 객체의 식별 정보가 생성되지 않는 경우,
상기 객체 정보 표시 방법은,
사용자의 피드백에 기반하여 상기 인공 신경망을 갱신하는 단계; 를 더 포함하는, 객체 정보 표시 방법.
According to claim 1,
If the identification information of the object is not generated in the step of generating the area information and the identification information,
The object information display method is,
updating the artificial neural network based on user feedback; A method for displaying object information, further comprising:
제9 항에 있어서,
상기 인공 신경망을 갱신하는 단계는,
상기 영상 상에서 상기 객체에 해당하는 영역을 설정하는 사용자 입력 및 상기 객체의 식별 정보에 대한 상기 사용자 입력을 획득하는 단계;
상기 객체에 해당하는 영역을 참조하여, 상기 객체의 이미지 및 상기 객체의 깊이 이미지 중 적어도 하나를 포함하는 피드백 학습 데이터를 생성하는 단계; 및
상기 피드백 학습 데이터가 추가된 학습 데이터에 기반하여 상기 인공 신경망을 학습하도록 하는 요청을 서버에 전송하는 단계; 를 더 포함하는, 객체 정보 표시 방법.
According to clause 9,
The step of updating the artificial neural network is,
Obtaining a user input for setting an area corresponding to the object on the image and the user input for identification information of the object;
Referring to the area corresponding to the object, generating feedback learning data including at least one of an image of the object and a depth image of the object; and
transmitting a request to a server to learn the artificial neural network based on the learning data to which the feedback learning data is added; A method for displaying object information, further comprising:
제1 항에 있어서,
상기 객체 정보를 표시하는 단계는,
상기 영상 상에 상기 객체에 대응되는 영역을 표시하는 제1 표시 개체를 표시하는 단계로써, 상기 제1 표시 개체는 상기 객체의 윤곽선의 적어도 일부를 따르는 선을 포함하고; 및
상기 객체 정보를 표시하는 제2 표시 개체를 상기 제1 표시 개체에 인접하여 표시하는 단계; 를 포함하는, 객체 정보 표시 방법.
According to claim 1,
The step of displaying the object information is,
displaying a first display object that displays an area corresponding to the object on the image, wherein the first display object includes a line following at least a portion of an outline of the object; and
displaying a second display object displaying the object information adjacent to the first display object; A method of displaying object information, including.
영상 내 객체를 인식하고 인식된 객체의 객체 정보를 상기 영상 상에 표시하는 시스템에 있어서,
객체의 3차원 모델을 제1 방향에서 촬영한 제1 이미지, 상기 객체의 3차원 모델을 상기 제1 방향에서 촬영한 제1 깊이 이미지, 상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보 및 상기 객체의 식별 정보를 포함하는 학습 데이터를 생성하고, 상기 학습 데이터를 이용하여 인공 신경망을 학습하는 서버; 및
적어도 하나의 객체를 포함하는 영상을 획득하고, 상기 영상은 상기 객체에 대한 영상 및 상기 객체에 대한 깊이 영상을 포함하고, 학습된 인공 신경망을 이용하여 상기 객체에 대한 영상 및 상기 객체에 대한 깊이 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 객체의 식별 정보를 생성하고, 상기 식별 정보를 참조하여 상기 영상 상에 상기 영역 정보 및 상기 객체 정보를 표시하는 단말; 을 포함하고,
상기 객체 정보는, 상기 영상 내의 객체와 관련된 설명을 포함하는 정보인, 객체 정보 표시 시스템.
In a system that recognizes an object in an image and displays object information of the recognized object on the image,
A first image in which a 3D model of an object is photographed in a first direction, a first depth image in which a 3D model of the object is photographed in a first direction, and a first image representing an area corresponding to the object in the first image. a server that generates training data including region information and identification information of the object, and trains an artificial neural network using the training data; and
Obtain an image including at least one object, the image includes an image for the object and a depth image for the object, and obtain an image for the object and a depth image for the object using a learned artificial neural network. a terminal that generates area information corresponding to the object and identification information of the object, and displays the area information and object information on the image with reference to the identification information; Including,
The object information is information including a description related to the object in the image.
KR1020210018004A 2021-02-09 2021-02-09 The method and the system of displaying the object information using machine learning and augmented reality(AR) technology KR102643766B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210018004A KR102643766B1 (en) 2021-02-09 2021-02-09 The method and the system of displaying the object information using machine learning and augmented reality(AR) technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210018004A KR102643766B1 (en) 2021-02-09 2021-02-09 The method and the system of displaying the object information using machine learning and augmented reality(AR) technology

Publications (2)

Publication Number Publication Date
KR20220114691A KR20220114691A (en) 2022-08-17
KR102643766B1 true KR102643766B1 (en) 2024-03-06

Family

ID=83110472

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210018004A KR102643766B1 (en) 2021-02-09 2021-02-09 The method and the system of displaying the object information using machine learning and augmented reality(AR) technology

Country Status (1)

Country Link
KR (1) KR102643766B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101960900B1 (en) * 2018-10-12 2019-03-21 주식회사 에스피씨네트웍스 Method for recognizing products
KR102186821B1 (en) * 2019-06-25 2020-12-04 티팟스튜디오 주식회사 Method for providing ar information based on 3d object recognition using deep learning and system using the same
KR102206108B1 (en) * 2019-09-20 2021-01-21 광운대학교 산학협력단 A point cloud registration method based on RGB-D camera for shooting volumetric objects

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101195446B1 (en) 2012-01-26 2012-12-24 이에스이 주식회사 A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same
KR102345333B1 (en) * 2017-12-28 2021-12-29 엘에스일렉트릭(주) Device and method for providing augmented reality user interface
KR102171691B1 (en) * 2019-03-04 2020-10-29 인하대학교 산학협력단 3d printer maintain method and system with augmented reality

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101960900B1 (en) * 2018-10-12 2019-03-21 주식회사 에스피씨네트웍스 Method for recognizing products
KR102186821B1 (en) * 2019-06-25 2020-12-04 티팟스튜디오 주식회사 Method for providing ar information based on 3d object recognition using deep learning and system using the same
KR102206108B1 (en) * 2019-09-20 2021-01-21 광운대학교 산학협력단 A point cloud registration method based on RGB-D camera for shooting volumetric objects

Also Published As

Publication number Publication date
KR20220114691A (en) 2022-08-17

Similar Documents

Publication Publication Date Title
CN113039563B (en) Learning to generate synthetic data sets for training neural networks
CN109816589B (en) Method and apparatus for generating cartoon style conversion model
CN105103542B (en) Handheld portable optical scanner and the method used
CN108764187A (en) Extract method, apparatus, equipment, storage medium and the acquisition entity of lane line
WO2022165809A1 (en) Method and apparatus for training deep learning model
JP6719497B2 (en) Image generation method, image generation device, and image generation system
KR20210086973A (en) System and method enabling a collaborative 3d map data fusion platform and virtual world system thereof
CN108596193B (en) Method and system for building deep learning network structure aiming at human ear recognition
US20210089760A1 (en) Facial expression image processing method and apparatus
JP2018163554A (en) Image processing device, image processing method, image processing program, and teacher data generating method
JP7263216B2 (en) Object Shape Regression Using Wasserstein Distance
US11830103B2 (en) Method, apparatus, and computer program product for training a signature encoding module and a query processing module using augmented data
US11900662B2 (en) Method, apparatus, and computer program product for training a signature encoding module and a query processing module to identify objects of interest within an image utilizing digital signatures
US20190279011A1 (en) Data anonymization using neural networks
CN114549369B (en) Data restoration method and device, computer and readable storage medium
CN112037142A (en) Image denoising method and device, computer and readable storage medium
KR102338984B1 (en) System for providing 3D model augmented reality service using AI and method thereof
CN114549291A (en) Image processing method, device, equipment and storage medium
CN114170290A (en) Image processing method and related equipment
KR102643766B1 (en) The method and the system of displaying the object information using machine learning and augmented reality(AR) technology
CN117252947A (en) Image processing method, image processing apparatus, computer, storage medium, and program product
US11403491B2 (en) Object recognition from images using cad models as prior
KR20190114602A (en) Apparatus for performing virtual fitting using multi-level artificial neural network, method thereof and computer recordable medium storing program to perform the method
EP4016471A1 (en) Method, apparatus, and computer program product for identifying objects of interest within an image captured by a relocatable image capture device
KR102605429B1 (en) Method for display augmented reality image

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right