KR20230053279A - Method for providing a meta data curation guide based on sensor information and a computer program recorded on a recording medium for executing the same - Google Patents

Method for providing a meta data curation guide based on sensor information and a computer program recorded on a recording medium for executing the same Download PDF

Info

Publication number
KR20230053279A
KR20230053279A KR1020210136625A KR20210136625A KR20230053279A KR 20230053279 A KR20230053279 A KR 20230053279A KR 1020210136625 A KR1020210136625 A KR 1020210136625A KR 20210136625 A KR20210136625 A KR 20210136625A KR 20230053279 A KR20230053279 A KR 20230053279A
Authority
KR
South Korea
Prior art keywords
information
image
images
annotation
metadata
Prior art date
Application number
KR1020210136625A
Other languages
Korean (ko)
Inventor
노성운
오승진
Original Assignee
주식회사 인피닉
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인피닉 filed Critical 주식회사 인피닉
Priority to KR1020210136625A priority Critical patent/KR20230053279A/en
Publication of KR20230053279A publication Critical patent/KR20230053279A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

Disclosed is a data refinement method of a collection device of artificial intelligence (AI) machine learning data. The method may comprise: a step of collecting, by an annotation device, a plurality of images for an object, which is a target of annotation work for AI learning; a step of acquiring, by the annotation device, filming time information of the collected images; a step of comparing, by the annotation device, environment information for the plurality of images based on the filming time information of the images; and a step of determining, by the annotation device, a change in the environment information of the plurality of images. Accordingly, the present invention can generate metadata for the images with the changed environment information, and curation guidance, thereby improving the convenience of a curation process.

Description

센서정보를 기초로 하는 메타테이터 큐레이션 가이드 제공 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램{Method for providing a meta data curation guide based on sensor information and a computer program recorded on a recording medium for executing the same}Method for providing a meta data curation guide based on sensor information and a computer program recorded on a recording medium for executing the meta data curation guide based on sensor information same}

본 발명은 인공지능(Artificial Intelligence, AI) 학습용 데이터의 가공에 관한 것이다. 보다 상세하게는, 센서정보를 기초로 하는 메타테이터 큐레이션 가이드 제공 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램에 관한 것이다.The present invention relates to the processing of artificial intelligence (AI) learning data. More specifically, it relates to a method for providing a metadata curation guide based on sensor information and a computer program recorded on a recording medium to execute the method.

인공지능(AI)은 인간의 학습능력, 추론능력 및 지각능력 등의 일부 또는 전부를 컴퓨터 프로그램을 이용하여 인공적으로 구현하는 기술을 의미한다. 인공지능(AI)과 관련하여, 기계 학습(machine learning)은 다수의 파라미터로 구성된 모델을 이용하여 주어진 데이터로 파라미터를 최적화하는 학습을 의미한다. 이와 같은, 기계 학습은 학습용 데이터의 형태에서 따라, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 및 강화 학습(reinforcement learning)으로 구분된다.Artificial intelligence (AI) refers to a technology that artificially implements some or all of human learning abilities, reasoning abilities, and perception abilities using computer programs. In relation to artificial intelligence (AI), machine learning refers to learning to optimize parameters with given data using a model composed of multiple parameters. Such machine learning is classified into supervised learning, unsupervised learning, and reinforcement learning according to the form of learning data.

일반적으로, 인공지능(AI) 학습용 데이터의 설계는 데이터 구조의 설계, 데이터의 수집, 데이터의 정제, 데이터의 가공, 데이터의 확장 및 데이터의 검증 단계로 진행된다.In general, designing data for artificial intelligence (AI) learning proceeds in the steps of data structure design, data collection, data refinement, data processing, data expansion, and data verification.

각각의 단계에서 대하여 보다 구체적으로 설명하면, 데이터 구조의 설계는 온톨로지(ontology) 정의, 분류 체계의 정의 등을 통해 이루어진다. 데이터의 수집은 직접 촬영, 웹 크롤링(web crawling) 또는 협회/전문 단체 등을 통해 데이터를 수집하여 이루어진다. 데이터 정제는 수집된 데이터 내에서 중복 데이터를 제거하고, 개인 정보 등을 비식별화하여 이루어진다. 데이터의 가공은 어노테이션(annotation)을 수행하고, 메타데이터(metadata)를 입력하여 이루어진다. 데이터의 확장은 온톨로지 매핑(mapping)을 수행하고, 필요에 따라 온톨로지를 보완하거나 확장하여 이루어진다. 그리고, 데이터의 검증은 다양한 검증 도구를 활용하여 설정된 목표 품질에 따른 유효성을 검증하여 이루어진다.To describe each step in more detail, data structure design is performed through ontology definition, classification system definition, and the like. Data collection is performed by collecting data through direct filming, web crawling, or associations/professional organizations. Data purification is performed by removing redundant data from collected data and de-identifying personal information. Data processing is performed by performing annotation and inputting metadata. Data extension is performed by performing ontology mapping and supplementing or extending the ontology as needed. In addition, data verification is performed by verifying validity according to the set target quality using various verification tools.

데이터 가공은 데이터 라벨링(data labeling)이라 지칭되기도 한다. 보다 구체적으로, 데이터 가공의 어노테이션 작업은 작업자가 이미지 속에 포함된 객체에 대하여 바운딩 박스(bounding box) 처리하여 진행된다. 여기서, 바운딩 박스는 이미지 속에 포함된 객체의 위치, 형상 등을 특정하기 위한 영역이다. Data processing is also referred to as data labeling. More specifically, the annotation work of data processing is performed by a worker processing a bounding box for an object included in an image. Here, the bounding box is an area for specifying the position and shape of an object included in the image.

그리고, 데이터 가공의 메타데이터 입력 작업은 작업자가 이미지의 정보, 저작권 정보, 촬영 조건 정보, 어노테이션된 객체의 정보 및 환경 정보 등을 입력하여 진행된다. 예를 들어, 이미지의 정보에는 파일명, 파일 크기 및 이미지 크기가 포함될 수 있다. 저작권 정보에는 이미지 저작권자에 관한 정보가 포함될 수 있다. 촬영 조건 정보에는 해상도, 비트 값, 조리개 투과량, 노출 시간, ISO 감도, 초점 거리, 조리개 개방 수치, 화각, 화이트 밸런스, RGB 깊이가 포함될 수 있다. 객체의 정보에는 어노테이션 종류, 좌표 값, 영역의 크기, 클래스 명, 태그 항목, 잘림 여부, 대분류, 중분류, 소분류, 인스턴스 정보가 포함될 수 있다. 그리고, 환경 정보에는 촬영 일시, 촬영 장소, 기상 정보가 포함될 수 있다.In addition, the metadata input operation of data processing is performed by a worker inputting image information, copyright information, shooting condition information, annotated object information, environment information, and the like. For example, image information may include a file name, file size, and image size. Copyright information may include information about the copyright holder of the image. The photographing condition information may include resolution, bit value, aperture transmittance, exposure time, ISO sensitivity, focal length, aperture value, angle of view, white balance, and RGB depth. Object information may include annotation type, coordinate value, area size, class name, tag item, clipping, major classification, middle classification, small classification, and instance information. In addition, the environment information may include a shooting date and time, a shooting location, and weather information.

이러한, 데이터 가공의 메타데이터 입력 과정에서 입력될 수 있는 정보의 개수와 종류는 인공지능(AI) 학습 목적에 따라 달라질 수 있다. 예를 들어, 자율주행(automatic driving)을 수행하기 위한 인공지능(AI) 학습용 데이터의 경우, 환경 정보에 이미지가 촬영된 도로의 유형, 도로 표면 정보, 교통 체증(traffic congestion) 정보 등이 더 포함될 수 있다. The number and type of information that can be input in the metadata input process of data processing may vary depending on the purpose of artificial intelligence (AI) learning. For example, in the case of artificial intelligence (AI) learning data for performing automatic driving, environment information may further include the type of road on which an image is captured, road surface information, traffic congestion information, and the like. can

상술한 바와 같은, 데이터 가공은 적게는 몇 천개에서, 많게는 수 백만개에 이르는 많은 수의 데이터를 대상으로 이루어진다. 따라서, 많은 수의 데이터를 보다 용이하게 가공하고, 가공된 데이터를 보다 용이하게 검증할 수 있는 다양한 수단들이 요구되고 있다. As described above, data processing is performed on a large number of data ranging from a few thousand to several million. Accordingly, various means capable of more easily processing a large number of data and more easily verifying the processed data are required.

학습 데이터 수집 장치를 통해 수집된 raw data를 데이터 수집 서버는 수많은 raw data에 비식별화, 중복 데이터 제거 등을 수행한 후 어노테이션 서버에 제공함. 어노테이션 서버는 데이터 수집 서버로부터 받은 primitive data를 수많은 labeler(annotator)에 제공하여 annotation 수행 및 meta data를 입력한다.The raw data collected through the learning data collection device is provided to the annotation server after the data collection server performs de-identification and duplicate data removal on numerous raw data. The annotation server provides primitive data received from the data collection server to numerous labelers (annotators) to perform annotation and input meta data.

학습 데이터 수집 장치로 수집된 raw data는 일반적으로 시계열적으로 연속하여 수집된 데이터로 촬영 환경에 극히 유사한 경우가 많기 때문에 labeler가 meta data를 입력하는 과정(즉, curation)에서 간단한 가이드만 제공해도 큐레이션 과정의 편의성은 크게 향상될 수 있다.Since the raw data collected by the learning data collection device is generally data collected continuously in time series and is very similar to the shooting environment in many cases, even if the labeler provides a simple guide in the process of entering meta data (i.e., curation), the queue The convenience of the simulation process can be greatly improved.

대한민국 공개특허공보 제10-2020-0042629호, ‘인공지능 학습을 위한 모바일 기기의 터치 기반 어노테이션과 이미지 생성 방법 및 그 장치’, (2020.04.24. 공개)Korean Patent Laid-open Publication No. 10-2020-0042629, ‘Method and apparatus for generating touch-based annotations and images in mobile devices for artificial intelligence learning’, (published on April 24, 2020)

본 발명의 일 목적은 센서정보를 기초로 하는 메타테이터 큐레이션 가이드 제공 방법을 제공하는 것이다.One object of the present invention is to provide a method for providing a metadata curation guide based on sensor information.

본 발명의 다른 목적은 메타데이터를 자동으로 부여할 수 있는 방법을 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램을 제공하는 것이다.Another object of the present invention is to provide a computer program recorded on a recording medium to execute a method capable of automatically adding metadata.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 센서정보를 기초로 하는 메타테이터 큐레이션 가이드 제공 방법을 제안한다. 상기 방법은 어노테이션 장치가, 인공지능(Artificial Intelligence, AI) 학습을 위한 어노테이션(annotation) 작업의 대상이 되는 객체에 대한 복수 개의 이미지를 수집하는 단계; 상기 어노테이션 장치가, 상기 수집된 이미지의 촬영 시점 정보를 획득하는 단계; 상기 어노테이션 장치가, 상기 이미지의 촬영 시점 정보를 기초로 상기 복수개의 이미지에 대한 환경 정보(environment information)를 비교하는 단계; 및 상기 어노테이션 장치가, 상기 복수 개의 이미지의 환경 정보의 변화를 판단하는 단계;를 포함할 수 있다.In order to achieve the technical problem as described above, the present invention proposes a method for providing a metadata curation guide based on sensor information. The method includes the steps of, by an annotation device, collecting a plurality of images of an object to be annotated for artificial intelligence (AI) learning; obtaining, by the annotation device, photographing time point information of the collected images; Comparing, by the annotation device, environment information of the plurality of images based on photographing time information of the images; and determining, by the annotation device, a change in environment information of the plurality of images.

여기서, 상기 복수 개의 이미지는, 시계열적을 연속하여 수집된 이미지일 수 있으며, 상기 촬영 시점 정보는, 차량 light를 제어하는 조도 센서, camera의 촬영 설정 값, 차량의 rain sensor 중 적어도 하나를 통해 수집한 정보를 포함할 수 있다.Here, the plurality of images may be images continuously collected in time series, and the photographing time information is collected through at least one of an illuminance sensor for controlling a vehicle light, a photographing setting value of a camera, and a rain sensor of the vehicle. information may be included.

또한, 상기 환경 정보의 변화를 판단하는 단계는, 상기 조도 센서에 의해 차량의 light가 점등 또는 소등되는 시점, 밤/낮의 변화 시점, 터널 진입 시점 중 어느 하나를 포함하여 판단할 수 있다.In addition, the step of determining the change of the environment information may include any one of a time point when the light of the vehicle is turned on or off by the illuminance sensor, a time point at night/day change, and a time point entering a tunnel.

상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 상술한 바와 같은 가공 방법을 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램을 제안한다. 상기 프로그램은 메모리(memory); 송수신기(transceiver); 및 상기 메모리에 상주된 명령어를 처리하는 프로세서(processor)를 포함하여 구성된 컴퓨팅 장치와 결합될 수 있다. 그리고, 상기 컴퓨터 프로그램은 상기 프로세서가, 어노테이션 장치가, 인공지능(Artificial Intelligence, AI) 학습을 위한 어노테이션(annotation) 작업의 대상이 되는 객체에 대한 복수 개의 이미지를 수집하는 단계; 상기 프로세서가, 상기 수집된 이미지의 촬영 시점 정보를 획득하는 단계; 상기 프로세서가, 상기 이미지의 촬영 시점 정보를 기초로 상기 복수개의 이미지에 대한 환경 정보(environment information)를 비교하는 단계; 및 상기 프로세서가, 상기 복수 개의 이미지의 환경 정보의 변화를 판단하는 단계;를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.In order to achieve the technical problem as described above, the present invention proposes a computer program recorded on a recording medium to execute the processing method as described above. The program may include a memory; transceiver; and a processor configured to process instructions resident in the memory. In addition, the computer program may include: collecting, by the processor, an annotation device, a plurality of images of an object to be annotated for artificial intelligence (AI) learning; obtaining, by the processor, photographing time point information of the collected image; comparing, by the processor, environment information of the plurality of images based on photographing time information of the images; It may be a computer program recorded on a recording medium to execute; and determining, by the processor, a change in environmental information of the plurality of images.

기타 실시 예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.

종래의 수단들에 따르면, 인공지능(AI)을 학습시키고자 하는 고객으로부터 인공지능(AI) 학습용 데이터가 요청되면, 그 이후에 데이터 구조의 설계, 데이터의 수집, 데이터의 정제, 데이터의 가공, 데이터의 확장 및 데이터의 검증을 수행하고, 수행된 결과물을 기초로 인공지능(AI) 학습용 데이터를 생성하여 고객에게 납품하기까지 상대적으로 오랜 기간이 소요되었다. According to conventional means, when AI learning data is requested from a customer who wants to learn AI, after that, data structure design, data collection, data refinement, data processing, It took a relatively long time to expand data, verify data, generate artificial intelligence (AI) learning data based on the results, and deliver it to customers.

이와 대비하여, 본 발명의 실시예들에 따르면, 인공지능(AI)을 학습시키고자 하는 고객의 니즈(needs)에 대응하여 사전에 구축해 놓은 빅데이터를 단순히 마이닝 또는 필터링하여 인공지능(AI) 학습용 데이터를 생성하고, 생성된 인공지능(AI) 학습용 데이터를 곧바로 납품함으로써, 인공지능(AI) 학습용 데이터를 생성하여 납품하기까지 소요되는 기간을 크게 단축시킬 수 있다.In contrast, according to the embodiments of the present invention, big data built in advance in response to the needs of customers who want to learn artificial intelligence (AI) is simply mined or filtered for artificial intelligence (AI) learning. By generating data and immediately delivering the generated AI learning data, the period required to generate and deliver AI learning data can be greatly shortened.

특히, 본 발명은 데이터 수집 서버로 어노테이션 서버에 primitive data를 제공하기에 앞서, primitive data가 비롯된 raw data의 촬영 환경이 변화되는 시점에 관한 정보를 제공할 수 있으므로 labeler는 raw data의 촬영 환경이 변화된 시점에만 높은 집중도로 큐레이션을을 수행할 수 있는 효과가 있다.In particular, the present invention is a data collection server, prior to providing primitive data to the annotation server, since it can provide information about the point in time when the shooting environment of raw data, including primitive data, is changed, the labeler detects that the shooting environment of raw data has changed. There is an effect of performing curation with high concentration only on the viewpoint.

본 발명의 효과들은 이상에서 언급한 효과로 제한되지 아니하며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 본 발명이 속한 기술분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in this specification should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in this specification, and are overly inclusive. It should not be interpreted in a positive sense or in an excessively reduced sense. In addition, when the technical terms used in this specification are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that those skilled in the art can correctly understand. In addition, general terms used in the present invention should be interpreted as defined in advance or according to context, and should not be interpreted in an excessively reduced sense.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in this specification include plural expressions unless the context clearly indicates otherwise. In this application, terms such as "consisting of" or "having" should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or steps are included. It should be construed that it may not be, or may further include additional components or steps.

또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Also, terms including ordinal numbers such as first and second used in this specification may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. On the other hand, when a component is referred to as “directly connected” or “directly connected” to another component, it should be understood that no other component exists in the middle.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다. 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings. The spirit of the present invention should be construed as extending to all changes, equivalents or substitutes other than the accompanying drawings.

인공지능(AI) 학습용 데이터를 생성하기 위한 이미지의 가공은 적게는 몇 천개에서, 많게는 수 백만개에 이르는 많은 수의 이미지를 대상으로 이루어진다. 따라서, 종래의 수단들에 따르면, 인공지능(AI)을 학습시키고자 하는 고객의 의뢰가 접수된 이후 인공지능(AI) 학습용 데이터를 생성하여 고객에게 납품하기까지 상대적으로 오랜 기간이 소요되었다.Processing of images to create data for artificial intelligence (AI) learning is performed on a large number of images ranging from a few thousand to several million. Therefore, according to the conventional means, it took a relatively long time to generate AI learning data and deliver it to the customer after receiving the customer's request to learn artificial intelligence (AI).

이러한 어려움을 해결하고자, 본 발명은 많은 수의 이미지를 보다 용이하게 가공하고, 가공된 데이터를 보다 용이하게 검증할 수 있는 다양한 수단들을 제안하고자 한다.In order to solve these difficulties, the present invention intends to propose various means capable of more easily processing a large number of images and more easily verifying the processed data.

본 발명에 따른 학습 데이터 수집 장치는 차량에 적용되는 것을 기준으로 기술하지만, 차량에 설치되는 것에 한정되지 않으며, 인공지능 학습 데이터를 수집하기 위한 다양한 실시예를 포함하는 개념이다.The learning data collection device according to the present invention is described based on being applied to a vehicle, but is not limited to being installed in a vehicle, and is a concept including various embodiments for collecting artificial intelligence learning data.

본 발명의 일 실시예에 따른 인공지능 학습 시스템은 학습 데이터 생성 장치, 하나 이상의 어노테이션 장치, 학습 데이터 검증 장치 및 인공지능 학습 장치를 포함하여 구성될 수 있다. An artificial intelligence learning system according to an embodiment of the present invention may include a learning data generating device, one or more annotation devices, a learning data verification device, and an artificial intelligence learning device.

또한, 본 발명의 다른 실시예에 따른 인공지능 학습 시스템은 하나 이상의 어노테이션 장치와 학습 데이터 검증 장치가 하나로 이루어진 복수 개의 그룹(Group-a, Group-b …, Group-m), 학습 데이터 생성 장치 및 인공지능 학습 장치를 포함하여 구성될 수 있다.In addition, the artificial intelligence learning system according to another embodiment of the present invention includes a plurality of groups (Group-a, Group-b..., Group-m) consisting of one or more annotation devices and learning data verification devices, a learning data generating device and It may be configured to include an artificial intelligence learning device.

이와 같은, 다양한 실시예에 따른 인공지능 학습 시스템의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.Since the components of the artificial intelligence learning system according to various embodiments are merely functionally distinct elements, two or more components are integrated and implemented in the actual physical environment, or one component is implemented in the actual physical environment. may be implemented separately from each other.

각각의 구성 요소에 대하여 설명하면, 학습 데이터 생성 장치는 인공지능(AI) 학습용 데이터를 설계 및 생성하는데 사용될 수 있는 장치이다. 이와 같은, 학습 데이터 생성 장치는 기본적으로 학습 데이터 검증 장치와 구분되는 장치이나, 실제 물리적 환경에서 학습 데이터 생성 장치와 학습 데이터 검증 장치가 하나의 장치로 통합되어 구현될 수도 있다.The description of each component is a device that can be used to design and generate artificial intelligence (AI) learning data. The learning data generating device is basically a device that is distinguished from the learning data verifying device, but the learning data generating device and the learning data verifying device may be integrated into one device in an actual physical environment.

특징적으로, 본 발명의 일 실시예에 따른 학습 데이터 생성 장치는 인공지능 학습 장치로부터 인공지능(AI) 학습용 데이터의 요청이 수신되기 이전에, 선제적으로 인공지능(AI) 학습용 데이터를 생성할 수 있는 빅데이터(big data)를 구축해 놓을 수 있다.Characteristically, the learning data generating device according to an embodiment of the present invention may preemptively generate AI learning data before a request for AI learning data is received from the AI learning device. Big data can be built.

그리고, 학습 데이터 생성 장치는 인공지능 학습 장치로부터 고객의 니즈(needs)에 따른 요구 값이 수신되면, 선제적으로 구축되어 있는 빅데이터를 마이닝 또는 필터링하여 인공지능(AI) 학습용 데이터를 생성하고, 생성된 인공지능(AI) 학습용 데이터를 인공지능 학습 장치에 전송할 수 있다.In addition, the learning data generating device generates AI learning data by mining or filtering preemptively built big data when a request value according to the customer's needs is received from the artificial intelligence learning device, The generated artificial intelligence (AI) learning data may be transmitted to an artificial intelligence learning device.

이와 같은 특징을 가지는, 학습 데이터 생성 장치는 어노테이션 장치, 학습 데이터 검증 장치 및 인공지능 학습 장치와 데이터를 송수신하고, 송수신된 데이터를 기초로 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 학습 데이터 생성 장치는 데스크탑(desktop), 워크스테이션(workstation) 또는 서버(server)와 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으나, 이에 한정되는 것은 아니다.Any device capable of transmitting and receiving data to and from an annotation device, a learning data verification device, and an artificial intelligence learning device, and performing calculations based on the transmitted and received data may be used as the learning data generation device having such characteristics. . For example, the learning data generating device may be any one of a fixed computing device such as a desktop, workstation, or server, but is not limited thereto.

다음 구성으로, 어노테이션 장치는 학습 데이터 생성 장치에 의해 분배된 이미지에 대하여 어노테이션을 수행하는데 사용될 수 있는 장치이다. With the following configuration, the annotation device is a device that can be used to annotate images distributed by the learning data generating device.

특징적으로, 본 발명의 일 실시예에 따른 어노테이션 장치는 학습 데이터 생성 장치에 의해 분배된 각각의 이미지(즉, 어노테이션의 대상이 되는 이미지)로부터 특정된 객체(object)를 추적할 수 있는 트래킹 아이디(tracking identifier)를 부여할 수 있다. 또한, 어노테이션 장치는 학습 데이터 생성 장치에 의해 분배된 각각의 이미지에 대한 환경 정보(environment information)를 자동으로 부여할 수 있다.Characteristically, the annotation device according to an embodiment of the present invention has a tracking ID (tracking ID) capable of tracking a specified object from each image (ie, an image to be annotated) distributed by the learning data generating device. tracking identifier) can be assigned. In addition, the annotation device may automatically assign environment information to each image distributed by the learning data generating device.

이와 같은 특징을 가지는, 어노테이션 장치는 학습 데이터 생성 장치 및 학습 데이터 검증 장치와 데이터를 송수신하고, 송수신된 데이터를 기초로 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 어노테이션 장치는 데스크탑, 워크스테이션 또는 서버와 같은 고정식 컴퓨팅 장치, 또는 스마트폰(smart phone), 랩탑(laptaop), 태블릿(tablet), 패블릿(phablet), 휴대용 멀티미디어 재생장치(Portable Multimedia Player, PMP), 개인용 휴대 단말기(Personal Digital Assistants, PDA) 또는 전자책 단말기(E-book reader)과 같은 이동식 컴퓨팅 장치 중 어느 하나가 될 수 있다.Any device capable of transmitting/receiving data to and from the learning data generating device and the learning data verifying device and performing calculations based on the transmitted/received data may be used as the annotation device having such characteristics. For example, the annotation device may be a stationary computing device such as a desktop, workstation, or server, or a smartphone, laptop, tablet, phablet, or portable multimedia player. Player, PMP), personal digital assistants (PDA), or e-book reader (E-book reader), and may be any one of mobile computing devices.

또한, 어노테이션 장치의 전부 또는 일부는 어노테이션 작업자가 클라우딩 서비스(clouding service)를 통해 어노테이션을 수행하는 장치가 될 수도 있다.In addition, all or part of the annotation device may be a device in which an annotation worker performs annotation through a clouding service.

다음 구성으로, 학습 데이터 검증 장치는 인공지능(AI) 학습용 데이터를 검증하는데 사용될 수 있는 장치이다. 즉, 학습 데이터 검증 장치는 어노테이션 장치에 의해 생성된 어노테이션 작업 결과물이 사전에 설정된 목표 품질에 부합하는지 여부, 또는 어노테이션 작업 결과물이 인공지능(AI) 학습에 유효한지 여부를 검증할 수 있는 장치이다.With the following configuration, the learning data verification device is a device that can be used to verify artificial intelligence (AI) learning data. That is, the learning data verification device is a device capable of verifying whether the annotation job result generated by the annotation device meets a pre-set target quality or whether the annotation job result is valid for artificial intelligence (AI) learning.

구체적으로, 학습 데이터 검증 장치는 어노테이션 장치로부터 어노테이션 작업 결과물을 수신할 수 있다. 여기서, 어노테이션 작업 결과물은 어노테이션 작업자에 의해 특정된 객체의 좌표와, 이미지 또는 객체에 대한 메타데이터가 포함될 수 있다. 어노테이션 작업 결과물의 메타데이터는 이미지의 정보, 저작권 정보, 촬영 조건 정보, 특정된 객체의 정보 및 환경 정보가 포함될 수 있으며, 이에 한정되지 않는다. 이와 같은, 어노테이션 작업 결과물은 JSON(Java Script Object Notation) 파일 형식을 가질 수 있으나, 이에 한정되는 것은 아니다.Specifically, the training data verification device may receive an annotation job result from the annotation device. Here, the annotation work result may include coordinates of an object specified by an annotation worker and metadata about an image or object. The metadata of the annotation work result may include image information, copyright information, photographing condition information, specific object information, and environment information, but is not limited thereto. Such an annotation work result may have a JSON (Java Script Object Notation) file format, but is not limited thereto.

학습 데이터 검증 장치는 수신된 어노테이션 작업 결과물을 검수할 수 있다. 이를 위하여, 학습 데이터 검증 장치는 어노테이션 작업 결과물을 대상으로 스크립트(script)를 이용하여 검수를 수행할 수 있다. 여기서, 스크립트는 어노테이션 작업 결과물을 대상으로 사전에 설정된 목표 품질의 부합 여부 또는 데이터 유효성 여부를 검증하기 위한 코드이다.The learning data verification device may inspect the received annotation work result. To this end, the learning data verification device may perform inspection using a script for annotation work results. Here, the script is a code for verifying whether or not the target quality previously set for the annotation work result meets or whether the data is valid.

특징적으로, 본 발명의 실시예들에 따른 학습 데이터 검증 장치는 어노테이션 작업 결과물에 포함된 객체의 트래킹 아이디 및 환경 변수를 보다 용이하게 검수할 수 있는 사용자 인터페이스(UI)를 제공할 수 있다.Characteristically, the learning data verification apparatus according to the embodiments of the present invention can provide a user interface (UI) that can more easily inspect the tracking ID and environment variables of objects included in the annotation work result.

구체적으로, 학습 데이터 검증 장치는 어노테이션 작업 결과물의 메타데이터를 검증할 수 있는 사용자 인터페이스(UI)를 출력함에 있어, 이미지 그룹에 포함된 이미지들로부터 동일한 트래킹 아이디가 부여된 객체의 크롭 이미지(cropped image)들을 수집한 후, 사용자 인터페이스(UI) 상에서 수집된 크롭 이미지들을 이미지의 촬영 선후에 따라 연속적으로 배치하여 출력할 수 있다.Specifically, in outputting a user interface (UI) capable of verifying the metadata of the annotation work result, the training data verification device displays a cropped image of an object to which the same tracking ID is assigned from images included in an image group. ) are collected, the cropped images collected on the user interface (UI) may be sequentially arranged and output according to the order of the images taken.

여기서, 이미지 그룹은 어노테이션이 수행된 이미지들의 집합이다. 이와 같은, 이미지 그룹은 어노테이션 장치별 또는 프로젝트 별로 형성될 수 있다. 예를 들어, 이미지 그룹은 어노테이션 작업의 대상이 되는 이미지를 촬영한 카메라와 동일한 카메라에 의해 시계열적으로 연속적으로 촬영된 이미지들, 어노테이션 작업의 대상이 되는 이미지를 촬영한 카메라와 인접하게 배치된 다른 카메라에 의해 공간적으로 연속되게 촬영된 이미지들이 포함될 수 있으며, 이에 한정되는 것도 아니다.Here, the image group is a set of annotated images. Such image groups may be formed for each annotation device or project. For example, the image group includes images taken consecutively in time series by the same camera as the camera that took the image to be annotated, and other images arranged adjacent to the camera that took the image to be annotated. Images spatially continuously photographed by a camera may be included, but are not limited thereto.

그리고, 크롭 이미지는 어노테이션에 의해 객체를 특정하기 위해 설정된 좌표를 기준으로, 어노테이션 작업의 대상이 된 이미지의 일부를 잘라낸 이미지이다.Also, the cropped image is an image obtained by cropping a part of an image that is an annotation work target based on coordinates set to specify an object by annotation.

또한, 학습 데이터 검증 장치는 동일한 트래킹 아이디가 부여된 객체들의 크롭 이미지들을 대상으로, 크롭 이미지들 각각에 포함된 객체들의 RGB(Red, Green, Blue) 값의 패턴과 엣지의 패턴을 서로 교차 대비하여, 각각의 객체들에 대하여 동일한 트래킹 아이디가 부여된 것이 올바른지 자체적으로 검수할 수 있다. In addition, the learning data verification device cross-contrasts the patterns of RGB (Red, Green, Blue) values of the objects included in each of the cropped images and the pattern of the edge, targeting cropped images of objects to which the same tracking ID has been assigned. , it can independently inspect whether the same tracking ID is assigned to each object.

이와 반대로, 학습 데이터 검증 장치는 서로 다른 트래킹 아이디가 부여된 객체들의 크롭 이미지들을 대상으로, 서로 다른 트래킹 아이디가 부여된 객체들의 RGB 값의 패턴과 엣지의 패턴을 서로 교차 대비하여, 객체들에 대하여 서로 다른 트래킹 아이디가 부여된 것이 올바른지 검수할 수도 있다.Conversely, the learning data verification apparatus cross-contrasts the RGB value pattern and the edge pattern of objects to which different tracking IDs have been assigned, targeting the cropped images of objects to which different tracking IDs have been assigned. You can also check whether different tracking IDs are assigned correctly.

이 경우, RGB 값의 패턴은 이미지 속 화소(pixel)들에 대한 RGB 값의 비율 및 RGB 값의 배치 순서에 대한 패턴(pattern)을 의미한다. 그리고, 엣지의 패턴은 이미지로부터 추출된 엣지(edge)에 의해 폐쇄된 영역(enclosure)에 포함된 픽셀의 개수 및 이미지 내에서 엣지가 위치하고 있는 상대적인 위치에 대한 패턴을 의미한다.In this case, the pattern of RGB values means a pattern of a ratio of RGB values to pixels in an image and an arrangement order of RGB values. And, the pattern of the edge means a pattern for the number of pixels included in an enclosure closed by the edge extracted from the image and the relative position where the edge is located in the image.

그리고, 학습 데이터 검증 장치는 동일한 트래킹 아이디가 부여된 것이 올바르지 않다고 판단되거나, 또는 서로 다른 트래킹 아이디가 부여된 것이 올바르지 않다고 판단되는 경우, 사용자 인터페이스(UI) 상에서 올바르지 않다고 판단된 트래킹 아이디가 부여된 객체에 관한 정보를 출력할 수 있다.And, when the learning data verification device determines that it is incorrect to assign the same tracking ID or that different tracking IDs are incorrect, the object to which the tracking ID determined to be incorrect is assigned on the user interface (UI). information can be output.

이와 같이, 학습 데이터 검증 장치가 동일한 트래킹 아이디가 부여된 복수 개의 객체들의 크롭 이미지들이 연속적으로 배치된 사용자 인터페이스(UI)를 출력하며, 객체들의 트래킹 아이디가 올바르게 부여되었는지 자체 검수한 결과를 포함하는 사용자 인터페이스(UI)를 출력함으로써, 학습 데이터 검증 장치의 사용자는 동일한 것으로 판단된 다수의 객체들을 한 눈에 쉽게 확인하고 검수할 수 있게 된다.In this way, the learning data verification device outputs a user interface (UI) in which cropped images of a plurality of objects assigned the same tracking ID are successively arranged, and the user including the result of self-checking whether the tracking ID of the objects is correctly assigned By outputting the interface (UI), the user of the learning data verification device can easily check and inspect a plurality of objects determined to be the same at a glance.

한편, 학습 데이터 검증 장치는 어노테이션 작업 결과물의 메타데이터를 검증할 수 있는 사용자 인터페이스(UI)를 출력함에 있어, 메타데이터 각각에 포함된 값에 대응하여 사전에 설정된 색상을 가지는 도형(figure)으로 표현될 수 있도록, 이미지 그룹에 포함된 이미지들 각각을 그래픽화(graphicalize)하여 사용자 인터페이스(UI)에 포함시킬 수 있다.On the other hand, in outputting a user interface (UI) capable of verifying the metadata of the annotation work result, the learning data verification device is expressed as a figure having a preset color corresponding to a value included in each metadata. In order to be possible, each of the images included in the image group may be graphicalized and included in the user interface (UI).

예를 들어, 학습 데이터 검증 장치는 이미지 그룹에 포함된 이미지들 각각을 메타데이터에 포함된 값에 대응하는 색상을 가지는 하나의 선분(line)으로 표현할 수 있다. 학습 데이터 검증 장치는 이미지들의 촬영 선후에 따라 선분의 폭(width) 방향으로 각각의 선분을 연속적으로 배치하여 막대(bar) 형태의 그래픽을 구성할 수 있다. 그리고, 학습 데이터 검증 장치는 구성된 막대 형태의 그래픽을 사용자 인터페이스(UI)에 포함시켜 출력할 수 있다.For example, the training data verification apparatus may express each of the images included in the image group as a single line having a color corresponding to a value included in the metadata. The learning data verification apparatus may construct a bar-type graphic by continuously arranging each line segment in the direction of the width of the line segment according to the sequence of images captured. Also, the learning data verification device may output the configured bar-shaped graphic by including it in the user interface (UI).

이와 같이, 학습 데이터 검증 장치가 복수 개의 이미지들이 메타데이터의 값에 따라 단순 그래픽화된 사용자 인터페이스(UI)를 출력함으로써, 학습 데이터 검증 장치의 사용자는 복수 개의 이미지들의 메타데이터를 한 눈에 쉽게 확인할 수 있으며, 다른 이미지들과 다르게 특이적인 메타데이터 값을 가지는 이미지를 직관적으로 식별할 수 있게 된다.In this way, since the learning data verification apparatus outputs a user interface (UI) in which a plurality of images are simply graphic according to the value of metadata, the user of the learning data verification apparatus can easily check the metadata of the plurality of images at a glance. It is possible to intuitively identify an image having a specific metadata value different from other images.

그리고, 학습 데이터 검증 장치는 어노테이션 장치들로부터 수신된 어노테이션 작업 결과물 및 검수 결과를 학습 데이터 생성 장치에 전송할 수 있다.And, the learning data verification device may transmit annotation work results and inspection results received from the annotation devices to the learning data generating device.

상술한 바와 같은 특징을 가지는, 학습 데이터 검증 장치는 어노테이션 장치 및 학습 데이터 생성 장치와 데이터를 송수신하고, 송수신된 데이터를 기초로 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 학습 데이터 검증 장치는 데스크탑, 워크스테이션 또는 서버와 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으나, 이에 한정되는 것은 아니다.Any device capable of transmitting and receiving data to and from an annotation device and a learning data generating device and performing an operation based on the transmitted and received data may be used as the learning data verification device having the characteristics described above. For example, the learning data verification device may be any one of fixed computing devices such as a desktop, workstation, or server, but is not limited thereto.

다음 구성으로, 인공지능 학습 장치는 인공지능(AI)을 개발하는데 사용될 수 있는 장치이다. With the following configuration, the artificial intelligence learning device is a device that can be used to develop artificial intelligence (AI).

구체적으로, 인공지능 학습 장치는 인공지능(AI)이 개발 목적을 달성하기 위하여 인공지능(AI) 학습용 데이터가 만족해야 하는 요구 사항을 포함하는 요구 값을 학습 데이터 생성 장치에 전송할 수 있다. 인공지능 학습 장치는 학습 데이터 생성 장치로부터 인공지능(AI) 학습용 데이터를 수신할 수 있다. 그리고, 인공지능 학습 장치는 수신된 인공지능(AI) 학습용 데이터를 이용하여, 개발하고자 하는 인공지능(AI)을 기계 학습할 수 있다.Specifically, the artificial intelligence learning device may transmit a request value including requirements that AI learning data must satisfy in order for AI to achieve a development purpose, to the learning data generating device. The artificial intelligence learning device may receive artificial intelligence (AI) learning data from the learning data generating device. In addition, the artificial intelligence learning device may machine learn the artificial intelligence (AI) to be developed using the received artificial intelligence (AI) learning data.

이와 같은, 인공지능 학습 장치는 학습 데이터 생성 장치와 데이터를 송수신하고, 송수신된 데이터를 이용하여 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 인공지능 학습 장치는 데스크탑, 워크스테이션 또는 서버와 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으나, 이에 한정되는 것은 아니다.As such, the artificial intelligence learning device may be any device capable of transmitting and receiving data to and from the learning data generating device and performing calculations using the transmitted and received data. For example, the artificial intelligence learning device may be any one of a desktop, a workstation, or a fixed computing device such as a server, but is not limited thereto.

상술한 바와 같은, 학습 데이터 생성 장치, 하나 이상의 어노테이션 장치, 학습 데이터 검증 장치 및 인공지능 학습 장치는 장치들 사이를 직접 연결하는 보안 회선, 공용 유선 통신망 또는 이동 통신망 중 하나 이상이 조합된 네트워크를 이용하여 데이터를 송수신할 수 있다. As described above, the learning data generating device, one or more annotation devices, the learning data verification device, and the artificial intelligence learning device use a network in which at least one of a secure line, a common wired communication network, or a mobile communication network is directly connected between devices. to send and receive data.

예를 들어, 공용 유선 통신망에는 이더넷(ethernet), 디지털가입자선(x Digital Subscriber Line, xDSL), 광동축 혼합망(Hybrid Fiber Coax, HFC), 광가입자망(Fiber To The Home, FTTH)가 포함될 수 있으나, 이에 한정되는 것도 아니다. 그리고, 이동 통신망에는 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 와이드 밴드 코드 분할 다중 접속(Wideband CDMA, WCDMA), 고속 패킷 접속(High Speed Packet Access, HSPA), 롱텀 에볼루션(Long Term Evolution, LTE), 5세대 이동통신(5th generation mobile telecommunication)가 포함될 수 있으나, 이에 한정되는 것은 아니다. For example, public wired communication networks may include Ethernet, x Digital Subscriber Line (xDSL), Hybrid Fiber Coax (HFC), and Fiber To The Home (FTTH). It may be, but is not limited thereto. In addition, in the mobile communication network, Code Division Multiple Access (CDMA), Wideband CDMA (WCDMA), High Speed Packet Access (HSPA), Long Term Evolution, LTE) and 5th generation mobile telecommunication may be included, but is not limited thereto.

어노테이션 장치는 통신부, 입출력부, 저장부, 객체 특정부, 메타데이터 생성부 및 결과물 생성부를 포함하여 구성될 수 있다.The annotation device may include a communication unit, an input/output unit, a storage unit, an object specification unit, a metadata generation unit, and a result generation unit.

이와 같은, 어노테이션 장치의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.Since the components of the annotation device are merely functionally distinct elements, two or more components may be integrated and implemented in an actual physical environment, or one component may be implemented separately from each other in an actual physical environment. There will be.

각각의 구성 요소에 대하여 설명하면, 통신부는 학습 데이터 생성 장치 및 학습 데이터 검증 장치와 데이터를 송수신할 수 있다.Describing each component, the communication unit may transmit and receive data to and from the learning data generating device and the learning data verifying device.

구체적으로, 통신부는 학습 데이터 생성 장치에 의해 분배된 복수 개의 이미지를 수신할 수 있다. 여기서, 이미지는 인공지능(AI) 학습을 위한 어노테이션 작업의 대상이 되는 이미지이다. 이와 같은, 복수 개의 이미지는 개별적으로 수신하거나, 또는 일괄적으로 수신할 수 있다.Specifically, the communication unit may receive a plurality of images distributed by the learning data generating device. Here, the image is an image that is a target of annotation work for artificial intelligence (AI) learning. Such a plurality of images may be received individually or collectively.

그리고, 통신부는 어노테이션 작업 결과물을 학습 데이터 검증 장치에 전송할 수 있다. 이와 같은, 어노테이션 작업 결과물은 JSON 파일 형식을 가질 수 있으나, 이에 한정되는 것은 아니다.And, the communication unit may transmit the annotation work result to the learning data verification device. Such an annotation work result may have a JSON file format, but is not limited thereto.

다음 구성으로, 입출력부는 사용자 인터페이스(UI)를 통해 사용자로부터 신호를 입력 받거나, 연산 결과를 외부로 출력할 수 있다. 여기서, 사용자는 어노테이션 작업을 수행하는 자를 의미한다. 이와 같은, 사용자는 작업자, 수행자, 라벨러 또는 데이터 라벨러 등으로 지칭될 수 있으며, 이에 한정되는 것은 아니다.With the following configuration, the input/output unit may receive a signal from a user through a user interface (UI) or output an operation result to the outside. Here, the user means a person who performs annotation work. Such a user may be referred to as a worker, performer, labeler, data labeler, and the like, but is not limited thereto.

구체적으로, 입출력부는 어노테이션 작업의 대상이 되는 이미지를 출력할 수 있다. 입출력부는 바운딩 박스를 설정하기 위한 제어 신호를 사용자로부터 입력 받을 수 있다. 그리고, 입출력부는 이미지 위에 바운딩 박스를 오버레이(overlay)하여 출력할 수 있다.Specifically, the input/output unit may output an image to be an annotation work. The input/output unit may receive a control signal for setting a bounding box from a user. In addition, the input/output unit may overlay and output the bounding box on the image.

그리고, 입출력부는 이미지의 메타데이터를 설정하기 위한 제어 신호를 사용자로부터 입력 받을 수 있다. The input/output unit may receive a control signal for setting metadata of an image from a user.

다음 구성으로, 저장부는 어노테이션 작업에 필요한 데이터를 저장할 수 있다.With the following configuration, the storage unit can store data required for annotation work.

구체적으로, 저장부는 통신부를 통해 수신된 이미지를 저장할 수 있다. 또한, 저장부는 통신부를 통해 수신된 프로젝트의 속성, 이미지의 속성 또는 사용자의 속성을 저장할 수 있다. Specifically, the storage unit may store an image received through the communication unit. Also, the storage unit may store project properties, image properties, or user properties received through the communication unit.

다음 구성으로, 객체 특정부는 어노테이션 작업의 대상이 되는 이미지 속에 포함된 객체를 특정할 수 있다. With the following configuration, the object specifying unit may specify an object included in an image that is a target of annotation work.

구체적으로, 객체 특정부는 어노테이션 작업의 대상이 되는 이미지를 메모리로 로딩할 수 있다. 객체 특정부는 입출력부를 통해 입력된 사용자의 제어 신호에 따라 툴을 선택할 수 있다. 여기서, 툴(tool)은 이미지 속에 포함되어 있는 하나 이상의 객체를 특정하는 바운딩 박스를 설정하기 위한 도구이다. Specifically, the object specification unit may load an image that is a target of annotation work into memory. The object specifying unit may select a tool according to a user's control signal input through the input/output unit. Here, the tool is a tool for setting a bounding box that specifies one or more objects included in the image.

객체 특정부는 입출력부를 통해 입력된 제어 신호에 따라, 선택된 툴을 통한 좌표를 입력 받을 수 있다. 객체 특정부는 입력된 좌표를 기초로, 바운딩 박스(bounding box)를 설정하여 이미지 속에 포함된 객체를 특정할 수 있다. The object specifying unit may receive coordinates through the selected tool according to a control signal input through the input/output unit. The object specifying unit may specify an object included in the image by setting a bounding box based on the input coordinates.

여기서, 바운딩 박스는 이미지 속에 포함된 객체들 중에서 인공지능(AI) 학습의 대상이 되는 객체를 특정하기 위한 영역이다. 이와 같은, 바운딩 박스는 사각형(rectangle) 또는 다각형(polygon) 형상을 가질 수 있으며, 이에 한정되는 것은 아니다.Here, the bounding box is an area for specifying an object to be learned by artificial intelligence (AI) among objects included in the image. Such a bounding box may have a rectangle or polygon shape, but is not limited thereto.

예를 들어, 객체 특정부는 입출력부를 통해 사용자로부터 두 개의 좌표를 입력 받고, 입력된 두 좌표를 이미지 내에서 좌상단 꼭지점(vertex)의 좌표와 우하단 꼭지점의 좌표로 가지는 사각형을 기초로 바운딩 박스를 설정하여, 이미지 속에 포함된 객체를 특정할 수 있다.For example, the object specification unit receives two coordinates from the user through the input/output unit, and sets a bounding box based on a rectangle having the input two coordinates as the coordinates of the top left vertex and the coordinates of the bottom right vertex in the image. Thus, an object included in the image can be specified.

이 경우, 두 개의 좌표는 사용자가 한 종류의 입력 신호를 두 번 입력(예들 들어, 마우스 클릭)하여 설정되거나, 사용자가 두 종류의 입력 신호를 한번씩 입력(예를 들어, 마우스 드래그)하여 설정될 수 있으나, 이에 한정되는 것은 아니다.In this case, the two coordinates may be set by the user inputting one type of input signal twice (eg, mouse click) or by the user inputting two types of input signal once (eg, mouse drag). It may, but is not limited thereto.

다음 구성으로, 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지에 대한 메타데이터(metadata)를 생성할 수 있다. With the following configuration, the metadata generation unit may generate metadata for an image that is a target of annotation work.

여기서, 메타데이터에는 이미지의 정보, 저작권 정보, 촬영 조건 정보, 어노테이션된 객체의 정보 및 환경 정보가 포함될 수 있으나, 이에 한정되지 않는다. 메타데이터에 포함된 이미지의 정보에는 파일명, 파일 크기 및 이미지 크기가 포함될 수 있다. 저작권 정보에는 이미지 저작권자에 관한 정보가 포함될 수 있다. 촬영 조건 정보에는 해상도, 비트 값, 조리개 투과량, 노출 시간, ISO 감도, 초점 거리, 조리개 개방 수치, 화각, 화이트 밸런스, RGB 깊이가 포함될 수 있다. 객체의 정보에는 어노테이션 종류, 좌표 값, 영역의 크기, 클래스 명, 태그 항목, 잘림 여부, 대분류, 중분류, 소분류, 인스턴스 정보가 포함될 수 있다. 환경 정보에는 촬영 일시, 촬영 장소, 기상 정보, 도로의 유형, 도로 표면 정보, 교통 체증 정보가 포함될 수 있다. 또한, 메타데이터에 포함될 수 있는 정보의 개수와 종류는 이에 한정되지 아니한다.Here, the metadata may include image information, copyright information, shooting condition information, annotated object information, and environment information, but is not limited thereto. Image information included in metadata may include a file name, file size, and image size. Copyright information may include information about the copyright holder of the image. The photographing condition information may include resolution, bit value, aperture transmittance, exposure time, ISO sensitivity, focal length, aperture value, angle of view, white balance, and RGB depth. Object information may include annotation type, coordinate value, area size, class name, tag item, clipping, major classification, middle classification, small classification, and instance information. The environmental information may include shooting date and time, shooting location, weather information, road type, road surface information, and traffic jam information. In addition, the number and type of information that may be included in metadata is not limited thereto.

본 발명의 일 실시예에 따른 메타데이터 생성부는 사용자로부터 입력된 제어 신호에 따라 메타데이터에 포함될 구체적인 값들을 설정할 수 있으나, 특징적으로 메타데이터 생성부는 사용자의 제어 신호에 의지하지 않고, 객체의 트래킹 아이디 및 환경 정보를 자동으로 결정 또는 부여할 수 있다. 다르게 말하면, 메타 데이터 생성부는 특정된 객체의 이미지 속 좌표, 자동으로 부여된 트래킹 아이디, 자동으로 결정된 환경 정보를 포함시켜 메타데이터를 생성할 수 있다.The metadata generator according to an embodiment of the present invention may set specific values to be included in the metadata according to a control signal input from the user, but characteristically, the metadata generator does not rely on the user's control signal, and the tracking ID of the object and environmental information may be automatically determined or assigned. In other words, the metadata generation unit may generate metadata by including the coordinates in the image of the specified object, the automatically assigned tracking ID, and the automatically determined environment information.

구체적으로, 메타데이터 생성부는 객체 특정부에 의해 특정된 객체에 대하여 자동으로 트래킹 아이디를 부여할 수 있다. 여기서, 트래킹 아이디는 이미지 그룹으로부터 객체를 추적할 수 있도록 부여된 객체의 고유한 식별자이다. 이미지 그룹은 어노테이션이 수행된 이미지들의 집합이다. 예를 들어, 이미지 그룹은 어노테이션 작업의 대상이 되는 이미지를 촬영한 카메라와 동일한 카메라에 의해 시계열적으로 연속적으로 촬영된 이미지들, 어노테이션 작업의 대상이 되는 이미지를 촬영한 카메라와 인접하게 배치된 다른 카메라에 의해 공간적으로 연속되게 촬영된 이미지들이 포함될 수 있으며, 이에 한정되는 것도 아니다.Specifically, the metadata generation unit may automatically assign a tracking ID to an object specified by the object specification unit. Here, the tracking ID is a unique identifier of an object assigned to track an object from an image group. An image group is a set of annotated images. For example, the image group includes images taken consecutively in time series by the same camera as the camera that took the image to be annotated, and other images arranged adjacent to the camera that took the image to be annotated. Images spatially continuously photographed by a camera may be included, but are not limited thereto.

본 발명의 일 실시예에 따른 메타데이터 생성부는 객체의 색상을 기준으로 트래킹 아이디를 부여할 수 있다. 구체적으로, 메타데이터 생성부는 이미지 속에 객체가 차지하고 있는 영역에 대한 RGB 값의 패턴을 식별할 수 있다. 그리고, 메타데이터 생성부는 식별된 RGB 값의 패턴에 대응하는 식별자를 생성하여, 객체 특정부에 의해 특정된 객체의 트래킹 아이디로 부여할 수 있다. 여기서, RGB 값의 패턴은 화소들에 대한 RGB 값의 비율 및 RGB 값의 배치 순서에 대한 패턴을 의미한다.The metadata generator according to an embodiment of the present invention may assign a tracking ID based on the color of the object. Specifically, the metadata generator may identify a pattern of RGB values for an area occupied by an object in an image. The metadata generation unit may generate an identifier corresponding to the identified pattern of RGB values and assign it as the tracking ID of the object specified by the object specification unit. Here, the pattern of RGB values means a pattern of ratios of RGB values to pixels and arrangement order of RGB values.

이 경우, 메타데이터 생성부는 식별자를 새롭게 생성하기 이전에, 이미지 그룹에 포함된 이미지들로부터 특정된 객체들에 대한 RGB 값의 패턴과 객체 특정부에 의해 특정된 객체로부터 식별된 RGB 값의 패턴을 서로 비교하여 유사 객체를 검색할 수 있다. 그리고, 메타데이터 생성부는 이미지 그룹에 포함된 이미지들로부터 유사 객체가 검색된 경우, 검색된 유사 객체에 부여된 트래킹 아이디를, 객체 특정부에 의해 특정된 객체의 트래킹 아이디로 부여할 수 있다. In this case, before the metadata generation unit newly generates the identifier, the pattern of RGB values for the objects specified from the images included in the image group and the pattern of RGB values identified from the object specified by the object specifying unit are determined. Similar objects can be searched by comparing each other. Also, when a similar object is searched for from the images included in the image group, the metadata generator may assign a tracking ID assigned to the searched similar object to the tracking ID of the object specified by the object specification unit.

본 발명의 다른 실시예에 따른 메타데이터 생성부는 객체의 형상을 기준으로 트래킹 아이디를 부여할 수 있다. 구체적으로, 메타데이터 생성부는 이미지의 엣지를 추출(edge detection)할 수 있다. 메타데이터 생성부는 추출된 이미지의 전체 엣지로부터 객체 특정부에 의해 특정된 객체의 엣지만을 식별할 수 있다. 메타데이터 생성부는 식별된 객체의 엣지의 패턴에 대응하는 식별자를 생성하여, 객체 특정부에 의해 특정된 객체의 트래킹 아이디로 부여할 수 있다. 여기서, 엣지의 패턴은 이미지로부터 추출된 엣지에 의해 폐쇄된 영역에 포함된 픽셀의 개수 및 이미지 내에서 엣지가 위치하고 있는 상대적인 위치에 대한 패턴을 의미한다.The metadata generation unit according to another embodiment of the present invention may assign a tracking ID based on the shape of the object. Specifically, the metadata generation unit may extract an edge of an image (edge detection). The metadata generation unit may identify only the edge of the object specified by the object specification unit from all edges of the extracted image. The metadata generation unit may generate an identifier corresponding to the edge pattern of the identified object and assign it as the tracking ID of the object specified by the object specification unit. Here, the pattern of the edge means a pattern for the number of pixels included in the area closed by the edge extracted from the image and the relative position of the edge within the image.

이 경우, 메타데이터 생성부는 식별자를 새롭게 생성하기 이전에, 이미지 그룹에 포함된 이미지들로부터 특정된 객체들에 대한 엣지 패턴과 객체 특정부에 의해 특정된 객체로부터 식별된 객체의 엣지의 패턴을 서로 비교하여 유사 객체를 검색할 수 있다. 그리고, 메타데이터 생성부는 이미지 그룹에 포함된 이미지들로부터 유사 객체가 검색된 경우, 검색된 유사 객체에 부여된 트래킹 아이디를, 객체 특정부에 의해 특정된 객체의 트래킹 아이디로 부여할 수 있다. In this case, before the metadata generator newly generates the identifier, the edge pattern of the objects specified from the images included in the image group and the edge pattern of the object identified from the object specified by the object specifying unit are mutually related. You can search for similar objects by comparing them. Also, when a similar object is searched for from the images included in the image group, the metadata generator may assign a tracking ID assigned to the searched similar object to the tracking ID of the object specified by the object specification unit.

본 발명의 또 다른 실시예에 따른 메타데이터 생성부는 객체에 포함된 기호 또는 문자를 기준으로 트래킹 아이디를 부여할 수 있다. 구체적으로, 메타데이터 생성부는 이미지 속에서 객체가 차지하고 있는 영역에 기호 또는 문자가 포함되어 있는지 식별할 수 있다. 메타데이터 생성부는 이미지 그룹에 포함된 이미지들로부터 특정된 객체들을 대상으로, 객체 특정부에 의해 특정된 객체로부터 식별된 기호 또는 문자와 동일한 기호 또는 문자를 포함하는 유사 객체를 검색할 수 있다. 그리고, 메타데이터 생성부는 이미지 그룹에 포함된 이미지들로부터 유사 객체가 검색된 경우, 검색된 유사 객체에 부여된 트래킹 아이디를, 객체 특정부에 의해 특정된 객체의 트래킹 아이디로 부여할 수 있다. The metadata generation unit according to another embodiment of the present invention may assign a tracking ID based on symbols or characters included in objects. Specifically, the metadata generating unit may identify whether a symbol or character is included in an area occupied by an object in an image. The metadata generator may search objects specified from the images included in the image group for similar objects including the same symbol or character as the symbol or character identified from the object specified by the object specification unit. Also, when a similar object is searched for from the images included in the image group, the metadata generator may assign a tracking ID assigned to the searched similar object to the tracking ID of the object specified by the object specification unit.

한편, 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지에 대한 환경 정보를 자동으로 결정할 수 있다. 여기서, 환경 정보는 카메라에 의해 이미지가 촬영된 장소 또는 시점과 관련된 정보를 의미한다. 이와 같은, 환경 정보에는 이미지의 촬영 일시, 촬영 장소, 기상(weather) 정보, 도로의 유형(road type), 노면(road surface) 및 교통 상황(traffic congestion)에 관한 정보가 포함될 수 있으나, 이에 한정되지 아니한다.Meanwhile, the metadata generating unit may automatically determine environment information about an image that is a target of annotation work. Here, the environment information refers to information related to a place or time point at which an image was captured by a camera. Such environmental information may include, but is not limited to, information on the date and time of image capture, location, weather information, road type, road surface, and traffic congestion. It doesn't.

본 발명의 일 실시예에 따른 메타데이터 생성부는 기존 이미지와 어노테이션 작업의 대상이 되는 이미지를 서로 비교하여, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용할 수 있다.The metadata generation unit according to an embodiment of the present invention compares the existing image with the image to be annotated, and applies the environment information given to the existing image as the environment information of the image to be annotated. can

보다 구체적으로, 메타데이터 생성부는 기존 이미지와 어노테이션 작업의 대상이 되는 이미지를 서로 비교하여, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용 가능한지 여부를 판단할 수 있다. 여기서, 기존 이미지는 어노테이션 작업의 대상이 되는 이미지를 촬영한 카메라와 동일한 카메라에 의하여, 어노테이션 작업의 대상이 되는 이미지보다 선행하여 촬영된 이미지를 의미한다. More specifically, the metadata generation unit compares the existing image with the image to be annotated, and determines whether or not the environmental information given to the existing image can be applied as the environmental information of the image to be annotated. can Here, the existing image means an image taken prior to the image to be annotated by the same camera as the camera that captured the image to be annotated.

만약, 어노테이션 작업의 대상이 되는 이미지보다 선행하여 촬영된 이미지가 복수 개인 경우, 메타데이터 생성부는 복수 개의 이미지들 중에서 객체 특정부에 의해 특정된 객체와 동일한 트래킹 아이디가 부여된 객체를 포함하고 있는 이미지를 기존 이미지로 선택할 수 있다.If there are a plurality of images taken prior to the image to be annotated, the metadata generation unit includes an object to which the same tracking ID as the object specified by the object specification unit is assigned among the plurality of images. can be selected as an existing image.

이와 다르게, 어노테이션 작업의 대상이 되는 이미지보다 선행하여 촬영된 이미지가 복수 개인 경우, 메타데이터 생성부는 복수 개의 이미지들 중에서 어노테이션 작업의 대상이 되는 이미지와 촬영 시각이 가장 인접한 이미지를 기존 이미지로 선택할 수도 있다.Alternatively, if there are a plurality of images taken prior to the image to be annotated, the metadata generation unit may select, as an existing image, an image whose shooting time is closest to the image to be annotated from among the plurality of images. there is.

이후, 메타데이터 생성부는 기존 이미지의 객체와 동일한 트래킹 아이디가 부여된 객체가 차지하고 있는 영역을, 어노테이션 작업의 대상이 되는 이미지로부터 제거한 배경 영역을 식별할 수 있다. 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지의 객체와 동일한 트래킹 아이디가 부여된 객체가 차지하고 있는 영역을, 선택된 기존 이미지로부터 제거한 배경 영역을 식별할 수 있다. Thereafter, the metadata generating unit may identify a background area occupied by an object to which the same tracking ID as an object of an existing image is removed from the image to be annotated. The metadata generating unit may identify an area occupied by an object to which a tracking ID identical to that of the object of the image to be annotated is removed from the selected existing image.

그리고, 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지의 배경 영역과, 기존 이미지의 배경 영역을 서로 비교한 결과를 기초로, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용 가능한지 여부를 판단할 수 있다.And, based on the result of comparing the background area of the image to be annotated with the background area of the existing image, the metadata generation unit converts environmental information given to the existing image to the image to be annotated. It can be judged whether or not it is applicable with environmental information.

즉, 메타데이터 생성부는 선행하여 촬영된 이미지(즉, 기존 이미지)와 후행하여 촬영된 이미지(어노테이션 작업의 대상이 되는 이미지) 각각에 대하여, 동일한 아이디가 부여된 객체가 차지하고 있는 영역을 제거한 배경 영역을 서로 비교하고, 비교한 결과를 기초로 선행하여 촬영된 이미지에 대하여 기 부여된 환경 정보를 후행하여 촬영된 이미지의 환경 정보로 적용 가능한지 여부를 판단하는 것이다.That is, the metadata generation unit removes the area occupied by the object to which the same ID is assigned to each of the preceding image (i.e., the previous image) and the succeeding image (annotation target image). are compared with each other, and based on the comparison result, it is determined whether or not environmental information previously assigned to an image captured in advance can be applied as environment information of an image captured later.

구체적인 판단에 대한 예로서, 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지의 배경 영역에 대한 RGB 값의 패턴과, 기존 이미지의 배경 영역에 대한 RGB 값의 패턴을 기초로, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용 가능한지 여부를 판단할 수 있다.As an example of a specific determination, the metadata generation unit assigns a predetermined value to the existing image based on the pattern of RGB values for the background area of the image to be annotated and the pattern of RGB values for the background area of the existing image. It is possible to determine whether the applied environmental information can be applied as the environmental information of the image to be annotated.

이와 다르게, 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지의 배경 영역에 대한 엣지의 패턴과, 기존 이미지의 배경 영역에 대한 엣지의 패턴을 기초로, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용 가능한지 여부를 판단할 수 있다.Unlike this, the metadata generation unit annotates the environment information given to the existing image based on the edge pattern of the background area of the image to be annotated and the edge pattern of the background area of the existing image. It can be determined whether or not it is applicable as environment information of an image that is a target of .

이와 또 다르게, 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지의 배경 영역에 대한 평균 밝기(brightness) 값 또는 평균 감마(gamma) 값과, 기존 이미지의 배경 영역에 대한 평균 밝기 값 또는 평균 감마 값을 기초로, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용 가능한지 여부를 판단할 수도 있다.Alternatively, the metadata generation unit sets the average brightness value or average gamma value of the background area of the image to be annotated and the average brightness value or average gamma value of the background area of the existing image. Based on this, it may be determined whether or not environmental information previously assigned to an existing image can be applied as environmental information of an image to be annotated.

그리고, 메타데이터 생성부는 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용 가능한 것으로 판단된 경우, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 포함시켜 메타데이터를 생성할 수 있다.In addition, when it is determined that the metadata generator can apply the environmental information previously assigned to the existing image as the environmental information of the image to be annotated, the metadata creation unit converts the environmental information previously assigned to the existing image to the target of the annotation work. Metadata can be created by including it as environment information of the image.

정리하면, 메타데이터 생성부는 복수 개의 이미지가 동일한 카메라에 의해 연속적으로 촬영된 이미지에 해당하는 경우, 복수 개의 이미지 중 선행하여 촬영된 이미지에 대하여 기 부여된 환경 정보를 후행하여 촬영된 이미지의 환경 정보로 포함시켜 후행하여 촬영된 이미지에 대한 메타데이터를 자동으로 생성할 수 있다. In summary, when a plurality of images correspond to images continuously photographed by the same camera, the metadata generation unit encloses environment information of an image photographed by following the environment information given to the image photographed in advance among the plurality of images. It is possible to automatically generate metadata for images taken later by including it as .

한편, 메타데이터 생성부는 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용이 불가능한 것으로 판단된 경우, 어노테이션 작업 대상이 되는 이미지의 내에 설정된 하나 이상의 기준점이 가지는 특징을 기초로 어노테이션 작업 대상이 되는 이미지에 대한 환경 정보를 자동으로 결정할 수 있다.On the other hand, if the metadata generation unit determines that it is impossible to apply the environmental information already given to the existing image as the environmental information of the image to be annotated, the characteristic of one or more reference points set in the image to be annotated is Based on this, it is possible to automatically determine the environmental information about the image to be annotated.

보다 구체적으로, 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지 내에서 하나 이상의 기준점을 설정할 수 있다. 인공지능(AI)이 특정 목적을 달성할 수 있도록 기계학습에 사용되는 다수의 이미지들은 상대적으로 유사한 구도를 가지고 있다. 본 발명의 실시예에 따른 기준점은 인공지능(AI)의 학습 목적에 대응하여 설정되는 이미지 내의 하나 이상의 지점이 될 수 있다. 그리고, 메타데이터 생성부는 설정된 하나 이상의 기준점 각각이 화소의 색상, 밝기 또는 감마를 기초로, 어노테이션 작업의 대상이 되는 이미지의 환경 정보를 결정할 수 있다. More specifically, the metadata generating unit may set one or more reference points in an image to be annotated. A number of images used in machine learning have a relatively similar composition so that artificial intelligence (AI) can achieve a specific purpose. A reference point according to an embodiment of the present invention may be one or more points in an image set to correspond to the learning purpose of artificial intelligence (AI). In addition, the metadata generation unit may determine environment information of an image to be annotated based on the color, brightness, or gamma of each pixel of one or more set reference points.

본 발명의 일 실시예에 따른 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지의 엣지를 추출하고, 추출된 엣지를 기준으로 이미지를 복수 개의 영역으로 구분할 수 있다. 메타데이터 생성부는 구분된 복수 개의 영역 각각에 대하여 하나 이상의 기준점을 설정할 수 있다. 메타데이터 생성부는 추출된 엣지를 기준으로 어노테이션 작업의 대상이 되는 이미지에서 객체가 차지하고 있는 영역을 제거하여 배경 영역을 식별할 수 있다. 메타데이터 생성부는 객체에 부여된 클래스(class)를 기준으로 이미지 내에서 객체의 방향성을 판단할 수 있다. 예를 들어, 메타데이터 생성부는 개체에 부여된 클래스가 차량인 경우, 이미지 내에서 객체의 바퀴가 향하는 방향을 지면으로 판단할 수 있다. 메타데이터 생성부는 판단된 객체의 방향성을 기초로, 식별된 배경 영역에 포함된 복수 개의 영역 중에서 지면(ground) 영역과 공중(air) 영역을 식별할 수 있다. 여기서, 지면 영역은 엣지에 의해 구분된 복수 개의 영역 중에서 지면에 가장 가까운 영역이다. 공중 영역은 엣지에 의해 구분된 복수 개의 영역 중에서 지면으로부터 가장 먼 영역이다. 그리고, 메타데이터 생성부는 지면 영역 내에서 설정된 기준점의 화소를 기초로 환경 정보를 구성하는 노면(road surface) 정보를 결정하고, 공중 영역 내에서 설정된 기준점의 화소를 기초로 환경 정보를 구성하는 기상(weather) 정보를 결정할 수 있다.The metadata generation unit according to an embodiment of the present invention may extract an edge of an image to be annotated and divide the image into a plurality of regions based on the extracted edge. The metadata generating unit may set one or more reference points for each of the plurality of divided areas. The metadata generation unit may identify a background area by removing an area occupied by an object from an image that is an annotation target based on the extracted edge. The metadata generation unit may determine the directionality of the object within the image based on the class assigned to the object. For example, when the class assigned to the object is a vehicle, the metadata generation unit may determine the direction in which the wheels of the object are directed in the image as the ground. The metadata generator may identify a ground area and an air area from among a plurality of areas included in the identified background area, based on the determined object directionality. Here, the ground area is an area closest to the ground among a plurality of areas divided by edges. The aerial area is an area furthest from the ground among a plurality of areas divided by edges. In addition, the metadata generator determines road surface information constituting environmental information based on pixels of reference points set in the ground area, and weather conditions constituting environment information based on pixels of reference points set in the air area weather) information.

본 발명의 다른 실시예에 따른 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지의 가장자리(border)를 구성하는 네 개의 선분 각각에 대하여 하나 이상의 기준점을 설정할 수 있다. 메타데이터 생성부는 객체에 부여된 클래스(class)를 기준으로 이미지 내에서 객체의 방향성을 판단할 수 있다. 메타데이터 생성부는 판단된 객체의 방향성을 기초로, 네 개의 선분 중에서 지면 선분과 공중 선분을 식별할 수 있다. 여기서, 지면 선분은 이미지의 가장자리를 구성하는 네 개의 선분 중에서 지면에 가장 가까운 선분이다. 공중 선분은 이미지의 가장자리를 구성하는 네 개의 선분 중에서 지면으로부터 가장 먼 선분이다. 그리고, 메타데이터 생성부는 지면 선분 내에서 설정된 기준점의 화소를 기초로 환경 정보를 구성하는 노면 정보를 결정하고, 공중 선분 내에서 설정된 기준점의 화소를 기초로 환경 정보를 구성하는 기상 정보를 결정할 수 있다.The metadata generation unit according to another embodiment of the present invention may set one or more reference points for each of the four line segments constituting the border of the image to be annotated. The metadata generation unit may determine the directionality of the object within the image based on the class assigned to the object. The metadata generation unit may identify a ground segment and an air segment among four line segments based on the determined object direction. Here, the ground segment is a line segment closest to the ground among four line segments constituting the edge of the image. The mid-air segment is the farthest line segment from the ground among the four line segments constituting the edge of the image. The metadata generator may determine road surface information constituting environment information based on pixels of a reference point set within a ground segment, and may determine weather information constituting environment information based on pixels of a reference point set within an aerial segment. .

한편, 메타데이터 생성부는 어노테이션 작업의 대상이 되는 이미지와 이미지 그룹에 포함된 기존 이미지 각각에 대하여 동일한 위치에 기준점을 설정하고, 어노테이션 작업의 대상이 되는 이미지에 설정된 기준점의 화소와 기존 이미지에 동일하게 설정된 기준점의 화소를 대비하여, 화소의 색상, 밝기 및 감마 값이 사전에 설정된 허용 범위 이내인 경우, 기존 이미지에 대하여 기 설정된 환경 정보를 어노테이션 작업의 대상이 되는 이미지이 환경 정보로 결정할 수도 있다. 만약, 어노테이션 작업의 대상이 되는 이미지와 기존 이미지에 서로 동일하게 설정된 기준점의 화소의 색상, 밝기, 감마 값의 차이가 허용 범위를 벗어나는 경우, 메타데이터 생성부는 환경 정보가 수동으로 설정되어야 함을 알리는 메시지를 사용자 인터페이스(UI)를 통해 출력할 수도 있다.On the other hand, the metadata generation unit sets a reference point at the same location for each of the image to be annotated and the existing image included in the image group, and the pixel of the reference point set in the image to be annotated is the same as that of the existing image. When the color, brightness, and gamma values of the pixels are within a predetermined allowable range in contrast to the pixels of the set reference point, the preset environment information of the existing image may be determined as the environment information of the image to be annotated. If the difference between the color, brightness, and gamma values of the pixels of the reference point set identically in the image to be annotated and the existing image is outside the allowable range, the metadata generator notifies that the environment information must be set manually. The message may be output through a user interface (UI).

다음 구성으로, 결과물 생성부는 메타데이터 생성부에 의해 생성된 메타데이터를 기초로, 어노테이션 작업 결과물을 생성할 수 있다. 이 경우, 어노테이션 작업 결과물은 JSON 파일 형식을 가질 수 있으나, 이에 한정되는 것은 아니다.With the following configuration, the result generation unit may generate an annotation work result based on the metadata generated by the metadata generation unit. In this case, the annotation work result may have a JSON file format, but is not limited thereto.

그리고, 결과물 생성부은 생성된 어노테이션 작업 결과물을 통신부를 통해 학습 데이터 생성 장치에 직접 전송하거나, 또는 학습 데이터 검증 장치에 전송할 수 있다.In addition, the result generation unit may directly transmit the generated annotation work result to the learning data generation device or to the learning data verification device through the communication unit.

본 발명의 일 실시예에 따른 어노테이션 장치센서정보를 기초로 하는 연속된 이미지에 대한 환경 정보를 부여할 수 있다.Environment information on continuous images based on sensor information of an annotation device according to an embodiment of the present invention may be assigned.

여기서, 환경 정보는 카메라에 의해 이미지가 촬영된 장소 또는 시점과 관련된 정보를 의미한다. 예를 들어, 환경 정보에는 이미지의 촬영 일시, 촬영 장소, 기상(weather) 정보, 도로의 유형(road type), 노면(road surface) 및 교통 상황(traffic congestion)에 관한 정보가 포함될 수 있으나, 이에 한정되지 아니한다.Here, the environment information refers to information related to a place or time point at which an image was captured by a camera. For example, the environment information may include information on the date and time of image capture, location, weather information, road type, road surface, and traffic congestion. Not limited.

본 발명의 일 실시예에 따른 어노테이션 장치센서정보를 기초로 하는는 기존 이미지와 어노테이션 작업의 대상이 되는 이미지를 서로 비교하여, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용할 수 있다.According to an embodiment of the present invention, based on the annotation device sensor information, an existing image and an image to be annotated are compared with each other, and environmental information given to the existing image is converted to the environment of the image to be annotated. information can be applied.

구체적으로, 어노테이션 장치센서정보를 기초로 하는는 어노테이션 작업의 대상이 되는 이미지로부터, 객체(기존 이미지의 객체와 동일한 트래킹 아이디가 부여된 객체)가 차지하고 있는 영역을 제거한 배경 영역을 식별할 수 있다. 어노테이션 장치센서정보를 기초로 하는는 기존 이미지로부터, 객체(어노테이션 작업의 대상이 되는 이미지의 객체와 동일한 트래킹 아이디가 부여된 객체)가 차지하고 있는 영역을 제거한 배경 영역을 식별할 수 있다.Specifically, it is possible to identify a background area from which an area occupied by an object (an object assigned the same tracking ID as an object of an existing image) is removed from an image to be annotated based on the annotation device sensor information. Based on the annotation device sensor information, it is possible to identify a background area from which an area occupied by an object (an object to which the same tracking ID as the object of the image to be annotated) is removed is removed from the existing image.

어노테이션 장치센서정보를 기초로 하는는 어노테이션 작업의 대상이 되는 이미지의 배경 영역과 기존 이미지의 배경 영역을 서로 비교한 결과를 기초로, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용할 수 있다.Based on the annotation device sensor information, based on the result of comparing the background area of the image to be annotated with the background area of the existing image, the environmental information previously given to the existing image is converted to the image to be annotated. can be applied to the environmental information of

어노테이션 장치센서정보를 기초로 하는는 어노테이션 작업의 대상이 되는 이미지의 배경 영역에 대한 RGB 값의 패턴과. 기존 이미지의 배경 영역에 대한 RGB 값의 패턴을 기초로, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용 가능한지 여부를 판단할 수 있다.A pattern of RGB values for the background area of the image to be annotated based on the sensor information of the annotation device. Based on the pattern of RGB values for the background area of the existing image, it is possible to determine whether the environment information given to the existing image can be applied as the environment information of the image to be annotated.

어노테이션 장치센서정보를 기초로 하는 어노테이션 작업의 대상이 되는 이미지의 배경 영역에 대한 엣지의 패턴과. 기존 이미지의 배경 영역에 대한 엣지의 패턴을 기초로, 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용 가능한지 여부를 판단할 수 있다.An edge pattern for the background area of the image that is the subject of annotation work based on the annotation device sensor information. Based on the pattern of the edge of the background area of the existing image, it may be determined whether or not the environment information given to the existing image can be applied as the environment information of the image to be annotated.

본 발명의 일 실시예에 따른 어노테이션 장치센서정보를 기초로 하는 기존 이미지에 대하여 기 부여된 환경 정보를 어노테이션 작업의 대상이 되는 이미지의 환경 정보로 적용이 불가능한 경우, 어노테이션 작업의 대상이 되는 이미지 내에 설정된 하나 이상의 기준점이 가지는 특징을 기초로, 어노테이션 작업의 대상이 되는 이미지에 대한 환경 정보를 결정할 수 있다.In the case where it is impossible to apply environmental information previously assigned to an existing image based on annotation device sensor information according to an embodiment of the present invention as environmental information of an image to be annotated, within the image to be annotated Based on the characteristics of one or more set reference points, environmental information about an image to be annotated may be determined.

인공지능(AI)이 특정 목적을 달성할 수 있도록 기계학습에 사용되는 다수의 이미지들은 상대적으로 유사한 구도를 가지고 있다. 따라서, 본 발명의 실시예에 따른 기준점은 인공지능(AI)의 학습 목적에 대응하여 설정되는 하나 이상의 지점이 될 수 있다.A number of images used in machine learning have a relatively similar composition so that artificial intelligence (AI) can achieve a specific purpose. Therefore, the reference point according to an embodiment of the present invention may be one or more points set in correspondence with the learning purpose of artificial intelligence (AI).

어노테이션 장치센서정보를 기초로 하는는 어노테이션 작업의 대상이 되는 이미지의 엣지를 추출하고, 추출된 엣지를 기준으로 이미지를 복수 개의 영역으로 구분할 수 있다. 어노테이션 장치센서정보를 기초로 하는는 구분된 복수 개의 영역 각각에 대하여 하나 이상의 기준점을 설정할 수 있다.An annotation device based on sensor information may extract an edge of an image to be annotated, and divide the image into a plurality of regions based on the extracted edge. One or more reference points may be set for each of a plurality of divided regions based on the annotation device sensor information.

어노테이션 장치센서정보를 기초로 하는는 객체에 부여된 클래스를 기준으로 이미지 내에서 객체의 방향성을 판단할 수 있다. 예를 들어, 개체에 부여된 클래스가 차량인 경우, 이미지 내에서 객체의 바퀴가 향하는 방향을 지면으로 판단할 수 있다. Based on the annotation device sensor information, the orientation of the object within the image can be determined based on the class assigned to the object. For example, if the class assigned to the object is a vehicle, the direction in which the wheels of the object are directed in the image may be determined as the ground.

어노테이션 장치센서정보를 기초로 하는는 판단된 객체의 방향성을 기초로, 복수 개의 영역 중에서 지면 영역과 공중 영역을 식별할 수 있다. 여기서, 지면 영역은 엣지에 의해 구분된 복수 개의 영역 중에서 지면에 가장 가까운 영역이다. 공중 영역은 엣지에 의해 구분된 복수 개의 영역 중에서 지면으로부터 가장 먼 영역이다.Based on the orientation of the object determined based on the annotation device sensor information, it is possible to identify a ground area and an air area among a plurality of areas. Here, the ground area is an area closest to the ground among a plurality of areas divided by edges. The aerial area is an area furthest from the ground among a plurality of areas divided by edges.

그리고, 어노테이션 장치센서정보를 기초로 하는는 지면 영역 내에서 설정된 기준점의 화소를 기초로 환경 정보를 구성하는 노면(road surface) 정보를 결정하고, 공중 영역 내에서 설정된 기준점의 화소를 기초로 환경 정보를 구성하는 기상(weather) 정보를 결정할 수 있다.Then, based on the annotation device sensor information, road surface information constituting environmental information is determined based on pixels of reference points set in the ground area, and environment information is determined based on pixels of reference points set in the air area. It is possible to determine constituting weather information.

어노테이션 장치센서정보를 기초로 하는 어노테이션 작업의 대상이 되는 이미지의 가장자리를 구성하는 네 개의 선분 각각에 대하여 하나 이상의 기준점을 설정할 수 있다. 어노테이션 장치센서정보를 기초로 하는는 객체에 부여된 클래스를 기준으로 이미지 내에서 객체의 방향성을 판단할 수 있다.One or more reference points may be set for each of the four line segments constituting the edge of the image to be annotated based on the annotation device sensor information. Based on the annotation device sensor information, the orientation of the object within the image can be determined based on the class assigned to the object.

어노테이션 장치센서정보를 기초로 하는는 판단된 객체의 방향성을 기초로, 네 개의 선분 중에서 지면 선분과 공중 선분을 식별할 수 있다. 여기서, 지면 선분은 이미지의 가장자리를 구성하는 네 개의 선분 중에서 지면에 가장 가까운 선분이다. 공중 선분은 이미지의 가장자리를 구성하는 네 개의 선분 중에서 지면으로부터 가장 먼 선분이다.Based on the orientation of the object determined based on the annotation device sensor information, a ground segment and an air segment may be identified among four line segments. Here, the ground segment is a line segment closest to the ground among four line segments constituting the edge of the image. The mid-air segment is the farthest line segment from the ground among the four line segments constituting the edge of the image.

어노테이션 장치센서정보를 기초로 하는는 지면 선분 내에서 설정된 기준점의 화소를 기초로 환경 정보를 구성하는 노면 정보를 결정하고, 공중 선분 내에서 설정된 기준점의 화소를 기초로 환경 정보를 구성하는 기상 정보를 결정할 수 있다.Based on the annotation device sensor information, road surface information constituting environmental information is determined based on pixels of a reference point set in a ground segment, and weather information constituting environmental information is determined based on pixels of a reference point set in an aerial segment. can

본 발명의 일 실시예에 따른 학습 데이터 검증 장치센서정보를 기초로 하는는 어노테이션 작업 결과물의 메타데이터를 용이하게 검수할 수 있는 사용자 인터페이스(UI)를 제공할 수 있다.A learning data verification device according to an embodiment of the present invention based on sensor information may provide a user interface (UI) capable of easily inspecting metadata of annotation work results.

구체적으로, 학습 데이터 검증 장치센서정보를 기초로 하는는 메타데이터에 포함된 값에 대응된 도형(figure)으로 표현될 수 있도록, 이미지 그룹에 포함된 이미지들을 그래픽화(graphicalize)하여 사용자 인터페이스(UI)에 포함시킬 수 있다.Specifically, the user interface (UI) by graphicalizing the images included in the image group so that it can be expressed as a figure corresponding to the value included in the metadata based on the learning data verification device sensor information. can be included in

예를 들어, 학습 데이터 검증 장치센서정보를 기초로 하는는 이미지 그룹에 포함된 이미지들 각각을 메타데이터에 포함된 값에 대응하는 색상을 가지는 하나의 선분으로 표현할 수 있다. 학습 데이터 검증 장치센서정보를 기초로 하는는 이미지들의 촬영 선후에 따라 선분의 폭(width) 방향으로 각각의 선분을 연속적으로 배치하여 막대(bar) 형태의 그래픽을 구성할 수 있다. 그리고, 학습 데이터 검증 장치센서정보를 기초로 하는는 구성된 막대 형태의 그래픽을 사용자 인터페이스(UI)에 포함시켜 출력할 수 있다.For example, each of the images included in the image group based on the learning data verification device sensor information may be expressed as a line segment having a color corresponding to a value included in metadata. Based on the learning data verification device sensor information, bar-shaped graphics can be configured by continuously arranging each line segment in the width direction of the line segment according to the image before and after the images are taken. In addition, the configured bar-shaped graphic based on the learning data verification device sensor information may be included in the user interface (UI) and output.

따라서, 본 발명의 일 실시예에 따르면, 복수 개의 이미지들의 메타데이터를 한 눈에 쉽게 확인할 수 있으며, 다른 이미지들과 다르게 특이적인 메타데이터 값을 가지는 이미지를 직관적으로 식별할 수 있게 된다.Accordingly, according to an embodiment of the present invention, metadata of a plurality of images can be easily checked at a glance, and an image having a specific metadata value different from other images can be intuitively identified.

이하, 상술한 바와 같은 본 발명의 다양한 실시예에 따른 센서정보를 기초로 하는 메타테이터 큐레이션 가이드 제공 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램에 대하여, 구체적으로 설명하기로 한다. Hereinafter, a method for providing a metadata curation guide based on sensor information according to various embodiments of the present invention as described above and a computer program recorded on a recording medium to execute the method will be described in detail.

데이터 수집 서버는 어노테이션 서버에 primitive data를 제공하기에 앞서, primitive data가 비롯된 raw data의 촬영 환경이 변화되는 시점에 관한 정보를 제공할 수 있다. 이를 통하여, labeler는 raw data의 촬영 환경이 변화된 시점에만 높은 집중도로 큐레이션을 수행할 수 있다.Prior to providing primitive data to the annotation server, the data collection server may provide information about a time point at which the photographing environment of raw data including primitive data is changed. Through this, the labeler can perform curation with high concentration only at the time when the shooting environment of raw data has changed.

우선적으로, 데이터 수집 서버는 raw data(즉, image)를 정제(비식별화, 유사 데이터 제거 등)하여 primitive data를 생성하는 과정에서, raw data를 수집한 edge device(예를 들어, 차량)으로부터 촬영 시점 정보를 수신할 수 있다.First of all, the data collection server generates primitive data by refining raw data (ie, image) (de-identification, removal of similar data, etc.) from an edge device (eg, vehicle) that has collected raw data. Photographing time information may be received.

촬영 시점 정보에는 차량 light를 제어하는 조도 센서, camera의 촬영 설정 값, 차량의 rain sensor 등으로부터 수집한 정보가 포함된다.The shooting time information includes the information collected from the illuminance sensor that controls the vehicle light, the camera's shooting setting value, and the vehicle's rain sensor.

데이터 수집 서버는 수신된 촬영 시점 정보가 변화되는 시점을 촬영 환경이 변화되는 시점을 추정하고 이를 primitive data에 반영할 수 있다.The data collection server may estimate a time point at which the received photographing time information changes a time point at which a photographing environment changes, and may reflect this to primitive data.

예를 들어, 조도 센서에 의해 차량의 light가 점등/소등되는 시점이 밤/낮의 변화 시점 또는 터널 등의 진입 시점이 될 수 있다.For example, a time point at which lights of a vehicle are turned on/off by an illuminance sensor may be a time point at which night/day changes or a time point at which a vehicle enters a tunnel or the like.

극단적인 예를 들어, camera의 focus가 짧은 시간 안에 극적으로 변화되는 시점이 기상 조건 등이 변화되는 시점이 될 수 있다.As an extreme example, the point at which the camera's focus dramatically changes in a short period of time can be the point at which weather conditions change.

데이터 수집 서버는 촬영 환경이 변화된 image의 촬영 시점을 기준으로, labeler가 큐레이션 수행 시 유의해야 하는 특이점을 설정한 이후, 어노테이션 서버에 제공할 수 있다.The data collection server may set a singularity to be noted when labeler performs curation based on the capture time of the image in which the shooting environment is changed, and then provide the information to the annotation server.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으나, 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 선정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.As described above, although preferred embodiments of the present invention have been disclosed in the present specification and drawings, it is in the technical field to which the present invention belongs that other modified examples based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein. It is self-evident to those skilled in the art. In addition, although specific terms have been used in the present specification and drawings, they are only used in a general sense to easily explain the technical content of the present invention and help understanding of the present invention, but are not intended to limit the scope of the present invention. Accordingly, the foregoing detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be selected by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (5)

어노테이션 장치가, 인공지능(Artificial Intelligence, AI) 학습을 위한 어노테이션(annotation) 작업의 대상이 되는 객체에 대한 복수 개의 이미지를 수집하는 단계;
상기 어노테이션 장치가, 상기 수집된 이미지의 촬영 시점 정보를 획득하는 단계;
상기 어노테이션 장치가, 상기 이미지의 촬영 시점 정보를 기초로 상기 복수개의 이미지에 대한 환경 정보(environment information)를 비교하는 단계; 및
상기 어노테이션 장치가, 상기 복수 개의 이미지의 환경 정보의 변화를 판단하는 단계;를 포함하는, 센서정보를 기초로 하는 메타테이터 큐레이션 가이드 제공 방법.
Collecting, by an annotation device, a plurality of images of an object to be annotated for artificial intelligence (AI) learning;
obtaining, by the annotation device, information on a capturing point of time of the collected image;
Comparing, by the annotation device, environment information of the plurality of images based on photographing time information of the images; and
A method for providing a metadata curation guide based on sensor information, including determining, by the annotation device, a change in environmental information of the plurality of images.
제1항에 있어서,
상기 복수 개의 이미지는,
시계열적을 연속하여 수집된 이미지인 것을 특징으로 하는, 센서정보를 기초로 하는 메타테이터 큐레이션 가이드 제공 방법.
According to claim 1,
The plurality of images,
A method for providing a metadata curation guide based on sensor information, characterized in that the images are continuously collected in time series.
제1항에 있어서,
상기 촬영 시점 정보는,
차량 light를 제어하는 조도 센서, camera의 촬영 설정 값, 차량의 rain sensor 중 적어도 하나를 통해 수집한 정보를 포함하는 것을 특징으로 하는, 센서정보를 기초로 하는 메타테이터 큐레이션 가이드 제공 방법.
According to claim 1,
The photographing time information,
A method for providing a metadata curation guide based on sensor information, characterized in that it includes information collected through at least one of an illuminance sensor that controls vehicle light, a shooting set value of a camera, and a rain sensor of a vehicle.
제3항에 있어서,
상기 환경 정보의 변화를 판단하는 단계는,
상기 조도 센서에 의해 차량의 light가 점등 또는 소등되는 시점, 밤/낮의 변화 시점, 터널 진입 시점 중 어느 하나를 포함하여 판단하는 것을 특징으로 하는, 센서정보를 기초로 하는 메타테이터 큐레이션 가이드 제공 방법.
According to claim 3,
The step of determining the change of the environmental information,
Providing a metadata curation guide based on sensor information, characterized in that it is determined including any one of the time when the light of the vehicle is turned on or off by the illuminance sensor, the time of night / day change, and the time of entering the tunnel method.
메모리(memory);
송수신기(transceiver); 및
상기 메모리에 상주된 명령어를 처리하는 프로세서(processor)를 포함하여 구성된 컴퓨팅 장치와 결합되어,
상기 프로세서가, 어노테이션 장치가, 인공지능(Artificial Intelligence, AI) 학습을 위한 어노테이션(annotation) 작업의 대상이 되는 객체에 대한 복수 개의 이미지를 수집하는 단계;
상기 프로세서가, 상기 수집된 이미지의 촬영 시점 정보를 획득하는 단계;
상기 프로세서가, 상기 이미지의 촬영 시점 정보를 기초로 상기 복수개의 이미지에 대한 환경 정보(environment information)를 비교하는 단계; 및
상기 프로세서가, 상기 복수 개의 이미지의 환경 정보의 변화를 판단하는 단계;를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램.
memory;
transceiver; and
In combination with a computing device configured to include a processor for processing instructions resident in the memory,
Collecting, by the processor, a plurality of images of an object to be annotated for artificial intelligence (AI) learning by the annotation device;
acquiring, by the processor, photographing time point information of the collected image;
comparing, by the processor, environment information of the plurality of images based on photographing time information of the images; and
A computer program recorded on a recording medium to execute, by the processor, determining a change in environmental information of the plurality of images.
KR1020210136625A 2021-10-14 2021-10-14 Method for providing a meta data curation guide based on sensor information and a computer program recorded on a recording medium for executing the same KR20230053279A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210136625A KR20230053279A (en) 2021-10-14 2021-10-14 Method for providing a meta data curation guide based on sensor information and a computer program recorded on a recording medium for executing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210136625A KR20230053279A (en) 2021-10-14 2021-10-14 Method for providing a meta data curation guide based on sensor information and a computer program recorded on a recording medium for executing the same

Publications (1)

Publication Number Publication Date
KR20230053279A true KR20230053279A (en) 2023-04-21

Family

ID=86098435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210136625A KR20230053279A (en) 2021-10-14 2021-10-14 Method for providing a meta data curation guide based on sensor information and a computer program recorded on a recording medium for executing the same

Country Status (1)

Country Link
KR (1) KR20230053279A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200042629A (en) 2018-10-16 2020-04-24 주식회사 키센스 Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200042629A (en) 2018-10-16 2020-04-24 주식회사 키센스 Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor

Similar Documents

Publication Publication Date Title
KR102310598B1 (en) Method of creating data for machine learning using metadata, and computer program recorded on record-medium for executing method thereof
CN109255356A (en) A kind of character recognition method, device and computer readable storage medium
CN109934181A (en) Text recognition method, device, equipment and computer-readable medium
CN103189922A (en) Consolidating metadata relating to duplicate images
KR102389998B1 (en) De-identification processing method and a computer program recorded on a recording medium to execute the same
KR102403169B1 (en) Method for providing guide through image analysis, and computer program recorded on record-medium for executing method therefor
CN113033543B (en) Curve text recognition method, device, equipment and medium
WO2023001059A1 (en) Detection method and apparatus, electronic device and storage medium
CN107622497A (en) Image cropping method, apparatus, computer-readable recording medium and computer equipment
KR102310600B1 (en) Method of extracting data for machine learning based on bigdata, and computer program recorded on record-medium for executing method thereof
KR20200099271A (en) Method that provides and creates mosaic image based on image tag-word
CN112016545A (en) Image generation method and device containing text
CN115294483A (en) Small target identification method and system for complex scene of power transmission line
CN107430595A (en) For showing the method and system of identified text according to Fast Reading pattern
KR102433002B1 (en) Annotation method through multiple binding box selection and a computer program recorded on a recording medium to execute the same
US11348254B2 (en) Visual search method, computer device, and storage medium
Worzyk et al. Physical adversarial attacks by projecting perturbations
CN104067308A (en) Object selection in an image
CN104809438B (en) A kind of method and apparatus for detecting electronic eyes
KR102313947B1 (en) Assignment and inspection method of tracking identifier, and computer program recorded on record-medium for executing method thereof
US11232616B2 (en) Methods and systems for performing editing operations on media
KR102313942B1 (en) annotation method including object tracking data, and computer program recorded on record-medium for executing method thereof
KR102356914B1 (en) Method for automatically creation of metadata, and computer program recorded on record-medium for executing method therefor
KR20230053279A (en) Method for providing a meta data curation guide based on sensor information and a computer program recorded on a recording medium for executing the same
KR102439429B1 (en) Annotation method for easy object extraction and a computer program recorded on a recording medium to execute the annotation method