KR102389998B1 - De-identification processing method and a computer program recorded on a recording medium to execute the same - Google Patents

De-identification processing method and a computer program recorded on a recording medium to execute the same Download PDF

Info

Publication number
KR102389998B1
KR102389998B1 KR1020210183374A KR20210183374A KR102389998B1 KR 102389998 B1 KR102389998 B1 KR 102389998B1 KR 1020210183374 A KR1020210183374 A KR 1020210183374A KR 20210183374 A KR20210183374 A KR 20210183374A KR 102389998 B1 KR102389998 B1 KR 102389998B1
Authority
KR
South Korea
Prior art keywords
identified object
extracted
identification processing
learning
image
Prior art date
Application number
KR1020210183374A
Other languages
Korean (ko)
Inventor
노성운
오승진
Original Assignee
주식회사 인피닉
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인피닉 filed Critical 주식회사 인피닉
Priority to KR1020210183374A priority Critical patent/KR102389998B1/en
Application granted granted Critical
Publication of KR102389998B1 publication Critical patent/KR102389998B1/en
Priority to PCT/KR2022/007660 priority patent/WO2023120831A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0056Geometric image transformation in the plane of the image the transformation method being selected according to the characteristics of the input image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

The present invention provides a de-identification processing method where personal information from data for machine learning of artificial intelligence (AI) is subjected to de-identification processing. The de-identification processing method comprises the following steps of: allowing a learning data generator to identify an object included in a previously collected 2D image for machine learning of AI; and allowing the learning data generator to subject a part of the identified object to de-identification processing in correspondence to a type of the identified object. According to the present invention, an object included in the collected 2D image is identified and a part of the identified object can be subjected to de-identification processing in correspondence to a type of the identified object. That is, the whole portion of the identified object is not subjected to de-identification processing, but only a partial area of the identified object is selectively subjected to de-identification processing, thereby preventing personal information from being leaked and enhancing learning efficiency of machine learning.

Description

비식별 처리 방법 및 이를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램{De-identification processing method and a computer program recorded on a recording medium to execute the same}De-identification processing method and a computer program recorded on a recording medium to execute the same

본 발명은 인공지능(Artificial Intelligence, AI) 학습용 데이터의 가공에 관한 것이다. 보다 상세하게는, 인공지능(AI)의 기계 학습용 데이터에서 개인정보를 비식별 처리하는 비식별 처리 방법 및 이를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램에 관한 것이다.The present invention relates to the processing of data for artificial intelligence (AI) learning. More specifically, it relates to a de-identification processing method for de-identifying personal information in data for machine learning of artificial intelligence (AI), and a computer program recorded on a recording medium for executing the de-identification processing method.

인공지능(AI)은 인간의 학습능력, 추론능력 및 지각능력 등의 일부 또는 전부를 컴퓨터 프로그램을 이용하여 인공적으로 구현하는 기술을 의미한다. 인공지능(AI)과 관련하여, 기계 학습(machine learning)은 다수의 파라미터로 구성된 모델을 이용하여 주어진 데이터로 파라미터를 최적화하는 학습을 의미한다. 이와 같은, 기계 학습은 학습용 데이터의 형태에서 따라, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 및 강화 학습(reinforcement learning)으로 구분된다.Artificial intelligence (AI) refers to a technology that artificially implements some or all of human learning ability, reasoning ability, and perception ability using computer programs. In relation to artificial intelligence (AI), machine learning refers to learning to optimize parameters with given data using a model composed of multiple parameters. Such machine learning is classified into supervised learning, unsupervised learning, and reinforcement learning according to the type of data for learning.

일반적으로, 인공지능(AI) 학습용 데이터의 설계는 데이터 구조의 설계, 데이터의 수집, 데이터의 정제, 데이터의 가공, 데이터의 확장 및 데이터의 검증 단계로 진행된다.In general, the design of data for artificial intelligence (AI) learning proceeds in the stages of data structure design, data collection, data purification, data processing, data expansion, and data verification.

각각의 단계에서 대하여 보다 구체적으로 설명하면, 데이터 구조의 설계는 온톨로지(ontology) 정의, 분류 체계의 정의 등을 통해 이루어진다. 데이터의 수집은 직접 촬영, 웹 크롤링(web crawling) 또는 협회/전문 단체 등을 통해 데이터를 수집하여 이루어진다. 데이터 정제는 수집된 데이터 내에서 중복 데이터를 제거하고, 개인 정보 등을 비식별화하여 이루어진다. 데이터의 가공은 어노테이션(annotation)을 수행하고, 메타데이터(metadata)를 입력하여 이루어진다. 데이터의 확장은 온톨로지 매핑(mapping)을 수행하고, 필요에 따라 온톨로지를 보완하거나 확장하여 이루어진다. 그리고, 데이터의 검증은 다양한 검증 도구를 활용하여 설정된 목표 품질에 따른 유효성을 검증하여 이루어진다.To describe each step in more detail, the design of the data structure is made through the definition of an ontology, a definition of a classification system, and the like. Data collection is performed by collecting data through direct shooting, web crawling, or association/professional organizations. Data purification is performed by removing duplicate data from the collected data and de-identifying personal information. Data processing is performed by performing annotations and inputting metadata. Data expansion is performed by performing ontology mapping, and supplementing or extending the ontology as necessary. And, the verification of the data is performed by verifying the validity according to the set target quality using various verification tools.

한편, 차량의 자율주행(automatic driving)은 차량 스스로 판단하여 주행할 수 있는 시스템을 의미한다. 이와 같은, 자율주행은 시스템이 주행에 관여하는 정도와 운전차가 차량을 제어하는 정도에 따라 비자동화부터 완전 자동화까지 점진적인 단계로 구분될 수 있다. 일반적으로, 자율주행의 단계는 국제자동차기술자협회(SAE(Society of Automotive Engineers) International)에서 분류한 6단계의 레벨로 구분된다. 국제자동차기술자협회가 분류한 6단계에 따르면, 레벨 0단계는 비자동화, 레벨 1단계는 운전자 보조, 레벨 2단계는 부분 자동화, 레벨 3단계는 조건부 자동화, 레벨 4단계는 고도 자동화, 그리고 레벨 5단계는 완전 자동화 단계이다.Meanwhile, automatic driving of a vehicle refers to a system capable of driving by determining the vehicle itself. Such autonomous driving may be divided into gradual stages from non-automation to full automation according to the degree to which the system is involved in driving and the degree to which the driver controls the vehicle. In general, the stage of autonomous driving is divided into six levels classified by the Society of Automotive Engineers (SAE) International. According to the six levels classified by the International Association of Automobile Engineers, Level 0 is non-automated, Level 1 is driver assistance, Level 2 is partial automation, Level 3 is conditional automation, Level 4 is highly automated, and Level 5 is The steps are fully automated steps.

차량의 자율주행은 인지(perception), 측위(localization), 경로 계획(path planning) 및 제어(control)의 메커니즘을 통해 수행된다. 현재 여러 기업체들은 자율주행 메커니즘 중에서 인지 및 경로 계획을 인공지능(AI)을 이용하여 구현하기 위해 개발 중에 있다. 그리고, 자율주행에 사용될 수 있는 인공지능(AI)의 기계 학습에 사용되는 데이터는 적게는 몇 천개에서, 많게는 수 백만개에 이르는 많은 수로 이루어진다. Autonomous driving of a vehicle is performed through mechanisms of perception, localization, path planning, and control. Currently, several companies are developing to implement cognitive and path planning among autonomous driving mechanisms using artificial intelligence (AI). And, the data used for machine learning of artificial intelligence (AI) that can be used for autonomous driving consists of a large number ranging from a few thousand to a maximum of several million.

이와 같이, 수집된 인공지능(AI)의 기계 학습에 사용되는 데이터는 일반적으로 카메라에 의해 촬영된 이미지들이기 때문에, 시계열적으로 연속하여 수집된 데이터로 촬영 환경에 따라 유사한 이미지가 연속적으로 존재하는 경우가 많다. 이에 따라, 어노테이션(annotation) 작업을 수행하는 작업자들은 메타 데이터(meta data)를 입력하는 큐레이션(curation) 과정에서 유사한 이미지에 대해서 반복되는 작업을 연속적으로 수행하여야 하기 때문에 작업 집중도가 저하되는 문제점이 있었다.As such, since the collected data used for machine learning of artificial intelligence (AI) is generally images captured by a camera, it is time-series continuously collected data, and similar images continuously exist depending on the shooting environment. there are many Accordingly, there is a problem that the concentration of work is lowered because workers who perform annotation work have to continuously perform repetitive work on similar images in the process of curation for inputting meta data. there was.

또한, 수집된 인공지능(AI)의 기계 학습에 사용되는 데이터는 기계 학습에 직접 연관된 객체를 포함하는지 여부, 대상이 되는 날씨 정보, 위치 정보에 따라 중요도가 다르다. 여기서 인공지능(AI)의 기계 학습에 사용되는 데이터에 중요도가 상대적으로 낮은 데이터들이 다수 존재할 경우, 기계 학습의 학습 효율이 떨어지는 문제점이 있었다.In addition, the importance of the collected artificial intelligence (AI) data used for machine learning differs depending on whether it includes an object directly related to machine learning, the target weather information, and location information. Here, when a large number of data of relatively low importance exist in the data used for machine learning of artificial intelligence (AI), there is a problem in that the learning efficiency of machine learning is lowered.

또한 수집된 인공지능(AI)의 기계 학습에 사용되는 데이터 중 차량 번호판, 보행자 얼굴 등의 개인 정보(personal information)를 포함하고 있는 데이터는 개인 정보가 유출되지 않도록 비식별화 처리해야 한다. 대표적으로 비식별화 처리 방법은 블러링(blurring) 처리 또는 딥-페이크(deep fake) 처리가 될 수 있다. 그러나, 이와 같은 비식별화 처리 방법은 개인 정보 유출을 방지할 수는 있으나, 객체가 불분명 해지거나 다른 이미지로 대체되기 때문에 기계 학습의 학습 효율이 떨어지는 문제점이 있었다.In addition, among the collected data used for machine learning of artificial intelligence (AI), data containing personal information such as license plates and pedestrian faces must be de-identified to prevent personal information from being leaked. Typically, the de-identification processing method may be a blurring processing or a deep fake processing. However, although this de-identification processing method can prevent personal information leakage, there is a problem in that the learning efficiency of machine learning is lowered because the object becomes unclear or is replaced with another image.

대한민국 공개특허공보 제10-2020-0042629호, ‘인공지능 학습을 위한 모바일 기기의 터치 기반 어노테이션과 이미지 생성 방법 및 그 장치’, (2020.04.24. 공개)Korean Patent Application Laid-Open No. 10-2020-0042629, ‘Method for generating touch-based annotations and images in mobile devices for artificial intelligence learning, and device therefor’, (published on April 24, 2020)

본 발명의 일 목적은 인공지능(AI)의 기계 학습용 데이터에서 개인정보를 비식별 처리하는 비식별 처리 방법을 제공하는 것이다.One object of the present invention is to provide a de-identification processing method for de-identifying personal information in data for machine learning of artificial intelligence (AI).

본 발명의 다른 목적은 인공지능(AI)의 기계 학습용 데이터에서 개인정보를 비식별 처리하는 비식별 처리 방법을 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램을 제공하는 것이다.Another object of the present invention is to provide a computer program recorded on a recording medium to execute a de-identification processing method for de-identifying personal information in data for machine learning of artificial intelligence (AI).

상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 학습 데이터 생성 장치가, 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 사전에 수집된 2D 이미지에 포함된 객체를 식별하는 단계 및 상기 학습 데이터 생성 장치가, 상기 식별된 객체의 유형에 대응하여 상기 식별된 객체의 일부를 비식별(de-identify) 처리하는 단계를 포함할 수 있다.In order to achieve the technical task as described above, the present invention provides a learning data generating device that identifies an object included in a 2D image collected in advance for machine learning of artificial intelligence (AI). and de-identifying, by the apparatus for generating learning data, a portion of the identified object corresponding to the type of the identified object.

구체적으로, 상기 비식별 처리하는 단계는 상기 식별된 객체의 일부를 블러링(blurring) 처리하여 상기 비식별 처리를 수행하되, 상기 식별된 객체에서 랜드 마크(land mark)를 추출하고, 추출된 랜드 마크에 블러링 처리를 수행할 수 있다.Specifically, the de-identification processing includes performing the de-identification processing by blurring a part of the identified object, extracting a landmark from the identified object, and extracting the land Blur processing can be performed on the mark.

상기 비식별 처리하는 단계는 상기 식별된 객체의 일부를 블러링(blurring) 처리하여 상기 비식별 처리를 수행하되, 상기 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지를 기반으로 블러링 처리를 수행할 수 있다.The de-identification process performs the de-identification process by blurring a part of the identified object, extracting an edge of the identified object, and blurring based on the extracted edge processing can be performed.

상기 비식별 처리하는 단계는 상기 추출된 엣지로부터 사전에 설정된 임계 픽셀(pixel)의 개수만큼 이격되도록 블러 처리를 수행할 수 있다.In the de-identification process, blur processing may be performed so as to be spaced apart from the extracted edge by a preset number of threshold pixels.

상기 비식별 처리하는 단계는 상기 식별된 객체의 일부를 비식별 처리하되, 상기 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지의 패턴을 변경할 수 있다.The de-identification processing may include de-identifying a portion of the identified object, extracting an edge of the identified object, and changing a pattern of the extracted edge.

상기 비식별 처리하는 단계는 상기 추출된 엣지를 기계 학습의 대상이 되는 지역의 체형 및 얼굴형 중 적어도 하나를 고려하여 상기 추출된 엣지의 패턴을 변경할 수 있다.In the de-identification process, the pattern of the extracted edge may be changed in consideration of at least one of a body shape and a face shape of a region subject to machine learning with respect to the extracted edge.

상기 비식별 처리하는 단계는 상기 식별된 객체의 일부를 딥-페이크(deep-fake) 처리하여 상기 비식별 처리를 수행하되, 상기 식별된 객체에서 랜드 마크(land mark)를 추출하여, 추출된 랜드 마크를 해당 랜드 마크 유형에 맞는 다른 이미지로 대체할 수 있다.In the de-identification process, a part of the identified object is deep-fake-processed to perform the de-identification process, and a landmark is extracted from the identified object, the extracted land You can replace the mark with another image that is appropriate for that type of landmark.

상기 비식별 처리하는 단계는 상기 추출된 랜드 마크를 해당 랜드 마크 유형에 맞게 사전에 저장된 랜드 마크 이미지 중 유사도가 사전에 설정된 임계 값보다 높은 랜드 마크 이미지로 대체할 수 있다.In the de-identification process, the extracted landmark may be replaced with a landmark image having a similarity higher than a preset threshold value among landmark images stored in advance according to the landmark type.

상기 비식별 처리하는 단계는 상기 식별된 객체의 일부를 딥-페이크(deep-fake) 처리하여 1차 비식별 처리를 수행한 후에, 상기 1차 비식별 처리된 객체의 일부를 블러링(blurring) 처리하여 2차 비식별 처리를 수행할 수 있다.In the de-identification processing step, after performing the primary de-identification processing by deep-fake processing a portion of the identified object, a portion of the primary de-identification processing object is blurred (blurring) can be processed to perform secondary de-identification processing.

상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 객체의 일부를 비식별 처리할 수 있는 비식별 처리 방법을 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램을 제안한다. 상기 컴퓨터 프로그램은 메모리(memory), 송수신기(transceiver) 및 상기 메모리에 상주된 명령어를 처리하는 프로세서(processor)를 포함하여 구성된 컴퓨팅 장치와 결합되어, 상기 프로세서가, 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 사전에 수집된 2D 이미지에 포함된 객체를 식별하는 단계 및 상기 프로세서가, 상기 식별된 객체의 유형에 대응하여 상기 식별된 객체의 일부를 비식별(de-identify) 처리하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.In order to achieve the technical problem as described above, the present invention proposes a computer program recorded on a recording medium to execute a de-identification processing method capable of de-identifying a part of an object. The computer program is combined with a computing device comprising a memory, a transceiver, and a processor for processing instructions resident in the memory, so that the processor is an artificial intelligence (AI) Identifying an object included in a 2D image previously collected for machine learning, and the processor de-identifies a portion of the identified object corresponding to the type of the identified object In order to execute the processing step, it may be a computer program recorded on a recording medium.

본 발명의 실시 예들에 따르면, 수집된 2D 이미지에 포함된 객체를 식별하고, 식별된 객체의 유형에 대응하여 식별된 객체의 일부를 비식별(de-identify) 처리할 수 있다. 즉 식별된 객체의 전체를 비식별 처리하지 않고, 식별된 객체 중 일부 영역만을 선택적으로 비식별 처리함으로써, 개인 정보 유출을 방지하면서 기계 학습의 학습 효율을 향상시킬 수 있다.According to embodiments of the present invention, an object included in a collected 2D image may be identified, and a portion of the identified object may be de-identified in response to the identified object type. That is, by selectively de-identifying only some areas of the identified objects without de-identifying the entire identified object, it is possible to improve the learning efficiency of machine learning while preventing personal information leakage.

도 1은 본 발명의 일 실시예에 따른 인공지능 학습 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 학습 데이터 수집 장치의 논리적 구성도이다.
도 3은 본 발명의 일 실시예에 따른 학습 데이터 수집 장치의 하드웨어 구성도이다.
도 4는 본 발명의 일 실시예에 따른 학습 데이터 생성 장치의 논리적 구성도이다.
도 5는 본 발명의 일 실시예에 따른 학습 데이터 생성 장치의 하드웨어 구성도이다.
도 6은 본 발명의 일 실시예에 따른 가이드 제공 방법을 설명하기 위한 순서도이다.
도 7은 본 발명의 일 실시예에 따른 데이터 정제 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 일 실시예에 따른 비식별 처리 방법을 설명하기 위한 순서도이다.
도 9 및 도 10은 본 발명의 일 실시예에 따른 가이드 제공 방법을 설명하기 위한 예시도이다.
도 11은 본 발명의 다른 실시예에 따른 가이드 제공 방법을 설명하기 위한 예시도이다.
도 12는 본 발명의 일 실시예에 따른 데이터 정제 방법을 설명하기 위한 예시도이다.
도 13 내지 도 16은 본 발명의 일 실시예에 따른 비식별 처리 방법을 설명하기 위한 예시도이다.
도 17은 본 발명의 일 실시예에 따른 데이터 정제 방법을 설명하기 위한 순서도이다.
도 18은 본 발명의 일 실시예에 따라 데이터를 정제하는 과정을 설명하기 위한 예시도이다.
1 is a block diagram of an artificial intelligence learning system according to an embodiment of the present invention.
2 is a logical configuration diagram of an apparatus for collecting learning data according to an embodiment of the present invention.
3 is a hardware configuration diagram of an apparatus for collecting learning data according to an embodiment of the present invention.
4 is a logical configuration diagram of an apparatus for generating learning data according to an embodiment of the present invention.
5 is a hardware configuration diagram of an apparatus for generating learning data according to an embodiment of the present invention.
6 is a flowchart illustrating a guide providing method according to an embodiment of the present invention.
7 is a flowchart illustrating a data purification method according to an embodiment of the present invention.
8 is a flowchart illustrating a de-identification processing method according to an embodiment of the present invention.
9 and 10 are exemplary views for explaining a guide providing method according to an embodiment of the present invention.
11 is an exemplary view for explaining a guide providing method according to another embodiment of the present invention.
12 is an exemplary diagram for explaining a data purification method according to an embodiment of the present invention.
13 to 16 are exemplary views for explaining a de-identification processing method according to an embodiment of the present invention.
17 is a flowchart illustrating a data purification method according to an embodiment of the present invention.
18 is an exemplary diagram for explaining a process of refining data according to an embodiment of the present invention.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in this specification should be interpreted as meanings generally understood by those of ordinary skill in the art to which the present invention belongs, unless otherwise specifically defined in this specification, and excessively inclusive It should not be construed in the meaning of a human being or in an excessively reduced meaning. In addition, when the technical terms used in the present specification are incorrect technical terms that do not accurately express the spirit of the present invention, they should be understood by being replaced with technical terms that can be correctly understood by those skilled in the art. In addition, the general terms used in the present invention should be interpreted according to the definition in the dictionary or according to the context before and after, and should not be interpreted in an excessively reduced meaning.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, as used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "consisting of" or "having" should not be construed as necessarily including all of the various components or various steps described in the specification, and some of the components or some steps are included. It should be construed that it may not, or may further include additional components or steps.

또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Also, terms including ordinal numbers such as first, second, etc. used herein may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but another component may exist in between. On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다. 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다. Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. In addition, in the description of the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easy understanding of the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings. The spirit of the present invention should be interpreted as extending to all changes, equivalents or substitutes other than the accompanying drawings.

상술한 바와 같이, 어노테이션(annotation) 작업을 수행하는 작업자들은 메타 데이터(meta data)를 입력하는 큐레이션(curation) 과정에서 유사한 이미지에 대해서 반복되는 작업을 연속적으로 수행하여야 하기 때문에 작업 집중도가 저하되는 문제점이 있었다. 또한 인공지능(AI)의 기계 학습에 사용되는 데이터에 중요도가 상대적으로 낮은 데이터들이 다수 존재할 경우, 기계 학습의 학습 효율이 떨어지는 문제점이 있었다. 또한 비식별화 처리 방법은 개인 정보 유출을 방지할 수는 있으나, 객체가 불분명 해지거나 다른 이미지로 대체되기 때문에 기계 학습의 학습 효율이 떨어지는 문제점이 있었다.As described above, since workers who perform annotation work have to continuously perform repetitive tasks on similar images in the process of curation for inputting meta data, work concentration is lowered. There was a problem. In addition, when there are a lot of data of relatively low importance in the data used for machine learning of artificial intelligence (AI), there is a problem in that the learning efficiency of machine learning is lowered. In addition, the de-identification processing method can prevent personal information leakage, but there is a problem in that the learning efficiency of machine learning is lowered because the object becomes unclear or is replaced with another image.

이러한 한계를 극복하고자, 본 발명은 인공지능(AI)을 기계 학습하기 위한 데이터의 어노테이션(annotation) 작업에 도움이 될 수 있는 가이드 정보를 2D 이미지들과 함께 제공하고, 사전에 수집된 2D 이미지를 중요도에 따라 정제하고, 기계 학습용 데이터에서 개인정보를 비식별 처리하는 수단들을 제안하고자 한다.In order to overcome this limitation, the present invention provides guide information that can be helpful in annotation work of data for machine learning artificial intelligence (AI) together with 2D images, and collects 2D images in advance. We intend to propose means for refining according to importance and de-identifying personal information in data for machine learning.

도 1은 본 발명의 일 실시예에 따른 인공지능 학습 시스템의 구성도이다.1 is a block diagram of an artificial intelligence learning system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인공지능 학습 시스템은 복수의 학습 데이터 수집 장치(100a, 100b, …, 100n; 100)), 학습 데이터 생성 장치(200), 복수의 어노테이션 장치(300a, 300b, …, 300n; 300) 및 인공지능 학습 장치(400)를 포함하여 구성될 수 있다.1, the artificial intelligence learning system according to an embodiment of the present invention includes a plurality of learning data collection devices 100a, 100b, ..., 100n; 100), a learning data generating device 200, a plurality of It may be configured to include the annotation devices 300a, 300b, ..., 300n; 300 and the artificial intelligence learning device 400 .

이와 같은, 일 실시예에 따른 인공지능 학습 시스템의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.As such, since the components of the AI learning system according to an embodiment are merely functionally distinct elements, two or more components are integrated with each other in the actual physical environment, or one component is the actual physical environment. may be implemented separately from each other.

각각의 구성 요소에 대하여 설명하면, 학습 데이터 수집 장치(100)는 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습시키기 위한 데이터를 수집하기 위하여, 차량에 설치된 라이다(lidar), 카메라(camera), 레이더(radar), 초음파 센서(ultrasonic sensor), 레인 센서(rain sensor), 위치 측정 센서 및 속도 감지 센서 중 하나 이상으로부터 실시간으로 데이터를 수집하는 장치이다.When explaining each component, the learning data collection device 100 collects data for machine learning artificial intelligence (AI) that can be used for autonomous driving, a lidar installed in a vehicle, a camera ( A device that collects data in real time from at least one of a camera), a radar, an ultrasonic sensor, a rain sensor, a position measuring sensor, and a speed detecting sensor.

특징적으로, 본 발명의 다양한 실시예에 따른 학습 데이터 수집 장치(100)는 수집된 2D 이미지들에 대한 정보를 추출하고, 수집된 2D 이미지들에 대한 정보를 기준으로, 수집된 2D 이미지들의 초당 프레임 수(frame per second)를 결정하고, 결정된 초당 프레임 수에 해당하는 2D 이미지들을 학습 데이터 생성 장치(200)에 전송할 수 있다.Characteristically, the learning data collection apparatus 100 according to various embodiments of the present invention extracts information on the collected 2D images, and frames per second of the collected 2D images based on the information on the collected 2D images The number of frames per second may be determined, and 2D images corresponding to the determined number of frames per second may be transmitted to the training data generating apparatus 200 .

즉 학습 데이터 수집 장치(100)는 수집된 2D 이미지들 중에 연속된 2D 이미지 사이의 유사도를 기준으로 학습 데이터 생성 장치(200)에 전송할 2D 이미지들의 초당 프레임 수를 결정할 수 있다.That is, the learning data collection apparatus 100 may determine the number of frames per second of the 2D images to be transmitted to the learning data generating apparatus 200 based on the similarity between consecutive 2D images among the collected 2D images.

또한 학습 데이터 수집 장치(100)는 2D 이미지를 수집하는 시점의 속도 정보, 날씨 정보, 센서 동작 정보 및 GPS 좌표 정보 중 적어도 하나를 포함하는 메타 데이터를 통해 기계 학습에 대한 영향도를 산출하고, 산출된 영향도를 기준으로 학습 데이터 생성 장치(200)에 전송할 2D 이미지들의 초당 프레임 수를 결정할 수 있다.In addition, the learning data collection device 100 calculates and calculates the degree of influence on machine learning through metadata including at least one of speed information, weather information, sensor operation information, and GPS coordinate information at the time of collecting the 2D image The number of frames per second of the 2D images to be transmitted to the learning data generating apparatus 200 may be determined based on the obtained influence.

이러한, 학습 데이터 수집 장치(100)의 제어 대상이자, 차량에 설치되어 기계 학습용 데이터를 획득, 촬영 또는 감지하는 센서의 종류에는 라이다(lidar), 카메라(camera), 레이더(radar), 초음파 센서(ultrasonic sensor), 레인 센서(rain sensor), 위치 측정 센서 및 속도 감지 센서 중 하나 이상이 포함될 수 있으나, 이에 한정되는 것은 아니다. 또한, 학습 데이터 수집 장치(100)의 제어 대상이자, 차량에 설치되어 기계 학습용 데이터를 획득, 촬영 또는 감지하는 센서는 종류별로 하나씩 구비되는 것으로 한정되지 아니하며, 동일한 종류의 센서라 할지라도 복수 개로 구비될 수 있다.The types of sensors that are control objects of the learning data collection device 100 and installed in a vehicle to acquire, photograph, or detect data for machine learning include lidar, camera, radar, and ultrasonic sensor. (Ultrasonic sensor), a rain sensor (rain sensor), may include one or more of a position measurement sensor and a speed detection sensor, but is not limited thereto. In addition, the control target of the learning data collection device 100 and the sensor installed in the vehicle to acquire, photograph, or detect data for machine learning is not limited to being provided one for each type, and a plurality of sensors even of the same type are provided. can be

다음 구성으로, 학습 데이터 생성 장치(200)는 차량의 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습시키기 위한 데이터를 설계 및 생성하는데 사용될 수 있는 장치이다. With the following configuration, the learning data generating device 200 is a device that can be used to design and generate data for machine learning artificial intelligence (AI) that can be used for autonomous driving of a vehicle.

이와 같은, 학습 데이터 생성 장치(200)는 기본적으로 학습 데이터 검증 장치(400)와 구분되는 장치이나, 실제 물리적 환경에서 학습 데이터 생성 장치(200)와 학습 데이터 검증 장치(400)가 하나의 장치로 통합되어 구현될 수도 있다.As such, the learning data generating apparatus 200 is basically a device distinct from the learning data verifying apparatus 400, but in an actual physical environment, the learning data generating apparatus 200 and the learning data verifying apparatus 400 are one device. It may be integrated and implemented.

특징적으로, 본 발명의 실시예들에 따른 학습 데이터 생성 장치(200)는 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 사전에 수집된 2D 이미지들을 분석하여 특이점을 추출하고, 추출된 특이점을 어노테이션 장치(300)가 어노테이션(annotation) 작업을 수행하기 위한 가이드 정보로 가공하여, 2D 이미지들과 함께 제공할 수 있다.Characteristically, the learning data generating apparatus 200 according to embodiments of the present invention extracts a singularity by analyzing the 2D images collected in advance for machine learning of artificial intelligence (AI), The extracted singularity may be processed by the annotation apparatus 300 as guide information for performing an annotation operation, and may be provided together with 2D images.

또한 본 발명의 실시예들에 따른 학습 데이터 생성 장치(200)는 학습 데이터 수집 장치로부터 인공지능(AI)의 기계 학습을 위해 수집된 2D 이미지와 함께 2D 이미지와 관련한 촬영 정보를 수신하고, 촬영 정보를 분석하여 특이점을 추출하고, 추출된 특이점을 어노테이션 장치(300)가 어노테이션 작업을 수행하기 위한 가이드 정보로 가공하여, 2D 이미지들과 함께 어노테이션 장치(300)에 제공할 수 있다.In addition, the learning data generating apparatus 200 according to embodiments of the present invention receives shooting information related to the 2D image together with the 2D image collected for machine learning of artificial intelligence (AI) from the learning data collecting device, and shooting information may be analyzed to extract a singularity, and the extracted singularity may be processed into guide information for the annotation operation to be performed by the annotation apparatus 300 and provided to the annotation apparatus 300 together with 2D images.

또한 본 발명의 실시예들에 따른 학습 데이터 생성 장치(200)는 인공지능(AI)의 기계 학습을 위해 사전에 수집된 2D 이미지들을 분석하여 중요도를 평가하고, 평가된 중요도에 따라 수집된 2D 이미지들 중 적어도 하나의 2D 이미지를 정제할 수 있다.In addition, the learning data generating apparatus 200 according to embodiments of the present invention analyzes the 2D images collected in advance for machine learning of artificial intelligence (AI) and evaluates the importance, and the 2D images collected according to the evaluated importance At least one of the 2D images may be refined.

또한 본 발명의 실시예들에 따른 학습 데이터 생성 장치(200)는 인공지능(AI)의 기계 학습을 위해 사전에 수집된 2D 이미지에 포함된 객체를 식별하고, 식별된 객체의 유형에 대응하여 식별된 객체의 일부를 비식별(de-identify) 처리할 수 있다.In addition, the learning data generating apparatus 200 according to embodiments of the present invention identifies an object included in a 2D image collected in advance for machine learning of artificial intelligence (AI), and identifies an object corresponding to the identified type of object It is possible to de-identify part of the object.

이와 같은 특징을 가지는, 학습 데이터 생성 장치(200)는 학습 데이터 수집 장치(100), 어노테이션 장치(300) 및 인공지능 학습 장치(400)와 데이터를 송수신하고, 송수신된 데이터를 기초로 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 학습 데이터 생성 장치(200)는 데스크탑(desktop), 워크스테이션(workstation) 또는 서버(server)와 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으나, 이에 한정되는 것은 아니다.The training data generating device 200 having such a characteristic transmits and receives data to and from the training data collection device 100 , the annotation device 300 , and the artificial intelligence learning device 400 , and performs an operation based on the transmitted/received data Any device that can do this is acceptable. For example, the learning data generating apparatus 200 may be any one of a fixed computing device such as a desktop, a workstation, or a server, but is not limited thereto.

다음 구성으로, 어노테이션 장치(300)는 학습 데이터 생성 장치(200)에 의해 배포된 2D 이미지들 또는 3D 점군 데이터에 대하여, 어노테이션(annotation) 작업을 수행하는데 사용될 수 있는 로컬 컴퓨팅 장치이다. 이와 같은, 어노테이션 장치(300)의 전부 또는 일부는 어노테이션 작업자가 클라우딩 서비스(clouding service)를 통해 어노테이션 작업을 수행하는 장치가 될 수도 있다.With the following configuration, the annotation device 300 is a local computing device that can be used to perform an annotation operation on 2D images or 3D point cloud data distributed by the training data generating device 200 . As such, all or a part of the annotation device 300 may be a device in which an annotator performs an annotation operation through a clouding service.

구체적으로, 어노테이션 장치(300)는 학습 데이터 생성 장치(200)로부터 수신된 2D 이미지들 또는 3D 점군 데이터 중에서 어노테이션 작업 대상이 되는 하나의 2D 이미지 또는 3D 점군 데이터를 디스플레이에 출력할 수 있다.Specifically, the annotation apparatus 300 may output one 2D image or 3D point cloud data to be annotated among the 2D images or 3D point cloud data received from the training data generating apparatus 200 to the display.

어노테이션 장치(300)는 입출력장치를 통해 사용자로부터 입력된 신호에 따라 툴(tool)을 선택할 수 있다. 여기서, 툴은 2D 이미지 또는 3D 점군 데이터 속에 포함되어 있는 하나 이상의 객체(object)를 특정하는 바운딩 박스를 설정하기 위한 도구이다. The annotation device 300 may select a tool according to a signal input from the user through the input/output device. Here, the tool is a tool for setting a bounding box specifying one or more objects included in a 2D image or 3D point cloud data.

어노테이션 장치(300)는 입출력장치를 통해 선택된 툴에 따른 좌표를 입력 받을 수 있다. 그리고, 어노테이션 장치(300)는 입력된 좌표를 기초로 바운딩 박스(bounding box)를 설정하여, 2D 이미지 또는 3D 점군 데이터 속에 포함된 객체를 특정할 수 있다. 여기서, 바운딩 박스는 이미지 속에 포함된 객체들 중에서 인공지능(AI) 학습의 대상이 되는 객체를 특정하기 위한 영역이다. 이와 같은, 바운딩 박스는 사각형(rectangle) 또는 정육면체(cube)의 형상을 가질 수 있으며, 이에 한정되는 것은 아니다.The annotation device 300 may receive coordinates according to the selected tool through the input/output device. In addition, the annotation apparatus 300 may specify an object included in the 2D image or 3D point cloud data by setting a bounding box based on the input coordinates. Here, the bounding box is an area for specifying an object to be subjected to artificial intelligence (AI) learning among objects included in the image. As such, the bounding box may have a shape of a rectangle or a cube, but is not limited thereto.

예를 들어, 어노테이션 장치(300)는 입출력장치를 통해 두 개의 좌표를 입력 받고, 입력된 두 좌표를 2D 이미지 내에서 좌상단 꼭지점(vertex)의 좌표와 우하단 꼭지점의 좌표로 가지는 사각형을 기초로 바운딩 박스를 설정하여, 2D 이미지 속에 포함된 객체를 특정할 수 있다. 이 경우, 두 개의 좌표는 사용자가 한 종류의 입력 신호를 두 번 입력(예들 들어, 마우스 클릭)하여 설정되거나, 사용자가 두 종류의 입력 신호를 한번씩 입력(예를 들어, 마우스 드래그)하여 설정될 수 있으나, 이에 한정되는 것은 아니다.For example, the annotation device 300 receives two coordinates through an input/output device, and uses the input two coordinates as the coordinates of the upper-left vertex and the coordinates of the lower-right vertex in the 2D image. Bounding based on a rectangle By setting the box, you can specify the object included in the 2D image. In this case, the two coordinates may be set by the user inputting one type of input signal twice (eg, clicking the mouse), or the user may inputting two types of input signals once (eg, dragging the mouse). However, the present invention is not limited thereto.

어노테이션 장치(300)는 입출력장치를 통해 사용자로부터 입력된 신호에 따라, 어노테이션 작업의 대상이 되는 2D 이미지 또는 3D 점군 데이터, 또는 설정된 객체에 대한 메타데이터(metadata)를 생성할 수 있다. 여기서, 메타데이터는 3D 점군 데이터 또는 2D 이미지와, 3D 점군 데이터 또는 2D 이미지로부터 특정된 객체를 설명하기 위한 데이터이다. 이와 같은, 메타데이터에는 3D 점군 데이터 또는 2D 이미지로부터 특정된 객체의 카테고리, 객체가 화각에 의해 잘려진 비율, 객체가 다른 객체 또는 물체에 의해 가려진 비율, 객체의 트래킹 아이디, 이미지가 촬영된 시각, 이미지가 촬영된 날의 기상 조건 등이 포함될 수 있으며, 이에 한정되지 아니하고, 파일 크기, 이미지 크기, 저작권자, 해상도, 비트 값, 조리개 투과량, 노출 시간, ISO 감도, 초점 거리, 조리개 개방 수치, 화각, 화이트 밸런스, RGB 깊이, 클래스 명, 태그, 촬영 장소, 도로의 유형, 도로 표면 정보 또는 교통 체증 정보가 더 포함될 수도 있다.The annotation apparatus 300 may generate 2D image or 3D point cloud data to be annotated, or metadata for a set object according to a signal input from a user through the input/output device. Here, the metadata is 3D point cloud data or 2D image and data for describing an object specified from 3D point cloud data or 2D image. Such metadata includes a category of an object specified from 3D point cloud data or a 2D image, the ratio of the object cut by the angle of view, the ratio of the object to another object or object, the tracking ID of the object, the time the image was taken, the image may include, but are not limited to, the weather conditions on the day that ' was taken, file size, image size, copyright holder, resolution, bit value, aperture transmission amount, exposure time, ISO sensitivity, focal length, aperture opening number, angle of view, white Balance, RGB depth, class name, tag, shooting location, type of road, road surface information or traffic jam information may be further included.

어노테이션 장치(300)는 2D 이미지 또는 3D 점군 데이터로부터 설정된 객체와 생성된 메타데이터를 기초로, 어노테이션 작업 결과물을 생성할 수 있다. 이 경우, 어노테이션 작업 결과물을 JSON(Java Script Object Notation) 파일 형식을 가질 수 있으나, 이에 한정되는 것은 아니다. 어노테이션 장치(300)는 생성된 어노테이션 작업 결과물을 학습 데이터 생성 장치(200)에 전송할 수 있다. 그리고, 어노테이션 장치(300)는 생성된 어노테이션 작업 결과물 외에도, 검증을 위하여 객체가 설정된 2D 이미지 또는 3D 점군 데이터를 학습 데이터 생성 장치(200)에 전송할 수 있다.The annotation apparatus 300 may generate an annotation work result based on an object set from the 2D image or 3D point cloud data and the generated metadata. In this case, the annotation operation result may have a JSON (Java Script Object Notation) file format, but is not limited thereto. The annotation apparatus 300 may transmit the generated annotation work result to the training data generating apparatus 200 . In addition to the generated annotation work result, the annotation apparatus 300 may transmit a 2D image or 3D point cloud data in which an object is set to the learning data generating apparatus 200 for verification.

특징적으로, 본 발명의 일 실시예에 따른 어노테이션 장치(300)는 입출력장치를 통해 사용자로부터 입력된 신호에 따라, 어노테이션 작업의 대상이 되는 2D 이미지 또는 3D 점군 데이터, 또는 설정된 객체에 대한 메타데이터(metadata)를 생성할 때, 학습 데이터 생성 장치(200)로부터 제공되는 가이드 정보를 함께 출력할 수 있다.Characteristically, the annotation device 300 according to an embodiment of the present invention provides 2D image or 3D point cloud data to be annotated according to a signal input from a user through an input/output device, or metadata for a set object ( metadata), guide information provided from the training data generating apparatus 200 may be output together.

여기서 가이드 정보는 2D 이미지들 중 촬영 환경이 변화되는 시점에 해당하는 구간이 될 수 있으며, 어노테이션 작업을 수행하는 작업자가 식별할 수 있도록 2D 이미지들과 함께 표시될 수 있다.Here, the guide information may be a section corresponding to a point in time when a photographing environment is changed among the 2D images, and may be displayed together with the 2D images so that a worker performing an annotation operation can identify it.

본 발명을 일 실시예에 따른 어노테이션 장치(300)는 어노테이션 작업 결과물과 객체가 설정된 2D 이미지 또는 3D 점군 데이터를 학습 데이터 생성 장치(200)에 전송하지 아니하고, 어노테이션 장치(300)를 구성하고 있는 입출력장치의 제어 데이터를 학습 데이터 생성 장치(200)에 전송할 수도 있다.The annotation apparatus 300 according to an embodiment of the present invention does not transmit the 2D image or 3D point cloud data in which the result of the annotation work and the object are set to the learning data generating apparatus 200, but the input/output constituting the annotation apparatus 300 Control data of the device may be transmitted to the training data generating device 200 .

여기서, 입출력장치의 제어 데이터는 어노테이션 장치(300)가 2D 이미지 또는 3D 점군 데이터에 대하여 어노테이션 작업을 수행하는 과정에서 사용자가 입출력장치를 제어하기 위하여 입력한 하나 이상의 신호를 시계열적으로 저장한 데이터가 될 수 있다. 여기서, 사용자는 작업자, 수행자, 라벨러 또는 데이터 라벨러 등으로 지칭될 수 있으며, 이에 한정되는 것은 아니다.Here, the control data of the input/output device is data stored in time-series of one or more signals input by the user to control the input/output device while the annotation device 300 performs an annotation operation on the 2D image or 3D point cloud data. can be Here, the user may be referred to as an operator, performer, labeler, or data labeler, but is not limited thereto.

예를 들어, 어노테이션 장치(300)가 이벤트-주도 아키텍처(event-driven architecture)에 따른 운영체제(operating system)에 의해 구동되는 경우, 입출력장치의 제어 데이터에 포함된 하나 이상의 신호는 어노테이션 장치(200)의 입출력장치의 제어에 대응하여 운영체제에 의해 생성된 이벤트 메시지(event message)가 될 수 있다. 그리고, 어노테이션 장치(300)는 운영체제에 의해 생성된 이벤트 메시지가 선입선출(first-in first-out) 구조로 저장된 시스템 큐(system queue)를 복제하여 입출력장치의 제어 데이터를 생성할 수도 있다. For example, when the annotation device 300 is driven by an operating system according to an event-driven architecture, one or more signals included in the control data of the input/output device are the annotation device 200 . It may be an event message generated by the operating system in response to the control of the input/output device. Also, the annotation device 300 may generate control data of the input/output device by duplicating a system queue in which event messages generated by the operating system are stored in a first-in first-out structure.

보다 구체적인 예로, 어노테이션 장치(300)의 운영체제가 윈도우즈(windows)에 해당하는 경우, 입출력장치의 제어 데이터에는 마우스의 왼쪽 버튼 클릭에 대응하여 생성된 WM_LBUUTONDOWN, 키보드의 입력에 대응하여 생성된 WM_KEYDOWN 등의 이벤트 메시지가 포함될 수 있다.As a more specific example, when the operating system of the annotation device 300 corresponds to Windows, the control data of the input/output device includes WM_LBUTONDOWN generated in response to a left button click of the mouse, WM_KEYDOWN generated in response to a keyboard input, etc. Event messages may be included.

상술한 바와 같은 특징을 가지는, 어노테이션 장치(300)는 학습 데이터 생성 장치(200)와 데이터를 송수신하고, 송수신된 데이터를 기초로 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 어노테이션 장치(300)는 데스크탑, 워크스테이션 또는 서버와 같은 고정식 컴퓨팅 장치, 또는 스마트폰(smart phone), 랩탑(laptap), 태블릿(tablet), 패블릿(phablet), 휴대용 멀티미디어 재생장치(Portable Multimedia Player, PMP), 개인용 휴대 단말기(Personal Digital Assistants, PDA) 또는 전자책 단말기(E-book reader)과 같은 이동식 컴퓨팅 장치 중 어느 하나가 될 수 있다.The annotation device 300 having the above-described characteristics may be any device as long as it is a device capable of transmitting and receiving data to and from the training data generating device 200 and performing an operation based on the transmitted/received data. For example, the annotation device 300 may be a desktop, a stationary computing device such as a workstation or a server, or a smart phone, a laptop, a tablet, a phablet, or a portable multimedia player. It may be any one of a portable computing device such as a portable multimedia player (PMP), a personal digital assistant (PDA), or an e-book reader (E-book reader).

다음 구성으로, 인공지능 학습 장치(400)는 차량의 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습시키는데 사용될 수 있는 장치이다.With the following configuration, the artificial intelligence learning device 400 is a device that can be used for machine learning of artificial intelligence (AI) that can be used for autonomous driving of a vehicle.

구체적으로, 인공지능 학습 장치(400)는 차량의 자율주행에 사용될 수 있는 인공지능(AI)의 목적 달성을 위한 요구 사항을 학습 데이터 생성 장치(200)에 전송할 수 있다. 인공지능 학습 장치(400)는 학습 데이터 생성 장치(200)로부터 인공지능(AI) 학습용 데이터를 수신할 수 있다. 그리고, 인공지능 학습 장치(400)는 수신된 인공지능(AI) 학습용 데이터를 이용하여, 차량의 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습할 수 있다.Specifically, the artificial intelligence learning apparatus 400 may transmit a requirement for achieving the purpose of artificial intelligence (AI) that can be used for autonomous driving of a vehicle to the learning data generating apparatus 200 . The artificial intelligence learning apparatus 400 may receive data for artificial intelligence (AI) learning from the learning data generating apparatus 200 . In addition, the artificial intelligence learning apparatus 400 may machine-learning artificial intelligence (AI) that can be used for autonomous driving of a vehicle by using the received artificial intelligence (AI) learning data.

이와 같은, 인공지능 학습 장치(400)는 학습 데이터 생성 장치(200)와 데이터를 송수신하고, 송수신된 데이터를 이용하여 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 인공지능 학습 장치(400)는 데스크탑, 워크스테이션 또는 서버와 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으나, 이에 한정되는 것은 아니다.As such, the artificial intelligence learning apparatus 400 may be any device as long as it is capable of transmitting and receiving data to and from the learning data generating apparatus 200 and performing an operation using the transmitted/received data. For example, the artificial intelligence learning device 400 may be any one of a desktop, a workstation, or a stationary computing device such as a server, but is not limited thereto.

지금까지 상술한 바와 같은, 학습 데이터 수집 장치(100), 학습 데이터 생성 장치(200), 다수 개의 어노테이션 장치(300) 및 인공지능 학습 장치(400)는 장치들 사이를 직접 연결하는 보안 회선, 공용 유선 통신망 또는 이동 통신망 중 하나 이상이 조합된 네트워크를 이용하여 데이터를 송수신할 수 있다. As described above, the learning data collection device 100 , the learning data generating device 200 , the plurality of annotation devices 300 , and the artificial intelligence learning device 400 have a security line directly connecting the devices, a common Data may be transmitted/received using a network in which one or more of a wired communication network or a mobile communication network is combined.

예를 들어, 공용 유선 통신망에는 이더넷(ethernet), 디지털가입자선(x Digital Subscriber Line, xDSL), 광동축 혼합망(Hybrid Fiber Coax, HFC), 광가입자망(Fiber To The Home, FTTH)가 포함될 수 있으나, 이에 한정되는 것도 아니다. 그리고, 이동 통신망에는 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 와이드 밴드 코드 분할 다중 접속(Wideband CDMA, WCDMA), 고속 패킷 접속(High Speed Packet Access, HSPA), 롱텀 에볼루션(Long Term Evolution, LTE), 5세대 이동통신(5th generation mobile telecommunication)가 포함될 수 있으나, 이에 한정되는 것은 아니다.For example, public wired networks include Ethernet, x Digital Subscriber Line (xDSL), Hybrid Fiber Coax (HFC), and Fiber To The Home (FTTH). However, it is not limited thereto. In addition, the mobile communication network includes Code Division Multiple Access (CDMA), Wideband CDMA, WCDMA, High Speed Packet Access (HSPA), Long Term Evolution, LTE) and 5th generation mobile communication may be included, but are not limited thereto.

도 2는 본 발명의 일 실시예에 따른 학습 데이터 수집 장치의 논리적 구성도이다.2 is a logical configuration diagram of an apparatus for collecting learning data according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 통신부(105), 입출력부(110), 유사도 산출부(115), 영향도 산출부(120), 프레임 결정부(125), 데이터 제공부(130) 및 저장부(135)를 포함하여 구성될 수 있다.As shown in FIG. 2 , the learning data collection apparatus 100 according to an embodiment of the present invention includes a communication unit 105 , an input/output unit 110 , a similarity calculation unit 115 , an influence level calculation unit 120 , It may be configured to include a frame determining unit 125 , a data providing unit 130 , and a storage unit 135 .

이와 같은, 학습 데이터 수집 장치(100)의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.As such, the components of the learning data collection apparatus 100 merely represent functionally distinct elements, so that two or more components are integrated with each other in the actual physical environment, or one component is implemented with each other in the actual physical environment. It may be implemented separately.

각각의 구성 요소에 대하여 설명하면, 통신부(105)는 차량에 설치된 다중 센서들과 학습 데이터 생성 장치(200)와 데이터를 송수신할 수 있다.Each component is described. The communication unit 105 may transmit/receive data to/from multiple sensors installed in the vehicle and the learning data generating device 200 .

구체적으로, 통신부(105)는 차량에 설치된 라이다(lidar), 카메라(camera), 레이더(radar), 초음파 센서(ultrasonic sensor), 레인 센서(rain sensor), 위치 측정 센서 및 속도 감지 센서로부터 감지 데이터, 3D 점군 데이터, 2D 이미지, 거리 정보, 날씨 정보, 위치 정보 및 속도 정보 등을 수신할 수 있다.Specifically, the communication unit 105 detects from a lidar, a camera, a radar, an ultrasonic sensor, a rain sensor, a position measurement sensor, and a speed sensor installed in the vehicle. It is possible to receive data, 3D point cloud data, 2D image, distance information, weather information, location information, speed information, and the like.

또한 통신부(105)는 데이터 제공부(130)의 제어에 따라, 감지 데이터, 3D 점군 데이터, 2D 이미지, 거리 정보, 날씨 정보, 위치 정보 및 속도 정보를 학습 데이터 생성 장치(200)에 전송할 수 있다.Also, the communication unit 105 may transmit sensed data, 3D point cloud data, 2D image, distance information, weather information, location information, and speed information to the learning data generating apparatus 200 under the control of the data providing unit 130 . .

여기서 통신부(105)는 프레임 결정부(125)에 의해 결정된 2D 이미지들의 초당 프레임 수(frame per second)에 따라 2D 이미지들을 학습 데이터 생성 장치(200)에 전송할 수 있다.Here, the communication unit 105 may transmit the 2D images to the learning data generating apparatus 200 according to the number of frames per second of the 2D images determined by the frame determiner 125 .

다음 구성으로, 입출력부(110)는 사용자 인터페이스(UI)를 통해 사용자로부터 신호를 입력 받거나 연산 결과를 외부로 출력할 수 있다.With the following configuration, the input/output unit 110 may receive a signal from a user through a user interface (UI) or may output an operation result to the outside.

구체적으로, 입출력부(110)는 감지 데이터, 3D 점군 데이터, 2D 이미지, 거리 정보, 날씨 정보, 위치 정보 및 속도 정보를 저장하기 위한 버퍼(buffer)의 기본 크기 및 버퍼에 우선적으로 저장할 데이터의 우선순위를 사용자로부터 입력 받을 수 있다.Specifically, the input/output unit 110 provides a basic size of a buffer for storing sensed data, 3D point cloud data, 2D image, distance information, weather information, location information, and speed information, and priority of data to be preferentially stored in the buffer. The ranking can be input from the user.

또한 입출력부(110)는 2D 이미지들 중에서 학습 데이터 생성 장치(200)로 전송하기 위한 2D 이미지들의 초당 프레임 수(frame per second)를 결정하기 위한 크기 범위인 임계 범위를 사용자로부터 입력 받을 수 있다. 즉 입출력부(110)는 유사도 산출부(115) 또는 영향도 산출부(120)에 의해 산출된 유사도 또는 영향도에 매칭되는 학습 데이터 생성 장치(200)에 전송할 2D 이미지들의 초당 프레임 수를 사용자로부터 입력 받을 수 있다.Also, the input/output unit 110 may receive, from the user, a threshold range, which is a size range for determining the number of frames per second of 2D images to be transmitted to the learning data generating apparatus 200 from among the 2D images. That is, the input/output unit 110 receives from the user the number of frames per second of the 2D images to be transmitted to the learning data generating apparatus 200 matching the similarity or influence calculated by the similarity calculating unit 115 or the influence level calculating unit 120 . can be input.

다음 구성으로, 유사도 산출부(115)는 수집된 2D 이미지들 중 연속된 2D 이미지 사이의 유사도를 산출할 수 있다. 특히 유사도 산출부(115)는 연속된 2D 이미지에서 픽셀(pixel)에 대한 RGB(Red, Green, Blue) 히스토그램을 생성하고, 생성된 RGB 히스토그램을 비교하여 유사도를 산출할 수 있다. 여기서 RGB 히스토그램은 이미지에서 각 원색(RGB)의 밝기 분포를 나타내는 그래프이다. 예를 들어, RGB 히스토그램은 가로축이 컬러의 밝기 레벨을 표시하며, 세로축이 컬러의 밝기 레벨에 할당된 픽셀 수로 표시되고, 좌측으로 치우친 픽셀 수가 많을수록 색상이 어둡고 덜 선명하게 표현되며, 우측으로 치운 친 픽셀 수가 많을수록 색상이 더 밝고 진하게 표현될 수 있다. 이와 같이, 유사도 산출부(115)는 RGB 히스토그램을 통해 연속된 2D 이미지의 색상의 채도와 계조 상태, 화이트 밸런스의 성향 등을 비교하여 유사도를 산출할 수 있다.With the following configuration, the similarity calculator 115 may calculate the similarity between consecutive 2D images among the collected 2D images. In particular, the similarity calculator 115 may generate a red, green, blue (RGB) histogram for a pixel in a continuous 2D image, and calculate the similarity by comparing the generated RGB histogram. Here, the RGB histogram is a graph showing the brightness distribution of each primary color (RGB) in the image. For example, in an RGB histogram, the horizontal axis represents the brightness level of a color, and the vertical axis represents the number of pixels assigned to the color's brightness level. The higher the number of pixels, the brighter and darker the color can be expressed. In this way, the similarity calculator 115 may calculate the similarity by comparing the color saturation and grayscale state of the continuous 2D image through the RGB histogram, and the tendency of white balance.

또한 유사도 산출부(115)는 연속된 2D 이미지 각각의 엣지(Edge)를 추출하고, 연속된 2D 이미지 사이의 엣지 변화량을 기준으로 연속된 2D 이미지 사이의 유사도를 산출할 수 있다. 여기서 유사도 산출부(115)는 식별된 객체 영역에 대하여 엣지를 추출하거나, 2D 이미지 전체에 포함된 객체에 대한 엣지를 추출할 수 있다. 이때 유사도 산출부(115)는 추출된 엣지의 모멘트(moment)를 비교하여 유사도를 산출할 수 있다.Also, the similarity calculator 115 may extract an edge of each successive 2D image and calculate the similarity between successive 2D images based on the amount of edge change between the successive 2D images. Here, the similarity calculator 115 may extract an edge with respect to the identified object region or may extract an edge with respect to an object included in the entire 2D image. In this case, the similarity calculator 115 may calculate the similarity by comparing the extracted moments of the edges.

영향도 산출부(120)는 수집된 2D 이미지와 함께 수집된 메타 데이터(meta data)를 통해 기계 학습에 대한 영향도를 산출할 수 있다.The influence calculator 120 may calculate the influence on machine learning through the collected meta data together with the collected 2D image.

구체적으로, 영향도 산출부(120)는 2D 이미지를 수집하는 시점의 속도 정보, 날씨 정보, 센서 동작 정보 및 GPS 좌표 정보 중 적어도 하나를 포함하는 메타 데이터를 통해 기계 학습에 대한 영향도를 산출할 수 있다.Specifically, the influence calculation unit 120 calculates the influence on machine learning through metadata including at least one of speed information, weather information, sensor operation information, and GPS coordinate information at the time of collecting the 2D image. can

즉 영향도 산출부(120)는 학습 데이터를 수집하는 차량의 이동 속도가 사전에 설정된 임계 값보다 높은 경우, 제1 영향도로 결정하고, 학습 데이터 수집 장치의 이동 속도가 사전에 설정된 임계 값보다 낮은 경우, 제1 영향도보다 낮은 제2 영향도로 결정할 수 있다.That is, when the moving speed of the vehicle for collecting learning data is higher than the preset threshold, the influence calculator 120 determines the first influence, and the moving speed of the learning data collecting device is lower than the preset threshold. In this case, it may be determined as a second influence level that is lower than the first influence level.

예를 들어 영향도 산출부(120)는 속도 정보를 통해 학습 데이터를 수집하는 차량의 속도가 고속인 경우, 연속된 2D 이미지 사이의 변화량이 적을 가능성이 높기 때문에 영향도를 낮게 산출하고, 이동 속도가 저속인 경우, 2D 이미지 사이의 변화량이 클 가능성이 높으므로 영향도를 높게 산출할 수 있다.For example, when the speed of the vehicle collecting learning data through speed information is high, the influence calculation unit 120 calculates the influence low because there is a high possibility that the amount of change between consecutive 2D images is small, and the moving speed When is low speed, it is highly likely that the amount of change between 2D images is large, so that the degree of influence can be calculated to be high.

프레임 결정부(125)는 전술한 유사도 산출부(115)와 영향도 산출부(120)에 의해 산출된 유사도 또는 영향도를 바탕으로 학습 데이터 생성 장치에(200)에 전송할 2D 이미지들의 초당 프레임 수(frame per second)를 결정할 수 있다.The frame determiner 125 is the number of frames per second of the 2D images to be transmitted to the learning data generating apparatus 200 based on the similarity or influence calculated by the similarity calculator 115 and the influence calculator 120 described above. (frame per second) can be determined.

여기서, 프레임 결정부(125)는 2D 이미지들을 구간 별로 초당 프레임 수를 결정할 수 있다. 즉, 프레임 결정부(125)는 연속된 2D 이미지들 사이의 유사도에 따라 2D 이미지들을 그룹핑(grouping)하고, 각 그룹의 유사도에 사전에 설정된 초당 프레임 수를 적용할 수 있다.Here, the frame determiner 125 may determine the number of frames per second for each section of the 2D images. That is, the frame determiner 125 may group the 2D images according to the similarity between consecutive 2D images, and apply a preset number of frames per second to the similarity of each group.

또한, 프레임 결정부(125)는 연속된 2D 이미지들 사이의 영향도에 따라 2D 이미지들을 그룹핑(grouping)하고, 각 그룹의 영향도에 사전에 설정된 초당 프레임 수를 적용할 수 있다.In addition, the frame determiner 125 may group the 2D images according to the degree of influence between successive 2D images, and apply a preset number of frames per second to the influence level of each group.

또한 프레임 결정부(125)는 2D 이미지들 전체에 대한 초당 프레임 수를 결정할 수 있다. 즉, 학습 데이터 생성 장치(200)에 수집된 2D 이미지들 중 연속된 2D 이미지들의 유사도 평균 값을 계산하고, 계산된 유사도 평균 값에 매칭되는 사전에 설정된 초당 프레임 수를 적용할 수 있다.Also, the frame determiner 125 may determine the number of frames per second for all 2D images. That is, a similarity average value of successive 2D images among the 2D images collected by the learning data generating apparatus 200 may be calculated, and a preset number of frames per second matching the calculated similarity average value may be applied.

또한 프레임 결정부(125)는 학습 데이터 생성 장치(200)에 수집된 2D 이미지들 중 연속된 2D 이미지들의 영향도 평균 값을 계산하고, 계산된 영향도 평균 값에 매칭되는 사전에 설정된 초당 프레임 수를 적용할 수 있다.In addition, the frame determiner 125 calculates an average value of influence of consecutive 2D images among the 2D images collected in the learning data generating device 200, and a preset number of frames per second matching the calculated average value of influence. can be applied.

데이터 제공부(130)는 프레임 결정부(125)에 의해 결정된 초당 프레임 수에 해당하는 2D 이미지들을 통신부(105)를 통해 학습 데이터 생성 장치(200)에 제공할 수 있다. 즉 데이터 제공부(130)는 수집된 2D 이미지들에 프레임 결정부(125)에 의해 결정된 초당 프레임 수를 적용하여, 적용된 2D 이미지들을 학습 데이터 생성 장치(200)에 전송할 수 있다.The data providing unit 130 may provide the 2D images corresponding to the number of frames per second determined by the frame determining unit 125 to the learning data generating apparatus 200 through the communication unit 105 . That is, the data providing unit 130 may apply the number of frames per second determined by the frame determiner 125 to the collected 2D images, and transmit the applied 2D images to the learning data generating apparatus 200 .

저장부(135)는 학습 데이터 수집 장치(100)의 동작에 필요한 데이터를 저장할 수 있다.The storage unit 135 may store data necessary for the operation of the learning data collection apparatus 100 .

구체적으로 저장부(135)는 감지 데이터, 3D 점군 데이터, 2D 이미지, 거리 정보, 날씨 정보, 위치 정보 및 속도 정보를 저장하기 버퍼(buffer)를 포함하여 구성될 수 있다. 그리고, 저장부(135)는 유사도 또는 영향도를 산출하고, 초당 프레임 수를 결정하기 위한 규칙 및 기초 데이터를 저장하기 위한 데이터베이스(database)를 포함하여 구성될 수 있다.Specifically, the storage unit 135 may be configured to include a buffer for storing sensed data, 3D point cloud data, 2D image, distance information, weather information, location information, and speed information. In addition, the storage unit 135 may be configured to include a database for storing basic data and rules for calculating the degree of similarity or influence and determining the number of frames per second.

이하, 상술한 바와 같은 학습 데이터 수집 장치(100)의 논리적 구성요소를 구현하기 위한 하드웨어에 대하여 보다 구체적으로 설명한다.Hereinafter, hardware for implementing the logical components of the learning data collection apparatus 100 as described above will be described in more detail.

도 3은 본 발명의 일 실시예에 따른 학습 데이터 수집 장치의 하드웨어 구성도이다.3 is a hardware configuration diagram of an apparatus for collecting learning data according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 학습 데이터 수집 장치(100)는 프로세서(Processor, 150), 메모리(Memory, 155), 송수신기(Transceiver, 160), 입출력장치(Input/output device, 165), 데이터 버스(Bus, 170) 및 스토리지(Storage, 175)를 포함하여 구성될 수 있다. As shown in Figure 3, the learning data collection device 100 is a processor (Processor, 150), a memory (Memory, 155), a transceiver (Transceiver, 160), an input/output device (Input/output device, 165), a data bus (Bus, 170) and may be configured to include a storage (Storage, 175).

프로세서(150)는 메모리(155)에 상주된 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(180a)에 따른 명령어를 기초로, 학습 데이터 수집 장치(100)의 동작 및 기능을 구현할 수 있다. 메모리(155)에는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(180a)가 상주(loading)될 수 있다.The processor 150 may implement the operations and functions of the learning data collection apparatus 100 based on an instruction according to the software 180a in which the method according to the embodiments of the present invention is implemented residing in the memory 155 . . The memory 155 may be loaded with software 180a in which methods according to embodiments of the present invention are implemented.

송수신기(160)는 라이다(lidar), 카메라(camera), 레이더(radar), 초음파 센서(ultrasonic sensor), 레인 센서(rain sensor), 위치 측정 센서, 속도 감지 센서 및 학습 데이터 생성 장치(200)와 데이터를 송수신할 수 있다. 입출력장치(165)는 학습 데이터 수집 장치(100)의 동작에 필요한 데이터를 입력 받고, 감지 데이터, 3D 점군 데이터, 2D 이미지, 거리 정보, 날씨 정보, 위치 정보 및 속도 정보 등을 출력할 수 있다. 데이터 버스(170)는 프로세서(150), 메모리(155), 송수신기(160), 입출력장치(165) 및 스토리지(175)와 연결되어, 각각의 구성 요소 사이가 서로 데이터를 전달하기 위한 이동 통로의 역할을 수행할 수 있다.The transceiver 160 is a lidar (lidar), a camera (camera), a radar (radar), an ultrasonic sensor (ultrasonic sensor), a rain sensor (rain sensor), a position measurement sensor, a speed detection sensor and a learning data generating device 200 can send and receive data. The input/output device 165 may receive data necessary for the operation of the learning data collection device 100 , and may output sensed data, 3D point cloud data, 2D image, distance information, weather information, location information, speed information, and the like. The data bus 170 is connected to the processor 150 , the memory 155 , the transceiver 160 , the input/output device 165 and the storage 175 , and is a movement path for transferring data between each component. can play a role.

스토리지(175)는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(180a)의 실행을 위해 필요한 애플리케이션 프로그래밍 인터페이스(Application Programming Interface, API), 라이브러리(library) 파일, 리소스(resource) 파일 등을 저장할 수 있다. 스토리지(175)는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(180b) 및 데이터베이스(185)를 저장할 수 있다.The storage 175 stores an application programming interface (API), a library file, a resource file, etc. necessary for the execution of the software 180a in which the method according to the embodiments of the present invention is implemented. can be saved The storage 175 may store the software 180b and the database 185 in which the method according to the embodiments of the present invention is implemented.

데이터베이스(185)에는 유사도 또는 영향도를 산출하고, 유사도 또는 영향도에 따라 2D 이미지들의 초당 프레임 수를 결정하기 위한 규칙 및 기초 데이터가 저장될 수 있다.The database 185 may store rules and basic data for calculating the degree of similarity or influence, and determining the number of frames per second of 2D images according to the degree of similarity or influence.

본 발명의 일 실시예에 따르면, 메모리(155)에 상주되거나 또는 스토리지(175)에 저장된 센서들의 제어 방법을 구현하기 위한 소프트웨어(180a, 180b)는 프로세서(150)가 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 2D 이미지를 수집하는 단계, 수집된 2D 이미지에 대한 정보를 추출하는 단계 및 수집된 2D 이미지에 대한 정보를 기준으로 수집된 2D 이미지들의 초당 프레임 수(frame per second)를 결정하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to an embodiment of the present invention, the software 180a, 180b for implementing the control method of the sensors resident in the memory 155 or stored in the storage 175 is the processor 150 artificial intelligence (AI). ) of 2D images for machine learning, extracting information on the collected 2D images, and the number of frames per second of collected 2D images based on the information on the collected 2D images (frame per second) second) may be a computer program recorded on a recording medium to execute the step of determining.

보다 구체적으로, 프로세서(150)는 ASIC(Application-Specific Integrated Circuit), 다른 칩셋(chipset), 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리(155)는 ROM(Read-Only Memory), RAM(Random Access Memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다. 송수신기(160)는 유무선 신호를 처리하기 위한 베이스밴드 회로를 포함할 수 있다. 입출력장치(165)는 키보드(keyboard), 마우스(mouse), 및/또는 조이스틱(joystick) 등과 같은 입력 장치 및 액정표시장치(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic LED, OLED) 및/또는 능동형 유기 발광 다이오드(Active Matrix OLED, AMOLED) 등과 같은 영상 출력 장치 프린터(printer), 플로터(plotter) 등과 같은 인쇄 장치를 포함할 수 있다. More specifically, the processor 150 may include an application-specific integrated circuit (ASIC), another chipset, a logic circuit, and/or a data processing device. The memory 155 may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and/or other storage devices. The transceiver 160 may include a baseband circuit for processing wired/wireless signals. The input/output device 165 includes an input device such as a keyboard, a mouse, and/or a joystick, and a liquid crystal display (LCD), an organic light emitting diode (OLED) and/or an input device such as a joystick. Alternatively, an image output device such as an active matrix OLED (AMOLED) may include a printing device such as a printer or a plotter.

본 명세서에 포함된 실시 예가 소프트웨어로 구현될 경우, 상술한 방법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리(155)에 상주되고, 프로세서(150)에 의해 실행될 수 있다. 메모리(155)는 프로세서(150)의 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서(150)와 연결될 수 있다.When the embodiment included in this specification is implemented in software, the above-described method may be implemented as a module (process, function, etc.) that performs the above-described function. The module resides in the memory 155 and may be executed by the processor 150 . The memory 155 may be internal or external to the processor 150 , and may be connected to the processor 150 by various well-known means.

도 3에 도시된 각 구성요소는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Each component shown in FIG. 3 may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of implementation by hardware, an embodiment of the present invention provides one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs ( Field Programmable Gate Arrays), a processor, a controller, a microcontroller, a microprocessor, etc. may be implemented.

또한, 펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현되어, 다양한 컴퓨터 수단을 통하여 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한, 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, in the case of implementation by firmware or software, an embodiment of the present invention is implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above, and is stored in a recording medium readable through various computer means. can be recorded. Here, the recording medium may include a program command, a data file, a data structure, etc. alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. For example, the recording medium includes a magnetic medium such as a hard disk, a floppy disk, and a magnetic tape, an optical recording medium such as a compact disk read only memory (CD-ROM), a digital video disk (DVD), and a floppy disk. Magneto-Optical Media, such as a disk, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those generated by a compiler. Such hardware devices may be configured to operate as one or more software to perform the operations of the present invention, and vice versa.

이하, 상술한 바와 같은, 학습 데이터 생성 장치(200)의 구성에 대하여 보다 구체적으로 설명하기로 한다.Hereinafter, the configuration of the learning data generating apparatus 200 as described above will be described in more detail.

도 4는 본 발명의 일 실시예에 따른 학습 데이터 생성 장치의 논리적 구성도이다.4 is a logical configuration diagram of an apparatus for generating learning data according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 학습 데이터 생성 장치(200)는 통신부(205), 입출력부(210), 특이점 추출부(215), 가이드 정보 가공부(220), 중요도 평가부(225), 이미지 정제부(230), 객체 식별부(235), 비식별 처리부(240) 및 저장부(245)를 포함하여 구성될 수 있다.As shown in FIG. 4 , the learning data generating device 200 includes a communication unit 205 , an input/output unit 210 , a singularity extraction unit 215 , a guide information processing unit 220 , an importance evaluation unit 225 , and an image. It may be configured to include a refiner 230 , an object identification unit 235 , a de-identification processing unit 240 , and a storage unit 245 .

이와 같은, 학습 데이터 생성 장치(200)의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.As such, the components of the learning data generating apparatus 200 merely represent functionally distinct elements, so that two or more components are integrated with each other in the actual physical environment, or one component is implemented with each other in the actual physical environment. It may be implemented separately.

각각의 구성 요소에 대하여 설명하면, 통신부(205)는 학습 데이터 수집 장치(100), 어노테이션 장치(300) 및 인공지능 학습 장치(400) 중 하나 이상과 데이터를 송수신할 수 있다.When each component is described, the communication unit 205 may transmit/receive data to and from one or more of the learning data collection apparatus 100 , the annotation apparatus 300 , and the artificial intelligence learning apparatus 400 .

구체적으로, 통신부(205)는 학습 데이터 수집 장치(100)로부터 2D 이미지들 및 3D 점군 데이터를 수신할 수 있다. 여기서, 2D 이미지들은 차량의 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습시키기 위하여, 차량에 고정 설치된 카메라를 통해 촬영된 이미지들이 될 수 있다. 그리고, 3D 점군 데이터들은 차량의 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습시키기 위하여, 차량에 고정 설치된 라이다를 통해 획득된 점군 데이터들이 될 수 있다.Specifically, the communication unit 205 may receive 2D images and 3D point cloud data from the learning data collection apparatus 100 . Here, the 2D images may be images captured by a camera fixedly installed in the vehicle in order to machine-learning artificial intelligence (AI) that can be used for autonomous driving of the vehicle. In addition, the 3D point cloud data may be point cloud data acquired through a lidar fixedly installed in a vehicle in order to machine-learning artificial intelligence (AI) that can be used for autonomous driving of a vehicle.

통신부(205)는 어노테이션 작업의 대상이 되는 복수 개의 2D 이미지들 또는 3D 점군 데이터들을 복수 개의 어노테이션 장치(300)에 배포 전송할 수 있다. 통신부(205)는 복수 개의 어노테이션 장치(300) 각각으로부터 어노테이션 작업 결과물을 수신할 수 있다. 또한, 통신부(205)는 복수 개의 어노테이션 장치(300) 각각으로부터 입출력장치의 제어 데이터를 수신할 수도 있다. 여기서, 입출력장치의 제어 데이터는 2D 이미지들 또는 3D 점군 데이터들 중 하나 이상을 수신한 어노테이션 장치(300)가 수신한 2D 이미지 또는 3D 점군 데이터에 대하여 어노테이션 작업을 수행하는 과정에서, 사용자가 어노테이션 장치(300)를 구성하고 있는 입출력장치를 제어하기 위하여 입력한 하나 이상의 신호를 시계열적으로 저장한 데이터가 될 수 있다.The communication unit 205 may distribute and transmit a plurality of 2D images or 3D point cloud data to be annotated to a plurality of annotation devices 300 . The communication unit 205 may receive an annotation work result from each of the plurality of annotation apparatuses 300 . Also, the communication unit 205 may receive control data of the input/output device from each of the plurality of annotation devices 300 . Here, the control data of the input/output device includes the annotation device 300 that has received one or more of the 2D images or 3D point cloud data. In the process of performing an annotation operation on the received 2D image or 3D point cloud data, the user may use the annotation device It may be data stored in time series of one or more signals input to control the input/output device constituting the 300 .

그리고, 통신부(205)는 인공지능(AI) 학습용 데이터를 인공지능 학습 장치(300)에 전송할 수 있다.In addition, the communication unit 205 may transmit data for artificial intelligence (AI) learning to the artificial intelligence learning apparatus 300 .

다음 구성으로, 입출력부(210)는 사용자 인터페이스(UI)를 통해 사용자로부터 신호를 입력 받거나, 연산 결과를 외부로 출력할 수 있다.With the following configuration, the input/output unit 210 may receive a signal from a user through a user interface (UI) or output an operation result to the outside.

구체적으로, 입출력부(210)는 사용자로부터 인공지능(AI) 학습을 위한 데이터 구조를 설계하기 위한 제어 신호를 입력 받을 수 있다. 입출력부(210)는 사용자로부터 복수 개의 어노테이션 장치(300)에 대하여 어노테이션 작업을 분배하기 위한 할당량 등을 입력 받을 수 있다.Specifically, the input/output unit 210 may receive a control signal for designing a data structure for artificial intelligence (AI) learning from a user. The input/output unit 210 may receive input from a user, such as a quota for distributing annotation tasks to the plurality of annotation apparatuses 300 .

다음 구성으로, 특이점 추출부(215)는 수집된 2D 이미지들 중 연속된 2D 이미지를 분석하여, 촬영 환경이 변화되는 시점을 특이점으로 추출할 수 있다. 구체적으로 특이점 추출부(215)는 수집된 2D 이미지들 중 연속된 2D 이미지 사이의 유사도를 평가하고, 유사도가 사전에 설정된 임계 값보다 높은 연속된 2D 이미지를 촬영 환경이 변화되는 시점으로 판단할 수 있다. 이때 특이점 추출부(215)는 연속된 2D 이미지에서 픽셀에 대한 RGB(Red, Green, Blue) 히스토그램을 생성하고, 생성된 RGB 히스토그램을 비교하여 유사도를 산출할 수 있다. 여기서 RGB 히스토그램은 이미지에서 각 원색(RGB)의 밝기 분포를 나타내는 그래프이다. 예를 들어, RGB 히스토그램은 가로축이 컬러의 밝기 레벨을 표시하며, 세로축이 컬러의 밝기 레벨에 할당된 픽셀 수로 표시되고, 좌측으로 치우친 픽셀 수가 많을수록 색상이 어둡고 덜 선명하게 표현되며, 우측으로 치운 친 픽셀 수가 많을수록 색상이 더 밝고 진하게 표현될 수 있다. 이와 같이, 특이점 추출부(215)는 RGB 히스토그램을 통해 연속된 2D 이미지의 색상의 채도와 계조 상태, 화이트 밸런스의 성향 등을 비교하여 유사도를 산출할 수 있다.With the following configuration, the singularity extraction unit 215 may analyze a continuous 2D image among the collected 2D images, and extract a time point at which the photographing environment changes as a singularity. Specifically, the singularity extractor 215 evaluates the similarity between consecutive 2D images among the collected 2D images, and determines a continuous 2D image having a similarity higher than a preset threshold as the time point at which the shooting environment changes. there is. In this case, the singularity extractor 215 may generate a red, green, blue (RGB) histogram for pixels in a continuous 2D image, and calculate a similarity by comparing the generated RGB histogram. Here, the RGB histogram is a graph showing the brightness distribution of each primary color (RGB) in the image. For example, in an RGB histogram, the horizontal axis represents the brightness level of a color, and the vertical axis represents the number of pixels assigned to the color's brightness level. The higher the number of pixels, the brighter and darker the color can be expressed. As such, the singularity extractor 215 may calculate the similarity by comparing the color saturation and gradation state of the continuous 2D image through the RGB histogram, and the tendency of white balance.

또한 특이점 추출부(215)는 수집된 2D 이미지들 각각을 복수개의 영역으로 분할하고, 분할된 영역 각각을 분석하여 환경 변수를 파악하고, 환경 변수의 변화량을 기준으로 특이점을 추출할 수 있다. 이때 특이점 추출부(215)는 분할된 영역의 밝기 또는 RGB(Red, Green, Blue) 값을 기준으로 환경 변수를 산출할 수 있다. 예를 들어, 특이점 추출부(215)는 수집된 2D 이미지들 각각을 수직 방향으로 두개의 영역으로 분할하고, 연속된 2D 이미지의 상단 영역 환경 변수의 변화량이 사전에 설정된 임계 값보다 높은 경우 날씨가 변화하는 시점으로 인식하고, 하단 영역 환경 변수의 변화량이 사전에 설정된 임계 값보다 높은 경우 도로가 변화하는 시점으로 인식할 수 있다.In addition, the singularity extractor 215 may divide each of the collected 2D images into a plurality of regions, analyze each of the divided regions to identify an environmental variable, and extract a singularity based on the amount of change in the environmental variable. In this case, the singularity extractor 215 may calculate the environment variable based on the brightness of the divided area or the RGB (Red, Green, Blue) value. For example, the singularity extraction unit 215 divides each of the collected 2D images into two regions in the vertical direction, and when the change amount of the environment variable in the upper region of the continuous 2D image is higher than a preset threshold, the weather It can be recognized as a changing time point, and when the amount of change of the environmental variable in the lower area is higher than a preset threshold value, it can be recognized as a time when the road changes.

또한 특이점 추출부(215)는 촬영 정보를 분석하여 촬영 환경이 변화되는 시점을 특이점으로 추출할 수 있다. 여기서 촬영 정보는 학습 데이터 수집 장치(100)에 설치된 센서들의 센싱 값이 될 수 있다. 구체적으로, 특이점 추출부(215)는 학습 데이터 수집 장치(100)에 설치된 조도 센서를 통해 학습 데이터 수집 장치(100)에 설치된 조명 장치가 점등 또는 소등 유무를 판단하고, 조명 장치의 점등 또는 소등 유무를 통해 2D 이미지를 촬영한 시점을 판단하거나, 장소 변화 시점을 판단할 수 있다. 예를 들어, 특이점 추출부(215)는 조명 장치가 점등 또는 소등되는 시점을 밤과 낮이 변화되는 시점으로 인식하거나, 터널 진입 시점으로 인식할 수 있다. 또한 특이점 추출부(215)는 학습 데이터 수집 장치(100)에 설치된 레인 센서(rain sensor)를 통해 2D 이미지의 기상 조건이 변화되는 시점을 판단할 수 있다. 또한 특이점 추출부(215)는 학습 데이터 수집 장치(100)에 설치된 카메라(camera)의 포커스(focus)변화량을 통해 2D 이미지의 기상 조건이 변화되는 시점을 판단할 수 있다.In addition, the singular point extractor 215 may analyze the shooting information and extract a point at which the shooting environment changes as the singular point. Here, the photographing information may be a value sensed by sensors installed in the learning data collection apparatus 100 . Specifically, the singularity extraction unit 215 determines whether the lighting device installed in the learning data collection device 100 is turned on or off through the illuminance sensor installed in the learning data collection device 100, and whether the lighting device is turned on or off. It is possible to determine the time at which the 2D image was photographed, or the time at which the location changes. For example, the singular point extractor 215 may recognize a time when the lighting device is turned on or off as a time when night and day change or a time when entering a tunnel. In addition, the singularity extractor 215 may determine when the weather conditions of the 2D image change through a rain sensor installed in the learning data collection apparatus 100 . In addition, the singularity extractor 215 may determine when the weather conditions of the 2D image change through the amount of change in focus of the camera installed in the learning data collection apparatus 100 .

다음 구성으로, 가이드 정보 가공부(220)는 수집된 2D 이미지들 중 촬영 환경이 변화되는 시점에 해당하는 구간을 지정하고, 지정된 구간을 가이드 정보로 가공하여 2D 이미지들과 함께 어노테이션 장치(300)에 제공할 수 있다. 또한 가이드 정보 가공부(220)는 수집된 2D 이미지들의 분할된 영역 각각의 환경 변수가 사전에 설정된 임계 값보다 높은 구간을 지정하고, 지정된 구간을 가이드 정보로 가공하여 2D 이미지들과 함께 어노테이션 장치(300)에 제공할 수 있다. 또한 가이드 정보 가공부(220)는 촬영 환경이 변화되는 구간을 지정하고, 지정된 구간을 가이드 정보로 가공하여 2D 이미지들과 함께 어노테이션 장치(300)에 제공할 수 있다. 예를 들어 가이드 정보 가공부(220)는 어노테이션 작업 대상이 되는 하나의 2D 이미지 또는 3D 점군 데이터를 디스플레이에 출력할 때 시점 또는 촬영 환경이 변하는 구간에 해당하는 2D 이미지에 시점이 변하는 2D 이미지임을 식별할 수 있는 표시를 함께 출력하도록 할 수 있다.In the following configuration, the guide information processing unit 220 designates a section corresponding to a point in time when the shooting environment is changed among the collected 2D images, and processes the designated section into guide information to annotate the 2D images together with the 2D images. can be provided to In addition, the guide information processing unit 220 designates a section in which the environment variable of each divided region of the collected 2D images is higher than a preset threshold value, and processes the designated section into guide information to annotate the 2D images together with the 2D images ( 300) can be provided. In addition, the guide information processing unit 220 may designate a section in which the shooting environment is changed, process the designated section as guide information, and provide the 2D images together with the annotation apparatus 300 . For example, when the guide information processing unit 220 outputs one 2D image or 3D point cloud data to be annotated to the display, the 2D image corresponding to the section in which the viewpoint or the shooting environment is changed is a 2D image in which the viewpoint is changed. It can be printed together with possible indications.

다음 구성으로, 중요도 평가부(225)는 수집된 2D 이미지들 각각에 포함된 객체(object)를 추출하고, 추출된 객체와 사전에 설정된 요구 유형(type require)에 해당하는 개체의 유사도를 산출하여 중요도를 평가할 수 있다. 즉, 기계 학습에서 각 2D 이미지의 중요도는 실제로 기계 학습에 연관된 객체를 포함하고 있는지 여부에 따라 결정될 수 있다. 따라서, 중요도 평가부(225)는 수집된 2D 이미지들에 포함된 객체를 추출하고, 추출된 객체를 실제 기계 학습에 필요한 객체와 비교하여 중요도를 평가할 수 있다.With the following configuration, the importance evaluation unit 225 extracts an object included in each of the collected 2D images, calculates a similarity between the extracted object and an object corresponding to a preset type require, importance can be assessed. That is, the importance of each 2D image in machine learning may be determined according to whether or not an object related to machine learning is actually included. Accordingly, the importance evaluator 225 may extract an object included in the collected 2D images and evaluate the importance by comparing the extracted object with an object required for actual machine learning.

또한 중요도 평가부(225)는 2D 이미지들과 함께 수집되는 각각의 2D 이미지와 촬영된 시점의 환경 요인(environmental factor)을 기준으로 중요도를 평가할 수 있다. 즉 중요도 평가부(225)는 2D 이미지들 중 기계 학습의 대상이 되는 기상 정보와 상이한 2D 이미지를 정제 대상이 되는 중요도가 낮은 이미지로 평가할 수 있다. 또한 중요도 평가부(225)는 2D 이미지들 중 기계 학습의 대상이 되는 촬영 시점과 상이한 2D 이미지를 정제 대상이 되는 중요도가 낮은 이미지로 평가할 수 있다. 또한 중요도 평가부(225)는 기계 학습의 대상이 되는 GPS(Global Positioning System) 좌표로부터 사전에 미리 설정된 임계 거리 내에 위치한 GPS 좌표를 갖는 2D 이미지를 정제 대상이 되는 중요도가 낮은 이미지로 평가할 수 있다. 또한 중요도 평가부(225)는 수집된 2D 이미지들 각각에 포함된 객체(object)를 추출하고, 추출된 객체의 개수가 사전에 설정된 임계 개수보다 낮은 2D 이미지를 정제 대상이 되는 중요도가 낮은 이미지로 평가할 수 있다. 또한 중요도 평가부(225)는 2D 이미지들 중에서 사전에 설정된 요구 유형(type require)에 대응되는 객체를 사전에 설정된 요구 개수(required number) 이하로 포함하고 있는 2D 이미지를 정제 대상이 되는 중요도가 낮은 이미지로 평가할 수 있다.In addition, the importance evaluation unit 225 may evaluate the importance based on each 2D image collected together with the 2D images and an environmental factor at the time of photographing. That is, the importance evaluator 225 may evaluate, among the 2D images, a 2D image different from the weather information, which is a target of machine learning, as an image with a low importance as a target of refining. Also, the importance evaluation unit 225 may evaluate, among the 2D images, a 2D image that is different from a photographing point of time that is a target of machine learning as an image of low importance that is a target of refinement. In addition, the importance evaluation unit 225 may evaluate a 2D image having GPS coordinates located within a preset threshold distance from Global Positioning System (GPS) coordinates, which are the target of machine learning, as an image with low importance to be refined. In addition, the importance evaluation unit 225 extracts an object included in each of the collected 2D images, and converts 2D images in which the number of extracted objects is lower than a preset threshold number to an image of low importance to be refined. can be evaluated In addition, the importance evaluation unit 225 selects a 2D image including an object corresponding to a preset type require from among the 2D images in less than a preset required number of 2D images to be refined. image can be evaluated.

이미지 정제부(230)는 중요도 평가부(225)에 의해 평가된 중요도에 따라 수집된 2D 이미지들 중 적어도 하나의 2D 이미지를 정제할 수 있다. 구체적으로 이미지 정제부(230)는 수집된 2D 이미지에 포함된 객체와 설정된 요구 유형에 해당하는 객체의 유사도가 사전에 설정된 임계 값보다 낮은 2D 이미지를 정제할 수 있다. 또한 이미지 정제부(230)는 2D 이미지가 촬영된 시점의 환경 요인 즉, 기상 정보, 촬영 시점, GPS 좌표, 객체의 수를 기준으로 중요도가 사전에 설정된 임계 값보다 낮은 2D 이미지를 정제할 수 있다.The image refiner 230 may refine at least one 2D image among the collected 2D images according to the importance evaluated by the importance evaluation unit 225 . In more detail, the image refiner 230 may refine a 2D image in which a similarity between an object included in the collected 2D image and an object corresponding to a set request type is lower than a preset threshold value. In addition, the image refiner 230 may refine the 2D image whose importance is lower than a preset threshold based on environmental factors at the time the 2D image was captured, that is, weather information, the shooting time, GPS coordinates, and the number of objects. .

다음 구성으로, 객체 식별부(235)는 학습 데이터 수집 장치(100)에 의해 수집된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보로부터 객체를 식별할 수 있다. With the following configuration, the object identification unit 235 may identify an object from the sensed data, 3D point cloud data, 2D image, and distance information collected by the learning data collection apparatus 100 .

기본적으로, 본 발명의 일 실시예에 따른 객체 식별부(235)는 3D 점군 데이터에 포함된 점들(points)의 3차원 좌표를 기초로, 2D 이미지 내에서 객체가 존재할 것으로 예측되는 객체 영역을 설정할 수 있다. 이 경우, 객체 영역은 정점들(vertices)과 정점들을 서로 연결한 간선들(edges)로 구성된 2차원 영역일 수 있다.Basically, the object identification unit 235 according to an embodiment of the present invention sets an object area in which an object is predicted to exist in a 2D image based on the three-dimensional coordinates of points included in the 3D point cloud data. can In this case, the object region may be a two-dimensional region composed of vertices and edges connecting the vertices to each other.

객체 영역을 구성하는 정점들은 기본적으로 연산 능력(computing power)에 대응하여 학습 데이터 생성 장치(200)에 의해 사전에 설정된 개수로 구성될 수 있다.The number of vertices constituting the object region may be configured in advance by the learning data generating apparatus 200 in response to computing power.

그러나, 객체 식별부(235)는 카메라에 의해 촬영된 2D 이미지의 중요도가 변화되는 경우, 객체 영역을 구성하는 정점들의 개수를 조절할 수 있다.However, when the importance of the 2D image captured by the camera is changed, the object identification unit 235 may adjust the number of vertices constituting the object region.

일 예로, 객체 식별부(235)는 차량에 설치된 카메라가 2D 이미지를 촬영하는 주기(period)의 크기에 비례하여, 객체 영역을 구성하는 정점들의 개수를 증가시킬 수 있다. For example, the object identification unit 235 may increase the number of vertices constituting the object region in proportion to the size of a period during which a camera installed in a vehicle captures a 2D image.

다른 예로, 객체 식별부(235)는 카메라가 설치된 차량의 이동 속도에 비례하여, 객체 영역을 구성하는 정점들의 개수를 증가시킬 수도 있다.As another example, the object identification unit 235 may increase the number of vertices constituting the object area in proportion to the moving speed of the vehicle in which the camera is installed.

한편, 3D 점군 데이터로부터 2D 이미지 내의 객체를 식별하기 위하여, 객체 식별부(235)는 3D 점군 데이터에 포함된 점들 중에서 사전에 설정된 임계 범위 내에서 군집을 형성하고 있는 점들을 식별할 수 있다.Meanwhile, in order to identify the object in the 2D image from the 3D point cloud data, the object identification unit 235 may identify points forming a cluster within a preset threshold range among points included in the 3D point cloud data.

객체 식별부(235)는 식별된 군집의 X축 상의 폭(width), Y축 상의 높이(height) 및 Z축 상의 깊이(depth)를 기초로, 객체의 유형을 식별할 수 있다. 보다 상세하게, 객체 식별부(235)는 데이터베이스 내에 객체의 유형별로 사전에 구비된 폭, 높이 및 깊이의 비율 관계(rate relation)를 기초로, 식별된 군집의 X축 상의 폭, Y축 상의 높이 및 Z축 상의 깊이에 대응하는 객체의 유형을 식별할 수 있다. The object identification unit 235 may identify the object type based on a width on an X-axis, a height on a Y-axis, and a depth on the Z-axis of the identified cluster. In more detail, the object identification unit 235 determines the width on the X-axis and the height on the Y-axis of the identified cluster based on a rate relation of width, height, and depth provided in advance for each type of object in the database. and the type of object corresponding to the depth on the Z-axis may be identified.

객체 식별부(235)는 식별된 객체의 유형에 따라 데이터베이스 내에 사전에 구비된 3D 모델을 해당 2D 이미지를 촬영한 카메라의 광축(optical axis) 방향에 따라 3차원 회전시킬 수 있다. 그리고, 객체 식별부(235)는 3차원 회전된 3D 모델을 카메라의 광축 방향에서 바라본 2차원 형상을 객체 영역으로 식별할 수 있다. The object identification unit 235 may rotate the 3D model previously provided in the database according to the type of the identified object according to the direction of the optical axis of the camera which photographed the corresponding 2D image in 3D. In addition, the object identification unit 235 may identify a two-dimensional shape viewed from the optical axis direction of the camera as an object region of the three-dimensionally rotated 3D model.

그리고, 객체 식별부(235)는 객체 영역으로 식별된 2차원 형상을 2D 이미지에 반영하여 정점들과 간선들을 구성함으로써, 2D 이미지 내에서 객체가 존재할 것으로 예측되는 객체 영역을 설정할 수 있다.In addition, the object identification unit 235 may configure the vertices and edges by reflecting the two-dimensional shape identified as the object area in the 2D image, thereby setting the object area in which the object is predicted to exist in the 2D image.

한편, 객체 식별부(235)는 식별된 객체 영역에 대하여 엣지를 추출(edge detection)하고, 데이터베이스로부터 객체의 유형 및 추출된 엣지의 패턴(edge pattern)에 대응하는 객체 검출 규칙이 존재하는 여부를 기초로 식별된 객체 영역을 검증할 수 있다. 이 경우, 객체 검출 규칙은 학습 데이터 생성 장치(200)에 의해 배포되며, 2D 이미지 내에서 식별된 객체를 검증할 수 있도록 객체의 유형별로 분류된 엣지의 패턴들을 열거한 규칙이다.On the other hand, the object identification unit 235 extracts an edge with respect to the identified object region, and determines whether an object detection rule corresponding to the type of object and the extracted edge pattern from the database exists. Based on the identified object area can be verified. In this case, the object detection rule is a rule that is distributed by the learning data generating device 200 and enumerates edge patterns classified by type of object to verify the object identified in the 2D image.

또한, 객체 식별부(235)는 2D 이미지 내에서 어떠한 객체도 식별되지 않은 경우, 객체가 식별되지 않은 2D 이미지가 촬영된 시점과 동시에 획득된 3D 점군 데이터를 저장부(245)로부터 제거할 수 있다.Also, when no object is identified in the 2D image, the object identification unit 235 may remove the 3D point cloud data acquired at the same time as the 2D image in which the object is not identified from the storage unit 245 . .

비식별 처리부(240)는 객체 식별부(235)가 3D 모델을 이용하여 객체 영역을 설정하면, 3D 모델에 사전에 부여된 비식별 처리 영역에 대응하는 영역에 대하여 비식별 처리를 수행할 수 있다.When the object identification unit 235 sets the object area using the 3D model, the de-identification processing unit 240 may perform de-identification processing on the area corresponding to the non-identification processing area previously assigned to the 3D model. .

구체적으로, 비식별 처리부(240)는 식별된 객체의 일부를 블러링(blurring) 처리하여 비식별 처리를 수행하되, 식별된 객체에서 랜드 마크(land mark)를 추출하고, 추출된 랜드 마크에 블러링 처리를 수행할 수 있다. 예를 들어, 비식별 처리부(240)는 식별된 객체가 사람일 경우, 사람의 랜드 마크에 해당하는 눈, 코, 입을 추출하고, 추출된 눈, 코, 입만 선택적으로 블러링 처리함으로써, 얼굴 전체를 블러링 처리하는 것과 대비하여 학습 효율을 높일 수 있다.Specifically, the de-identification processing unit 240 performs de-identification processing by blurring a part of the identified object, extracting a landmark from the identified object, and blurring the extracted landmark Ring processing can be performed. For example, when the identified object is a person, the non-identification processing unit 240 extracts the eyes, nose, and mouth corresponding to the landmark of the person, and selectively blurs only the extracted eyes, nose, and mouth, so that the entire face Learning efficiency can be improved compared to blurring.

또한 비식별 처리부(240)는 식별된 객체의 일부를 블러링(blurring) 처리하여 비식별 처리를 수행하되, 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지를 기반으로 블러링 처리를 수행할 수 있다. 한편 식별된 객체 전체를 블러링 처리할 경우, 객체의 엣지가 불분명해지기 때문에 어노테이션 작업에 영향을 미치게 된다. 이에 따라, 비식별 처리부(240)는 객체의 엣지를 추출하고, 추출된 엣지로부터 사전에 설정된 임계 픽셀(pixel)의 개수만큼 이격되도록 블러링 처리를 수행할 수 있다. 예를 들어, 비식별 처리부(240)는 식별된 객체가 사람일 경우, 사람의 얼굴 형상에 대응하는 엣지를 추출하고, 엣지로부터 내부로 사전에 설정된 임계 픽셀의 개수만큼 이격되도록 블러링 처리함으로써, 사람의 형상을 헤치지 않는 선에서 비식별 처리를 수행할 수 있다.In addition, the de-identification processing unit 240 performs de-identification processing by blurring a part of the identified object, extracting the edge of the identified object, and performing blurring processing based on the extracted edge can be done On the other hand, if the entire identified object is blurred, the edge of the object becomes unclear, which affects the annotation work. Accordingly, the non-identification processing unit 240 may extract an edge of the object and perform blurring processing to be spaced apart from the extracted edge by a preset number of threshold pixels. For example, when the identified object is a person, the non-identification processing unit 240 extracts an edge corresponding to the face shape of the person, and blurs the edge so as to be spaced apart from the edge by the preset number of critical pixels to the inside, De-identification processing can be performed in a line that does not interfere with the human shape.

또한 비식별 처리부(240)는 식별된 객체의 일부를 비식별 처리하되, 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지의 패턴을 변경할 수 있다. 구체적으로 비식별 처리부(240)는 추출된 엣지를 기계 학습의 대상이 되는 지역의 체형, 얼굴형 중 적어도 하나를 고려하여 추출된 엣지의 패턴을 변경할 수 있다. 예를 들어, 비식별 처리부(240)는 기계 학습의 대상이 되는 지역이 한국일 경우, 식별된 객체의 추출된 엣지 패턴을 한국의 평균 체형, 평균 얼굴형으로 변경하여 적용할 수 있다.In addition, the de-identification processing unit 240 de-identifies a part of the identified object, but may extract an edge of the identified object and change the pattern of the extracted edge. Specifically, the non-identification processing unit 240 may change the pattern of the extracted edge in consideration of at least one of a body shape and a face shape of a region to be machine learning as the extracted edge. For example, when the target region for machine learning is Korea, the non-identification processing unit 240 may change and apply the extracted edge pattern of the identified object to the average body shape and average face shape of Korea.

또한, 비식별 처리부(240)는 식별된 객체의 일부를 딥-페이크(deep-fake) 처리하여 비식별 처리를 수행하되, 식별된 객체에서 랜드 마크(land mark)를 추출하여, 추출된 랜드 마크를 해당 랜드 마크 유형에 맞는 다른 이미지로 대체할 수 있다. 구체적으로, 비식별 처리부(240)는 추출된 랜드 마크를 해당 랜드 마크 유형에 맞게 사전에 저장된 랜드 마크 이미지 중 유사도가 사전에 설정된 임계 값보다 높은 랜드 마크 이미지로 대체할 수 있다. 예를 들어, 비식별 처리부(240)는 식별된 객체가 얼굴일 경우, 눈, 코, 입을 추출하고, 추출된 눈, 코, 입과 사전에 저장된 눈, 코, 입 이미지와 비교하여 유사도가 높은 눈, 코, 입 이미지를 추출된 눈, 코, 입 이미지와 대체할 수 있다.In addition, the de-identification processing unit 240 performs a de-identification process by deep-fake processing a part of the identified object, extracting a landmark from the identified object, and the extracted landmark can be replaced with another image suitable for that landmark type. Specifically, the non-identification processing unit 240 may replace the extracted landmark with a landmark image having a similarity higher than a preset threshold value among landmark images stored in advance to match the landmark type. For example, when the identified object is a face, the non-identification processing unit 240 extracts eyes, nose, and mouth, and has a high similarity compared to the extracted eyes, nose, and mouth and the previously stored eye, nose, and mouth images. The eye, nose, and mouth images can be replaced with the extracted eye, nose, and mouth images.

또한, 비식별 처리부(240)는 식별된 객체의 일부를 딥-페이크(deep-fake) 처리하여 1차 비식별 처리를 수행한 후에, 1차 비식별 처리된 객체의 일부를 블러링(blurring) 처리하여 2차 비식별 처리를 수행할 수 있다.In addition, the de-identification processing unit 240 deep-fakes a portion of the identified object to perform the first de-identification process, and then blurs a portion of the first de-identified object. can be processed to perform secondary de-identification processing.

이하, 상술한 바와 같은 학습 데이터 생성 장치(200)의 논리적 구성요소를 구현하기 위한 하드웨어에 대하여 보다 구체적으로 설명한다.Hereinafter, hardware for implementing the logical components of the apparatus 200 for generating learning data as described above will be described in more detail.

도 5는 본 발명의 일 실시예에 따른 학습 데이터 생성 장치의 논리적 구성도이다.5 is a logical configuration diagram of an apparatus for generating learning data according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 학습 데이터 생성 장치(200)는 프로세서(Processor, 250), 메모리(Memory, 255), 송수신기(Transceiver, 260), 입출력장치(Input/output device, 265), 데이터 버스(Bus, 270) 및 스토리지(Storage, 275)를 포함하여 구성될 수 있다.As shown in FIG. 5 , the learning data generating device 200 includes a processor 250 , a memory 255 , a transceiver 260 , an input/output device 265 , and a data bus. (Bus, 270) and storage (Storage, 275) may be configured to include.

프로세서(250)는 메모리(255)에 상주된 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(280a)에 따른 명령어를 기초로, 학습 데이터 생성 장치(200)의 동작 및 기능을 구현할 수 있다. 메모리(255)에는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(280a)가 상주(loading)될 수 있다. 송수신기(260)는 학습 데이터 수집 장치(100), 어노테이션 장치(300) 및 인공지능 학습 장치(400)와 데이터를 송수신할 수 있다. 입출력장치(265)는 학습 데이터 생성 장치(200)의 동작에 필요한 데이터를 입력 받고, 수집 및 전처리된 2D 이미지들, 3D 점군 데이터들, 어노테이션 작업 결과물을 출력할 수 있다. 데이터 버스(270)는 프로세서(250), 메모리(255), 송수신기(260), 입출력장치(265) 및 스토리지(275)와 연결되어, 각각의 구성 요소 사이가 서로 데이터를 전달하기 위한 이동 통로의 역할을 수행할 수 있다.The processor 250 may implement the operations and functions of the learning data generating apparatus 200 based on an instruction according to the software 280a in which the method according to the embodiments of the present invention is implemented residing in the memory 255 . . In the memory 255, the software 280a in which the method according to the embodiments of the present invention is implemented may be loaded. The transceiver 260 may transmit/receive data to and from the learning data collection apparatus 100 , the annotation apparatus 300 , and the artificial intelligence learning apparatus 400 . The input/output device 265 may receive data necessary for the operation of the learning data generating device 200 , and output collected and preprocessed 2D images, 3D point cloud data, and annotation work results. The data bus 270 is connected to the processor 250 , the memory 255 , the transceiver 260 , the input/output device 265 , and the storage 275 . can play a role.

스토리지(275)는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(280a)의 실행을 위해 필요한 애플리케이션 프로그래밍 인터페이스(Application Programming Interface, API), 라이브러리(library) 파일, 리소스(resource) 파일 등을 저장할 수 있다. 스토리지(275)는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(280b)를 저장할 수 있다. 또한, 스토리지(275)는 본 발명의 실시예들에 따른 방법의 수행에 필요한 정보들을 저장할 수 있다.The storage 275 stores an application programming interface (API), a library file, a resource file, etc. necessary for the execution of the software 280a in which the method according to the embodiments of the present invention is implemented. can be saved The storage 275 may store the software 280b in which the method according to the embodiments of the present invention is implemented. Also, the storage 275 may store information necessary for performing the method according to the embodiments of the present invention.

본 발명의 일 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된, 가이드 제공 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 사전에 수집된 2D 이미지들을 분석하여 특이점을 추출하는 단계 및 상기 추출된 특이점을 어노테이션 장치가 어노테이션(annotation) 작업을 수행하기 위한 가이드 정보로 가공하여, 상기 2D 이미지들과 함께 제공하는 단계를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to an embodiment of the present invention, the software (280a, 280b) for implementing the guide providing method, residing in the memory 255 or stored in the storage 275, the processor 250 is artificial intelligence (Artificial Intelligence, AI) ) for machine learning (machine learning), extracting a singularity by analyzing the 2D images collected in advance, and processing the extracted singularity into guide information for an annotation device to perform an annotation operation, the 2D It may be a computer program recorded on a recording medium to execute the step of providing the images together.

본 발명의 다른 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된, 가이드 제공 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가 학습 데이터 수집 장치로부터 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 수집된 2D 이미지와 함께 상기 수집된 2D 이미지와 관련한 촬영 정보를 수신하는 단계, 상기 촬영 정보를 분석하여 특이점을 추출하는 단계 및 상기 추출된 특이점을 어노테이션 장치가 어노테이션(annotation) 작업을 수행하기 위한 가이드 정보로 가공하여, 상기 2D 이미지들과 함께 제공하는 단계를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to another embodiment of the present invention, the software (280a, 280b) for implementing the guide providing method, resident in the memory 255 or stored in the storage 275, the processor 250 is artificial intelligence from the learning data collection device. Receiving photographing information related to the collected 2D image together with the 2D image collected for machine learning of (Artificial Intelligence, AI), extracting a singularity by analyzing the photographing information, and the extracted The singularity may be a computer program recorded on a recording medium in order to execute the step of processing the singularity into guide information for the annotation device to perform an annotation operation, and providing the 2D images together.

본 발명의 다른 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된, 데이터 정제 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 사전에 수집된 2D 이미지들을 분석하여 중요도를 평가하는 단계 및 평가된 중요도에 따라 상기 수집된 2D 이미지들 중 적어도 하나의 2D 이미지를 정제하는 단계를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to another embodiment of the present invention, the software (280a, 280b) for implementing the data purification method, residing in the memory 255 or stored in the storage 275, the processor 250 is artificial intelligence (Artificial Intelligence, AI) ) to analyze the 2D images collected in advance for machine learning and evaluate the importance and to perform the steps of refining at least one of the 2D images of the collected 2D images according to the evaluated importance It may be a computer program recorded on a recording medium.

본 발명의 또 다른 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된, 비식별 처리 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 사전에 수집된 2D 이미지에 포함된 객체를 식별하는 단계 및 상기 식별된 객체의 유형에 대응하여 상기 식별된 객체의 일부를 비식별(de-identify) 처리하는 단계를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to another embodiment of the present invention, the software (280a, 280b) for implementing the de-identification processing method, resident in the memory 255 or stored in the storage 275, the processor 250 is artificial intelligence (Artificial Intelligence) , AI) identifying an object included in a previously collected 2D image for machine learning and de-identifying a part of the identified object in response to the type of the identified object It may be a computer program recorded on a recording medium to execute the processing step.

보다 구체적으로, 프로세서(250)는 ASIC(Application-Specific Integrated Circuit), 다른 칩셋(chipset), 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리(255)는 ROM(Read-Only Memory), RAM(Random Access Memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다. 송수신기(260)는 유무선 신호를 처리하기 위한 베이스밴드 회로를 포함할 수 있다. 입출력장치(265)는 키보드(keyboard), 마우스(mouse), 및/또는 조이스틱(joystick) 등과 같은 입력 장치 및 액정표시장치(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic LED, OLED) 및/또는 능동형 유기 발광 다이오드(Active Matrix OLED, AMOLED) 등과 같은 영상 출력 장치 프린터(printer), 플로터(plotter) 등과 같은 인쇄 장치를 포함할 수 있다. More specifically, the processor 250 may include an application-specific integrated circuit (ASIC), another chipset, a logic circuit, and/or a data processing device. The memory 255 may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and/or other storage devices. The transceiver 260 may include a baseband circuit for processing wired and wireless signals. The input/output device 265 includes an input device such as a keyboard, a mouse, and/or a joystick, and a liquid crystal display (LCD), an organic light emitting diode (OLED) and/or an input device such as a joystick. Alternatively, an image output device such as an active matrix OLED (AMOLED) may include a printing device such as a printer or a plotter.

본 명세서에 포함된 실시 예가 소프트웨어로 구현될 경우, 상술한 방법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리(255)에 상주되고, 프로세서(250)에 의해 실행될 수 있다. 메모리(255)는 프로세서(250)의 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서(250)와 연결될 수 있다.When the embodiment included in this specification is implemented in software, the above-described method may be implemented as a module (process, function, etc.) that performs the above-described function. Modules reside in memory 255 and may be executed by processor 250 . The memory 255 may be internal or external to the processor 250 , and may be coupled to the processor 250 by various well-known means.

도 5에 도시된 각 구성요소는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Each component shown in FIG. 5 may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of implementation by hardware, an embodiment of the present invention provides one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs ( Field Programmable Gate Arrays), a processor, a controller, a microcontroller, a microprocessor, etc. may be implemented.

또한, 펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현되어, 다양한 컴퓨터 수단을 통하여 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한, 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, in the case of implementation by firmware or software, an embodiment of the present invention is implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above, and is stored in a recording medium readable through various computer means. can be recorded. Here, the recording medium may include a program command, a data file, a data structure, etc. alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. For example, the recording medium includes a magnetic medium such as a hard disk, a floppy disk, and a magnetic tape, an optical recording medium such as a compact disk read only memory (CD-ROM), a digital video disk (DVD), and a floppy disk. Magneto-Optical Media, such as a disk, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those generated by a compiler. Such hardware devices may be configured to operate as one or more software to perform the operations of the present invention, and vice versa.

도 6은 본 발명의 일 실시예에 따른 가이드 제공 방법을 설명하기 위한 순서도이다.6 is a flowchart illustrating a guide providing method according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 학습 데이터 생성 장치(200)는 수집된 2D 이미지들 중 연속된 2D 이미지를 분석하여, 촬영 환경이 변화되는 시점을 특이점으로 추출할 수 있다(S110). 구체적으로 학습 데이터 생성 장치(200)는 수집된 2D 이미지들 중 연속된 2D 이미지 사이의 유사도를 평가하고, 유사도가 사전에 설정된 임계 값보다 높은 연속된 2D 이미지를 촬영 환경이 변화되는 시점으로 판단할 수 있다. 또한 학습 데이터 생성 장치(200)는 수집된 2D 이미지들 각각을 복수개의 영역으로 분할하고, 분할된 영역 각각을 분석하여 환경 변수를 파악하고, 환경 변수의 변화량을 기준으로 특이점을 추출할 수 있다. 또한 학습 데이터 생성 장치(200)는 촬영 정보를 분석하여 촬영 환경이 변화되는 시점을 특이점으로 추출할 수 있다. 여기서 촬영 정보는 학습 데이터 수집 장치(100)에 설치된 센서들의 센싱 값이 될 수 있다. 구체적으로, 학습 데이터 생성 장치(200)는 학습 데이터 수집 장치(100)에 설치된 조도 센서를 통해 학습 데이터 수집 장치(100)에 설치된 조명 장치가 점등 또는 소등 유무를 판단하고, 조명 장치의 점등 또는 소등 유무를 통해 2D 이미지를 촬영한 시점을 판단하거나, 장소 변화 시점을 판단할 수 있다. Referring to FIG. 6 , the learning data generating apparatus 200 according to an embodiment of the present invention may analyze a continuous 2D image among the collected 2D images, and extract a time point at which the shooting environment changes as a singularity ( S110). Specifically, the learning data generating apparatus 200 evaluates the similarity between consecutive 2D images among the collected 2D images, and determines a continuous 2D image having a similarity higher than a preset threshold value as the time point at which the shooting environment changes. can Also, the learning data generating apparatus 200 may divide each of the collected 2D images into a plurality of regions, analyze each of the divided regions to identify an environmental variable, and extract a singularity based on the amount of change in the environmental variable. In addition, the learning data generating apparatus 200 may analyze the photographing information and extract a time point at which the photographing environment changes as a singular point. Here, the photographing information may be a value sensed by sensors installed in the learning data collection apparatus 100 . Specifically, the learning data generating device 200 determines whether the lighting device installed in the learning data collecting device 100 is turned on or off through the illuminance sensor installed in the learning data collecting device 100 , and turning on or turning off the lighting device. Based on the presence or absence, it is possible to determine when the 2D image is photographed or when to change the location.

다음으로, 학습 데이터 생성 장치(200)는 수집된 2D 이미지들 중 촬영 환경이 변화되는 시점에 해당하는 구간을 지정하고, 지정된 구간을 가이드 정보로 가공하여 2D 이미지들과 함께 어노테이션 장치(300)에 제공할 수 있다(S120). 또한 학습 데이터 생성 장치(200)는 수집된 2D 이미지들의 분할된 영역 각각의 환경 변수가 사전에 설정된 임계 값보다 높은 구간을 지정하고, 지정된 구간을 가이드 정보로 가공할 수 있다. 또한 학습 데이터 생성 장치(200)는 촬영 환경이 변화되는 구간을 지정하고, 지정된 구간을 가이드 정보로 가공할 수 있다. Next, the learning data generating apparatus 200 designates a section corresponding to a point in time at which the shooting environment changes among the collected 2D images, and processes the designated section into guide information to the annotation device 300 along with the 2D images. can be provided (S120). In addition, the learning data generating apparatus 200 may designate a section in which an environment variable of each of the divided regions of the collected 2D images is higher than a preset threshold value, and process the designated section as guide information. Also, the learning data generating apparatus 200 may designate a section in which the shooting environment is changed, and process the designated section as guide information.

다음으로, 학습 데이터 생성 장치(200)는 S120 단계에서 가공된 가이드 정보를 2D 이미지와 함께 어노테이션 장치(300)에 제공할 수 있다(S130).Next, the learning data generating apparatus 200 may provide the guide information processed in step S120 together with the 2D image to the annotation apparatus 300 ( S130 ).

도 7은 본 발명의 일 실시예에 따른 데이터 정제 방법을 설명하기 위한 순서도이다.7 is a flowchart illustrating a data purification method according to an embodiment of the present invention.

도 7을 참조하면, 학습 데이터 생성 장치(200)는 수집된 2D 이미지들 각각에 포함된 객체(object)를 추출하고, 추출된 객체와 사전에 설정된 요구 유형(type require)에 해당하는 개체의 유사도를 산출하여 중요도를 평가할 수 있다(S210). 또한 학습 데이터 생성 장치(200)는 2D 이미지들과 함께 수집되는 각각의 2D 이미지와 촬영된 시점의 환경 요인(environmental factor)을 기준으로 중요도를 평가할 수 있다. 또한 학습 데이터 생성 장치(200)는 2D 이미지들 중 기계 학습의 대상이 되는 촬영 시점과 상이한 2D 이미지를 정제 대상이 되는 중요도가 낮은 이미지로 평가할 수 있다. 또한 학습 데이터 생성 장치(200)는 기계 학습의 대상이 되는 GPS(Global Positioning System) 좌표로부터 사전에 미리 설정된 임계 거리 내에 위치한 GPS 좌표를 갖는 2D 이미지를 정제 대상이 되는 중요도가 낮은 이미지로 평가할 수 있다. 또한 학습 데이터 생성 장치(200)는 수집된 2D 이미지들 각각에 포함된 객체(object)를 추출하고, 추출된 객체의 개수가 사전에 설정된 임계 개수보다 낮은 2D 이미지를 정제 대상이 되는 중요도가 낮은 이미지로 평가할 수 있다. 또한 학습 데이터 생성 장치(200)는 2D 이미지들 중에서 사전에 설정된 요구 유형(type require)에 대응되는 객체를 사전에 설정된 요구 개수(required number) 이하로 포함하고 있는 2D 이미지를 정제 대상이 되는 중요도가 낮은 이미지로 평가할 수 있다.Referring to FIG. 7 , the learning data generating apparatus 200 extracts an object included in each of the collected 2D images, and a degree of similarity between the extracted object and an object corresponding to a preset type require It is possible to evaluate the importance by calculating (S210). In addition, the learning data generating apparatus 200 may evaluate the importance based on each 2D image collected together with the 2D images and an environmental factor at the time of the photographing. Also, the learning data generating apparatus 200 may evaluate, among 2D images, a 2D image that is different from a photographing time that is a target of machine learning as an image with a low importance as a target of refining. In addition, the learning data generating apparatus 200 may evaluate a 2D image having GPS coordinates located within a preset threshold distance from Global Positioning System (GPS) coordinates, which are the target of machine learning, as an image of low importance to be refined. . In addition, the learning data generating apparatus 200 extracts an object included in each of the collected 2D images, and selects a 2D image in which the number of extracted objects is lower than a preset threshold number, an image of low importance to be refined can be evaluated as In addition, the learning data generating apparatus 200 is a 2D image containing an object corresponding to a preset type require from among the 2D images in a preset required number or less, the importance to be refined is It can be evaluated as a low image.

다음으로, 학습 데이터 생성 장치(200)는 S210 단계에서 평가된 중요도에 따라 수집된 2D 이미지들 중 적어도 하나의 2D 이미지를 정제할 수 있다(S220). 구체적으로 학습 데이터 생성 장치(200)는 수집된 2D 이미지에 포함된 객체와 설정된 요구 유형에 해당하는 객체의 유사도가 사전에 설정된 임계 값보다 낮은 2D 이미지를 정제할 수 있다. 또한 학습 데이터 생성 장치(200)는 2D 이미지가 촬영된 시점의 환경 요인 즉, 기상 정보, 촬영 시점, GPS 좌표, 객체의 수를 기준으로 중요도가 사전에 설정된 임계 값보다 낮은 2D 이미지를 정제할 수 있다.Next, the learning data generating apparatus 200 may refine at least one 2D image among the 2D images collected according to the importance evaluated in step S210 ( S220 ). In more detail, the learning data generating apparatus 200 may refine a 2D image in which a similarity between an object included in the collected 2D image and an object corresponding to a set request type is lower than a preset threshold value. In addition, the learning data generating device 200 may refine the 2D image whose importance is lower than a preset threshold based on environmental factors at the time the 2D image was taken, that is, weather information, the shooting time, GPS coordinates, and the number of objects. there is.

다음으로, 학습 데이터 생성 장치(200)는 S220 단계에서 정제된 2D 이미지를 어노테이션 장치(300)에 제공할 수 있다(S230).Next, the training data generating apparatus 200 may provide the 2D image refined in step S220 to the annotation apparatus 300 ( S230 ).

도 8은 본 발명의 일 실시예에 따른 비식별 처리 방법을 설명하기 위한 순서도이다.8 is a flowchart illustrating a de-identification processing method according to an embodiment of the present invention.

도 8을 참조하면, 학습 데이터 생성 장치(200)는 학습 데이터 수집 장치(100)에 의해 수집된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보로부터 객체를 식별할 수 있다(S310). 학습 데이터 생성 장치(200)는 식별된 군집의 X축 상의 폭(width), Y축 상의 높이(height) 및 Z축 상의 깊이(depth)를 기초로, 객체의 유형을 식별할 수 있다. 보다 상세하게, 학습 데이터 생성 장치(200)는 데이터베이스 내에 객체의 유형별로 사전에 구비된 폭, 높이 및 깊이의 비율 관계(rate relation)를 기초로, 식별된 군집의 X축 상의 폭, Y축 상의 높이 및 Z축 상의 깊이에 대응하는 객체의 유형을 식별할 수 있다. Referring to FIG. 8 , the learning data generating apparatus 200 may identify an object from the sensed data, 3D point cloud data, 2D image, and distance information collected by the learning data collecting apparatus 100 ( S310 ). The learning data generating apparatus 200 may identify the type of object based on a width on an X-axis, a height on a Y-axis, and a depth on the Z-axis of the identified cluster. In more detail, the learning data generating apparatus 200 determines the width on the X-axis and the Y-axis of the identified cluster based on a rate relation of width, height, and depth provided in advance for each type of object in the database. It is possible to identify the type of object corresponding to the height and depth on the Z-axis.

다음으로, 학습 데이터 생성 장치(200)는 S310 단계에서 3D 모델을 이용하여 객체 영역을 설정하면, 3D 모델에 사전에 부여된 비식별 처리 영역에 대응하는 영역에 대하여 비식별 처리를 수행할 수 있다. 구체적으로, 학습 데이터 생성 장치(200)는 식별된 객체의 일부를 블러링(blurring) 처리하여 비식별 처리를 수행하되, 식별된 객체에서 랜드 마크(land mark)를 추출하고, 추출된 랜드 마크에 블러링 처리를 수행할 수 있다. 학습 데이터 생성 장치(200)는 식별된 객체의 일부를 블러링(blurring) 처리하여 비식별 처리를 수행하되, 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지를 기반으로 블러링 처리를 수행할 수 있다. 또한 학습 데이터 생성 장치(200)는 식별된 객체의 일부를 비식별 처리하되, 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지의 패턴을 변경할 수 있다. 구체적으로 학습 데이터 생성 장치(200)는 추출된 엣지를 기계 학습의 대상이 되는 지역의 체형, 얼굴형 중 적어도 하나를 고려하여 추출된 엣지의 패턴을 변경할 수 있다. 또한 학습 데이터 생성 장치(200)는 식별된 객체의 일부를 딥-페이크(deep-fake) 처리하여 비식별 처리를 수행하되, 식별된 객체에서 랜드 마크(land mark)를 추출하여, 추출된 랜드 마크를 해당 랜드 마크 유형에 맞는 다른 이미지로 대체할 수 있다. 구체적으로, 학습 데이터 생성 장치(200)는 추출된 랜드 마크를 해당 랜드 마크 유형에 맞게 사전에 저장된 랜드 마크 이미지 중 유사도가 사전에 설정된 임계 값보다 높은 랜드 마크 이미지로 대체할 수 있다.Next, if the learning data generating apparatus 200 sets the object region using the 3D model in step S310, de-identification processing may be performed on the region corresponding to the non-identification processing region previously assigned to the 3D model. . Specifically, the learning data generating apparatus 200 performs de-identification processing by blurring a part of the identified object, extracts a landmark from the identified object, and Blur processing can be performed. The learning data generating apparatus 200 performs de-identification processing by blurring a part of the identified object, extracting the edge of the identified object, and performing blurring processing based on the extracted edge can be done In addition, the learning data generating apparatus 200 may de-identify a part of the identified object, but may extract an edge of the identified object and change the pattern of the extracted edge. Specifically, the learning data generating apparatus 200 may change the pattern of the extracted edge in consideration of at least one of a body shape and a face shape of a region to be machine learning as the extracted edge. In addition, the learning data generating apparatus 200 deep-fakes a part of the identified object to perform de-identification processing, extracts a landmark from the identified object, and the extracted landmark can be replaced with another image suitable for that landmark type. Specifically, the learning data generating apparatus 200 may replace the extracted landmark with a landmark image having a similarity higher than a preset threshold value among landmark images stored in advance according to the landmark type.

다음으로, 학습 데이터 생성 장치(200)는 S320 단계에서 비식별 처리된 2D 이미지를 어노테이션 장치(300)에 제공할 수 있다(S330).Next, the training data generating apparatus 200 may provide the 2D image de-identified in step S320 to the annotation apparatus 300 ( S330 ).

도 9 및 도 10은 본 발명의 일 실시예에 따른 가이드 제공 방법을 설명하기 위한 예시도이다.9 and 10 are exemplary views for explaining a guide providing method according to an embodiment of the present invention.

도 9 및 도 10을 참조하면, 본 발명의 일 실시예에 따른 학습 데이터 생성 장치(200)는 수집된 2D 이미지들을 분석하여 특이점을 추출하고, 추출된 특이점을 어노테이션 장치(300)가 어노테이션 작업을 수행하기 위한 가이드 정보로 가공하여, 2D 이미지들과 함께 제공함으로써, 어노테이션 작업을 수행하는 작업자들의 편의성 및 집중도를 향상시킬 수 있다.9 and 10 , the learning data generating apparatus 200 according to an embodiment of the present invention extracts a singularity by analyzing the collected 2D images, and the extracted singularity is annotated by the annotating device 300 By processing the guide information for performing and providing it with 2D images, it is possible to improve the convenience and concentration of workers performing the annotation work.

예를 들어, 도 9과 같이, 학습 데이터 생성 장치(200)는 연속된 2D 이미지 (a), (b) 각각에 대하여 수직 방향으로 두개의 영역으로 분할할 수 있다. 즉 학습 데이터 생성 장치(200)는 상단 영역(A1, B1)을 날씨 변화 시점을 인식할 수 있는 영역으로, 하단 영역(A2, B2)를 도로 변화 시점을 인식할 수 있는 영역으로 분할할 수 있다.For example, as shown in FIG. 9 , the training data generating apparatus 200 may divide the continuous 2D images (a) and (b) into two regions in a vertical direction, respectively. That is, the learning data generating apparatus 200 may divide the upper regions A1 and B1 into regions capable of recognizing the time of change of weather, and the lower regions A2 and B2 into regions capable of recognizing the time of change of road. .

이후 도 10의 (a)와 같이, 학습 데이터 생성 장치(200)는 상단 영역 즉, 날씨 변화 시점을 인식하기 위하여, 연속된 두개 이미지에 대한 상단 영역의 RGB 히스토그램을 생성하고, RGB 히스토그램을 비교할 수 있다.Thereafter, as shown in (a) of FIG. 10 , the learning data generating apparatus 200 generates an RGB histogram of the upper region for two consecutive images in order to recognize the upper region, that is, a weather change time, and compares the RGB histograms. there is.

그리고 도 10의 (b)와 같이, 학습 데이터 생성 장치(200)는 RGB 히스토그램의 변화량이 사전 설정된 임계값 보다 높은 지점(T)을 날씨가 변화하는 시점으로 인식하고, 날씨가 변화하는 시점을 특이점으로 어노테이션 장치가 어노테이션(annotation) 작업을 수행하기 위한 가이드 정보로 가공하여, 2D 이미지들과 함께 어노테이션 장치(300)에 제공할 수 있다.And, as shown in (b) of FIG. 10 , the learning data generating apparatus 200 recognizes a point T where the amount of change of the RGB histogram is higher than a preset threshold as a time point when the weather changes, and identifies a point when the weather changes as a singularity point. As a result, the annotation device may process it into guide information for performing an annotation operation, and provide it to the annotation device 300 together with 2D images.

도 11은 본 발명의 다른 실시예에 따른 가이드 제공 방법을 설명하기 위한 예시도이다.11 is an exemplary view for explaining a guide providing method according to another embodiment of the present invention.

도 11을 참조하면, 본 발명의 일 실시예에 따른 학습 데이터 생성 장치(200)는 수집된 2D 이미지와 함께 수신하는 촬영 정보를 분석하여 특이점을 추출하고, 추출된 특이점을 어노테이션 장치(300)가 어노테이션 작업을 수행하기 위한 가이드 정보로 가공하여, 2D 이미지들과 함께 제공함으로써, 어노테이션 작업을 수행하는 작업자들의 편의성 및 집중도를 향상시킬 수 있다.Referring to FIG. 11 , the learning data generating apparatus 200 according to an embodiment of the present invention extracts singularities by analyzing photographing information received together with the collected 2D image, and the annotating apparatus 300 for the extracted singularities By processing the guide information for performing the annotation work and providing it together with 2D images, it is possible to improve the convenience and concentration of workers performing the annotation work.

구체적으로, 학습 데이터 생성 장치(200)는 학습 데이터 수집 장치(100)에 설치된 조도 센서를 통해 학습 데이터 수집 장치(100)에 설치된 조명 장치의 점등 또는 소등 유무를 판단하고, 조명 장치의 점등 또는 소등 유무를 통해 2D 이미지를 촬영한 시점을 판단할 수 있다.Specifically, the learning data generating device 200 determines whether the lighting device installed in the learning data collecting device 100 is turned on or off through the illuminance sensor installed in the learning data collecting device 100 , and turning on or turning off the lighting device. It is possible to determine when the 2D image was photographed based on the presence or absence.

예를 들어, 도 11의 (a)에 도시된 바와 같이 학습 데이터 수집 장치(100)가 촬영하고 있는 시점이 낮인 경우 조명 장치가 소등(off)된 상태이고, (b)와 같이 학습 데이터 수집 장치(100)가 촬영하고 있는 시점이 밤인 경우 조명 장치가 점등(on)된 상태인 것을 확인할 수 있다.For example, as shown in (a) of FIG. 11 , when the time point at which the learning data collection device 100 is photographing is daytime, the lighting device is turned off, and as shown in (b), the learning data collection device When it is night when 100 is photographing, it can be confirmed that the lighting device is turned on.

이와 같이, 학습 데이터 생성 장치(200)는 학습 데이터를 수집하는 학습 데이터 수집 장치(100)에 설치된 조명 장치의 점등 또는 소등 유무를 통해 해당 2D 이미지의 촬영 시점을 확인할 수 있으며, 촬영 시점을 특이점으로 어노테이션 장치가 어노테이션(annotation) 작업을 수행하기 위한 가이드 정보로 가공하여, 2D 이미지들과 함께 어노테이션 장치(300)에 제공할 수 있다.In this way, the learning data generating device 200 can check the shooting time of the corresponding 2D image through whether the lighting device installed in the learning data collecting device 100 for collecting the learning data is turned on or off, and the shooting time is a singular point. The annotation device may process it into guide information for performing an annotation operation, and may provide it to the annotation device 300 together with 2D images.

도 12는 본 발명의 일 실시예에 따른 데이터 정제 방법을 설명하기 위한 예시도이다.12 is an exemplary diagram for explaining a data purification method according to an embodiment of the present invention.

도 12를 참조하면, 본 발명의 일 실시예에 따른 학습 데이터 생성 장치(200)는 수집된 2D 이미지들을 분석하여 중요도를 평가하고, 평가된 중요도에 따라 수집된 2D 이미지들 중 적어도 하나의 2D 이미지를 정제함으로써, 중요도가 상대적으로 낮은 2D 이미지를 정제함에 따라 기계 학습의 학습 효율을 향상시킬 수 있다.12 , the learning data generating apparatus 200 according to an embodiment of the present invention analyzes the collected 2D images to evaluate the importance, and at least one 2D image among the 2D images collected according to the evaluated importance By refining , it is possible to improve the learning efficiency of machine learning by refining 2D images with relatively low importance.

예를 들어, (a)에 도시된 바와 같이, 기계 학습에 대상이 되는 객체가 자동차(object1)인 경우, 학습 데이터 생성 장치(200)는 수집된 2D 이미지들 각각에 포함된 객체를 추출하고, 추출된 객체와 사전에 설정된 요구 유형 즉, 자동차에 해당하는 객체의 유사도를 산출하여 중요도를 평가할 수 있다.For example, as shown in (a), when the object to be machine learning is a car (object1), the learning data generating apparatus 200 extracts an object included in each of the collected 2D images, It is possible to evaluate the importance by calculating the similarity between the extracted object and a preset request type, that is, an object corresponding to a vehicle.

이때, 학습 데이터 생성 장치(200)는 (b)에 도시된 바와 같이, 추출된 객체가 사람인 경우, 설정된 유구 유형에 해당하는 객체의 유사도가 사전에 설정된 임계 값보다 낮기 때문에, 해당 2D 이미지를 정제할 수 있다.At this time, as shown in (b), when the extracted object is a human, the learning data generating apparatus 200 refines the 2D image because the degree of similarity of the object corresponding to the set relic type is lower than the preset threshold value. can do.

도 13 내지 도 16는 본 발명의 일 실시예에 따른 비식별 처리 방법을 설명하기 위한 예시도이다.13 to 16 are exemplary views for explaining a de-identification processing method according to an embodiment of the present invention.

도 13 내지 도 16을 참조하면, 본 발명의 일 실시예에 따른 학습 데이터 생성 장치(200)는 수집된 2D 이미지에 포함된 객체를 식별하고, 식별된 객체의 유형에 대응하여 식별된 객체의 일부를 비식별(de-identify) 처리할 수 있다. 즉 식별된 객체의 전체를 비식별 처리하지 않고, 식별된 객체 중 일부 영역만을 선택적으로 비식별 처리함으로써, 개인 정보 유출을 방지하면서 기계 학습의 학습 효율을 향상시킬 수 있다.13 to 16 , the learning data generating apparatus 200 according to an embodiment of the present invention identifies an object included in a collected 2D image, and a part of the identified object corresponding to the identified type of object can be de-identified. That is, by selectively de-identifying only some areas of the identified objects without de-identifying the entire identified object, it is possible to improve the learning efficiency of machine learning while preventing personal information leakage.

예를 들어, 도 13에 도시된 바와 같이, 2D 이미지에서 얼굴이 객체(object)로 인식된 경우, 인식된 객체를 블러링(blurring) 처리하게 되면, 얼굴 형상 자체가 불분명해지기 때문에 학습 데이터로 사용할 경우, 학습 효율이 떨어지는 문제점이 생길 수 있다.For example, as shown in FIG. 13, when a face is recognized as an object in a 2D image, if the recognized object is blurred, the face shape itself becomes unclear, so it is used as training data. If used, there may be a problem that the learning efficiency is lowered.

따라서 도 14에 도시된 바와 같이, 학습 데이터 생성 장치(200)는 식별된 객체의 일부를 블러링(blurring) 처리하여 비식별 처리를 수행하되, 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지를 기반으로 블러링 처리를 수행할 수 있다. 즉 학습 데이터 생성 장치(200)는 추출된 엣지로부터 사전에 설정된 임계 픽셀(pixel)의 개수만큼 이격되도록 블러링 처리를 수행하여 인식된 객체의 엣지가 불분명해지는 것을 방지하여 학습 효율을 높일 수 있다.Therefore, as shown in FIG. 14 , the learning data generating apparatus 200 performs de-identification processing by blurring a part of the identified object, but extracts the edge of the identified object, and extracts Blur processing can be performed based on the removed edge. That is, the learning data generating apparatus 200 may perform the blurring process to be spaced apart from the extracted edge by the preset number of threshold pixels to prevent the edge of the recognized object from becoming unclear, thereby increasing learning efficiency.

또한 도 15 및 도 16에 도시된 바와 같이, 학습 데이터 생성 장치(200)는 식별된 객체에서 랜드 마크(land mark)를 추출할 수 있다. 그리고 학습 데이터 생성 장치(200)는 추출된 랜드 마크에 블러링 처리를 수행하여 인식된 객체의 엣지가 불분명해지는 것을 방지하여 학습 효율을 높일 수 있다.Also, as shown in FIGS. 15 and 16 , the learning data generating apparatus 200 may extract a landmark from the identified object. In addition, the learning data generating apparatus 200 may perform a blurring process on the extracted landmark to prevent an edge of a recognized object from becoming unclear, thereby increasing learning efficiency.

도 17은 본 발명의 일 실시예에 따른 데이터 정제 방법을 설명하기 위한 순서도이다.17 is a flowchart illustrating a data purification method according to an embodiment of the present invention.

도 17을 참조하면, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 2D 이미지들을 수집할 수 있다(S100). 뿐만 아니라, 학습 데이터 수집 장치(100)는 감지 데이터, 3D 점군 데이터, 거리 정보, 날씨 정보, 위치 정보 및 속도 정보 등을 수집할 수 있다.Referring to FIG. 17 , the apparatus 100 for collecting learning data according to an embodiment of the present invention may collect 2D images for machine learning of artificial intelligence (AI) ( S100 ). In addition, the learning data collection apparatus 100 may collect sensed data, 3D point cloud data, distance information, weather information, location information, speed information, and the like.

다음으로, 학습 데이터 수집 장치(100)는 수집된 2D 이미지들에 대한 정보를 추출할 수 있다(S200). 즉, 학습 데이터 수집 장치(100)는 수집된 2D 이미지들 중 연속된 2D 이미지 사이의 유사도를 산출할 수 있다. 특히, 유사도 산출부(115)는 연속된 2D 이미지에서 픽셀(pixel)에 대한 RGB(Red, Green, Blue) 히스토그램을 생성하고, 생성된 RGB 히스토그램을 비교하여 유사도를 산출할 수 있다. 또한 학습 데이터 수집 장치(100)는 연속된 2D 이미지 각각의 엣지(Edge)를 추출하고, 연속된 2D 이미지 사이의 엣지 변화량을 기준으로 연속된 2D 이미지 사이의 유사도를 산출할 수 있다. 여기서 유사도 산출부(115)는 식별된 객체 영역에 대하여 엣지를 추출하거나, 2D 이미지 전체에 포함된 객체에 대한 엣지를 추출할 수 있다. 이때 유사도 산출부(115)는 추출된 엣지의 모멘트(moment)를 비교하여 유사도를 산출할 수 있다. 또한 학습 데이터 수집 장치(100)는 수집된 2D 이미지와 함께 수집된 메타 데이터(meta data)를 통해 기계 학습에 대한 영향도를 산출할 수 있다. 구체적으로, 학습 데이터 수집 장치(100)는 2D 이미지를 수집하는 시점의 속도 정보, 날씨 정보, 센서 동작 정보 및 GPS 좌표 정보 중 적어도 하나를 포함하는 메타 데이터를 통해 기계 학습에 대한 영향도를 산출할 수 있다.Next, the learning data collection apparatus 100 may extract information about the collected 2D images (S200). That is, the learning data collection apparatus 100 may calculate a similarity between consecutive 2D images among the collected 2D images. In particular, the similarity calculator 115 may generate a red, green, blue (RGB) histogram for a pixel in a continuous 2D image, and calculate the similarity by comparing the generated RGB histogram. Also, the learning data collection apparatus 100 may extract an edge of each successive 2D image and calculate a similarity between successive 2D images based on an edge change amount between successive 2D images. Here, the similarity calculator 115 may extract an edge with respect to the identified object region or may extract an edge with respect to an object included in the entire 2D image. In this case, the similarity calculator 115 may calculate the similarity by comparing the extracted moments of the edges. In addition, the learning data collection apparatus 100 may calculate the degree of influence on machine learning through the collected meta data together with the collected 2D image. Specifically, the learning data collection device 100 calculates the degree of influence on machine learning through metadata including at least one of speed information, weather information, sensor operation information, and GPS coordinate information at the time of collecting the 2D image. can

다음으로, 학습 데이터 수집 장치(100)는 산출된 유사도 또는 영향도를 바탕으로 2D 이미지들의 초당 프레임 수(frame per second)를 결정할 수 있다. 여기서, 학습 데이터 수집 장치(100)는 2D 이미지들을 구간 별로 초당 프레임 수를 결정할 수 있다. 즉, 프레임 결정부(125)는 연속된 2D 이미지들 사이의 유사도에 따라 2D 이미지들을 그룹핑(grouping)하고, 해당 그룹에 사전에 설정된 초당 프레임 수를 적용할 수 있다. 또한 학습 데이터 수집 장치(100)는 2D 이미지들 전체에 대한 초당 프레임 수를 결정할 수 있다. 즉, 학습 데이터 생성 장치(200)에 수집된 2D 이미지들 중 연속된 2D 이미지들의 유사도 평균 값을 계산하고, 유사도 평균 값에 매칭되는 사전에 설정된 초당 프레임 수를 적용할 수 있다.Next, the learning data collection apparatus 100 may determine the number of frames per second of the 2D images based on the calculated similarity or influence. Here, the learning data collection apparatus 100 may determine the number of frames per second for each section of the 2D images. That is, the frame determiner 125 may group the 2D images according to the similarity between consecutive 2D images, and apply a preset number of frames per second to the group. Also, the learning data collection apparatus 100 may determine the number of frames per second for all 2D images. That is, a similarity average value of successive 2D images among the 2D images collected by the learning data generating apparatus 200 may be calculated, and a preset number of frames per second matching the similarity average value may be applied.

다음으로, 학습 데이터 수집 장치(100)는 결정된 초당 프레임 수에 해당하는 2D 이미지들을 학습 데이터 생성 장치(200)에 제공할 수 있다. 즉 학습 데이터 수집 장치(100)는 수집된 2D 이미지들 중 결정된 초당 프레임 수를 적용하여, 적용된 2D 이미지들을 학습 데이터 생성 장치(200)에 전송할 수 있다.Next, the learning data collection apparatus 100 may provide 2D images corresponding to the determined number of frames per second to the learning data generating apparatus 200 . That is, the learning data collection apparatus 100 may transmit the applied 2D images to the learning data generating apparatus 200 by applying the determined number of frames per second among the collected 2D images.

도 18은 본 발명의 일 실시예에 따라 데이터를 정제하는 과정을 설명하기 위한 예시도이다.18 is an exemplary diagram for explaining a process of refining data according to an embodiment of the present invention.

도 18을 참조하면, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 수집된 2D 이미지들에 대한 정보를 기준으로 수집된 2D 이미지들의 초당 프레임 수(frame per second)를 결정함으로써, 수집된 데이터 중 불필요한 데이터를 정제하여 학습 효율을 높이도록 할 수 있다.Referring to FIG. 18 , the learning data collection apparatus 100 according to an embodiment of the present invention determines the number of frames per second of the collected 2D images based on information about the collected 2D images, It is possible to improve learning efficiency by refining unnecessary data among the collected data.

보다 구체적으로, 학습 데이터 수집 장치(100)는 수집된 2D 이미지들 중 연속된 두개의 2D 이미지 사이의 유사도를 산출하거나, 수집된 2D 이미지와 함께 수집된 메타 데이터(meta data)를 통해 기계 학습에 대한 영향도를 산출하여 영향도를 기준으로 2D 이미지들의 초당 프레임 수를 결정할 수 있다.More specifically, the learning data collection apparatus 100 calculates a similarity between two consecutive 2D images among the collected 2D images, or performs machine learning through metadata collected together with the collected 2D images. The number of frames per second of 2D images can be determined based on the influence by calculating the degree of influence.

예를 들어 도 18의 (a)에 도시된 바와 같이, 학습 데이터 수집 장치(100)는 수집된 2D 이미지들 중 연속된 두개의 2D 이미지 사이의 유사도를 산출할 수 있다. 이때 유사도의 산출은 연속된 2D 이미지에서 픽셀(pixel)에 대한 RGB(Red, Green, Blue) 히스토그램을 생성하고, 생성된 RGB 히스토그램을 비교하여 유사도를 산출할 수 있다.For example, as shown in (a) of FIG. 18 , the learning data collection apparatus 100 may calculate a similarity between two consecutive 2D images among the collected 2D images. In this case, the similarity may be calculated by generating a red, green, blue (RGB) histogram for a pixel in a continuous 2D image, and comparing the generated RGB histogram to calculate the similarity.

그리고 (b)와 같이 학습 데이터 수집 장치(100)는 연속된 두개의 2D 이미지 사이의 유사도에 따라 학습 데이터 생성 장치(200)에 제공할 2D 이미지들의 초당 프레임 수를 제어할 수 있다.And as shown in (b), the learning data collection apparatus 100 may control the number of frames per second of the 2D images to be provided to the learning data generating apparatus 200 according to the similarity between two consecutive 2D images.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으나, 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 선정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.As described above, although preferred embodiments of the present invention have been disclosed in the present specification and drawings, it is in the technical field to which the present invention pertains that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein. It is obvious to those with ordinary knowledge. In addition, although specific terms have been used in the present specification and drawings, these are only used in a general sense to easily explain the technical contents of the present invention and help the understanding of the present invention, and are not intended to limit the scope of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

학습 데이터 수집 장치: 100 학습 데이터 생성 장치: 200
어노테이션 장치: 300 인공지능 학습 장치: 400
통신부: 105, 205 입출력부: 110, 210
유사도 산출부: 115 영향도 산출부: 120
프레임 결정부: 125 데이터 제공부: 130
특이점 추출부: 215 가이드 정보 제공부: 220
중요도 평가부: 225 이미지 정제부: 230
객체 식별부: 235 비식별 처리부: 240
저장부: 135, 245
Training data collection device: 100 Training data generation device: 200
Annotation device: 300 AI learning device: 400
Communication unit: 105, 205 Input/output unit: 110, 210
Similarity calculator: 115 Influence calculator: 120
Frame determining unit: 125 Data providing unit: 130
Singularity extraction unit: 215 Guide information providing unit: 220
Importance evaluation unit: 225 Image refinement unit: 230
Object identification unit: 235 Non-identification processing unit: 240
Storage: 135, 245

Claims (10)

학습 데이터 생성 장치가, 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 사전에 수집된 2D 이미지에 포함된 객체를 식별하는 단계; 및
상기 학습 데이터 생성 장치가, 상기 식별된 객체의 유형에 대응하여 상기 식별된 객체의 일부를 비식별(de-identify) 처리하는 단계;
를 포함하고,
상기 비식별 처리하는 단계는
상기 식별된 객체의 일부를 비식별 처리하되, 상기 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지의 패턴을 변경하며,
상기 비식별 처리하는 단계는
상기 추출된 엣지를 기계 학습의 대상이 되는 지역의 체형 및 얼굴형 중 적어도 하나를 고려하여 상기 추출된 엣지의 패턴을 변경하는 것을 특징으로 하는, 비식별 처리 방법.
identifying, by the learning data generating apparatus, an object included in a 2D image previously collected for machine learning of artificial intelligence (AI); and
de-identifying, by the learning data generating device, a portion of the identified object in response to the type of the identified object;
including,
The de-identification processing step is
A portion of the identified object is de-identified, but an edge of the identified object is extracted, and a pattern of the extracted edge is changed,
The de-identification processing step is
De-identification processing method, characterized in that the extracted edge is changed in a pattern of the extracted edge in consideration of at least one of a body shape and a face shape of a region subject to machine learning.
제1항에 있어서, 상기 비식별 처리하는 단계는
상기 식별된 객체의 일부를 블러링(blurring) 처리하여 상기 비식별 처리를 수행하되, 상기 식별된 객체에서 랜드 마크(land mark)를 추출하고, 추출된 랜드 마크에 블러링 처리를 수행하는 것을 특징으로 하는, 비식별 처리 방법.
The method of claim 1, wherein the de-identification processing comprises:
A part of the identified object is subjected to blurring to perform the de-identification process, a landmark is extracted from the identified object, and a blurring process is performed on the extracted landmark A method of de-identifying processing.
제1항에 있어서, 상기 비식별 처리하는 단계는
상기 식별된 객체의 일부를 블러링(blurring) 처리하여 상기 비식별 처리를 수행하되, 상기 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지를 기반으로 블러링 처리를 수행하는 것을 특징으로 하는, 비식별 처리 방법.
The method of claim 1, wherein the de-identification processing comprises:
A part of the identified object is subjected to blurring to perform the de-identification process, an edge of the identified object is extracted, and the blurring process is performed based on the extracted edge, characterized in that A non-identifying method of processing.
제3항에 있어서, 상기 비식별 처리하는 단계는
상기 추출된 엣지로부터 사전에 설정된 임계 픽셀(pixel)의 개수만큼 이격되도록 블러 처리를 수행하는 것을 특징으로 하는, 비식별 처리 방법.
The method of claim 3, wherein the de-identification processing comprises:
The de-identification processing method, characterized in that blur processing is performed to be spaced apart from the extracted edge by a preset number of threshold pixels.
제1항에 있어서, 상기 비식별 처리하는 단계는
상기 식별된 객체의 일부를 딥-페이크(deep-fake) 처리하여 상기 비식별 처리를 수행하되, 상기 식별된 객체에서 랜드 마크(land mark)를 추출하여, 추출된 랜드 마크를 해당 랜드 마크 유형에 맞는 다른 이미지로 대체하는 것을 특징으로 하는, 비식별 처리 방법.
The method of claim 1, wherein the de-identification processing comprises:
A part of the identified object is deep-fake-processed to perform the de-identification process, but a landmark is extracted from the identified object, and the extracted landmark is applied to the corresponding landmark type. A de-identification processing method, characterized in that it is replaced with another image that fits.
제5항에 있어서, 상기 비식별 처리하는 단계는
상기 추출된 랜드 마크를 해당 랜드 마크 유형에 맞게 사전에 저장된 랜드 마크 이미지 중 유사도가 사전에 설정된 임계 값보다 높은 랜드 마크 이미지로 대체하는 것을 특징으로 하는, 비식별 처리 방법.
The method of claim 5, wherein the de-identification processing comprises:
De-identification processing method, characterized in that the extracted landmark is replaced with a landmark image having a similarity higher than a preset threshold value among landmark images stored in advance to match the landmark type.
제1항에 있어서, 상기 비식별 처리하는 단계는
상기 식별된 객체의 일부를 딥-페이크(deep-fake) 처리하여 1차 비식별 처리를 수행한 후에, 상기 1차 비식별 처리된 객체의 일부를 블러링(blurring) 처리하여 2차 비식별 처리를 수행하는 것을 특징으로 하는, 비식별 처리 방법.
The method of claim 1, wherein the de-identification processing comprises:
After performing a first de-identification process by deep-fake processing a part of the identified object, a second de-identification process is performed by blurring a part of the first de-identified object A non-identification processing method, characterized in that performing a.
메모리(memory);
송수신기(transceiver); 및
상기 메모리에 상주된 명령어를 처리하는 프로세서(processor)를 포함하여 구성된 컴퓨팅 장치와 결합되어,
상기 프로세서가, 인공지능(Artificial Intelligence, AI)의 기계 학습(machine learning)을 위해 사전에 수집된 2D 이미지에 포함된 객체를 식별하는 단계; 및
상기 프로세서가, 상기 식별된 객체의 유형에 대응하여 상기 식별된 객체의 일부를 비식별(de-identify) 처리하는 단계를 포함하여 실행시키되,
상기 비식별 처리하는 단계는
상기 식별된 객체의 일부를 비식별 처리하되, 상기 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지의 패턴을 변경하며,
상기 비식별 처리하는 단계는
상기 추출된 엣지를 기계 학습의 대상이 되는 지역의 체형 및 얼굴형 중 적어도 하나를 고려하여 상기 추출된 엣지의 패턴을 변경하는 것을 특징으로 하는, 기록매체에 기록된 컴퓨터 프로그램.
memory;
transceiver; and
Combined with a computing device configured to include a processor (processor) for processing instructions resident in the memory,
identifying, by the processor, an object included in a 2D image previously collected for machine learning of artificial intelligence (AI); and
and executing, by the processor, de-identifying a portion of the identified object corresponding to the type of the identified object;
The de-identification processing step is
A portion of the identified object is de-identified, but an edge of the identified object is extracted, and a pattern of the extracted edge is changed,
The de-identification processing step is
A computer program recorded on a recording medium, characterized in that the extracted edge is changed in a pattern of the extracted edge in consideration of at least one of a body shape and a face shape of a region subject to machine learning.
제8항에 있어서, 상기 비식별 처리하는 단계는
상기 식별된 객체의 일부를 블러링(blurring) 처리하여 상기 비식별 처리를 수행하되, 상기 식별된 객체에서 랜드 마크(land mark)를 추출하고, 추출된 랜드 마크에 블러링 처리를 수행하는 것을 특징으로 하는, 기록매체에 기록된 컴퓨터 프로그램.
The method of claim 8, wherein the de-identification processing comprises:
A part of the identified object is subjected to blurring to perform the de-identification process, a landmark is extracted from the identified object, and a blurring process is performed on the extracted landmark A computer program recorded on a recording medium.
제8항에 있어서, 상기 비식별 처리하는 단계는
상기 식별된 객체의 일부를 블러링(blurring) 처리하여 상기 비식별 처리를 수행하되, 상기 식별된 객체의 엣지(edge)를 추출하고, 추출된 엣지를 기반으로 블러링 처리를 수행하는 것을 특징으로 하는, 기록매체에 기록된 컴퓨터 프로그램.
The method of claim 8, wherein the de-identification processing comprises:
A part of the identified object is subjected to blurring to perform the de-identification process, an edge of the identified object is extracted, and the blurring process is performed based on the extracted edge, characterized in that A computer program recorded on a recording medium.
KR1020210183374A 2021-12-21 2021-12-21 De-identification processing method and a computer program recorded on a recording medium to execute the same KR102389998B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210183374A KR102389998B1 (en) 2021-12-21 2021-12-21 De-identification processing method and a computer program recorded on a recording medium to execute the same
PCT/KR2022/007660 WO2023120831A1 (en) 2021-12-21 2022-05-30 De-identification method and computer program recorded in recording medium for executing same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210183374A KR102389998B1 (en) 2021-12-21 2021-12-21 De-identification processing method and a computer program recorded on a recording medium to execute the same

Publications (1)

Publication Number Publication Date
KR102389998B1 true KR102389998B1 (en) 2022-04-27

Family

ID=81390139

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210183374A KR102389998B1 (en) 2021-12-21 2021-12-21 De-identification processing method and a computer program recorded on a recording medium to execute the same

Country Status (2)

Country Link
KR (1) KR102389998B1 (en)
WO (1) WO2023120831A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102531281B1 (en) * 2022-06-03 2023-05-12 포티투닷 주식회사 Method and system for generating passing object information using the sensing unit
WO2023120831A1 (en) * 2021-12-21 2023-06-29 주식회사 인피닉 De-identification method and computer program recorded in recording medium for executing same
KR102599196B1 (en) * 2022-11-30 2023-11-08 주식회사 인피닉 Method for estimate job cost of work on generating training data, and computer program recorded on record-medium for executing method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140141174A (en) * 2013-05-31 2014-12-10 한국과학기술원 Method and apparatus for recognition and segmentation object for 3d object recognition
KR20190106861A (en) * 2019-08-27 2019-09-18 엘지전자 주식회사 Artificial intelligence apparatus, artificial intelligence server and method for generating training data
KR20190110498A (en) * 2019-09-10 2019-09-30 엘지전자 주식회사 An artificial intelligence server for processing de-identification of unspecific person's face area from image file and method for the same
KR20200042629A (en) 2018-10-16 2020-04-24 주식회사 키센스 Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102191160B1 (en) * 2019-11-26 2020-12-16 가천대학교 산학협력단 System for modelling artificial intelligent data of robot data and modelling method thereof
KR102389998B1 (en) * 2021-12-21 2022-04-27 주식회사 인피닉 De-identification processing method and a computer program recorded on a recording medium to execute the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140141174A (en) * 2013-05-31 2014-12-10 한국과학기술원 Method and apparatus for recognition and segmentation object for 3d object recognition
KR20200042629A (en) 2018-10-16 2020-04-24 주식회사 키센스 Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor
KR20190106861A (en) * 2019-08-27 2019-09-18 엘지전자 주식회사 Artificial intelligence apparatus, artificial intelligence server and method for generating training data
KR20190110498A (en) * 2019-09-10 2019-09-30 엘지전자 주식회사 An artificial intelligence server for processing de-identification of unspecific person's face area from image file and method for the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023120831A1 (en) * 2021-12-21 2023-06-29 주식회사 인피닉 De-identification method and computer program recorded in recording medium for executing same
KR102531281B1 (en) * 2022-06-03 2023-05-12 포티투닷 주식회사 Method and system for generating passing object information using the sensing unit
KR102599196B1 (en) * 2022-11-30 2023-11-08 주식회사 인피닉 Method for estimate job cost of work on generating training data, and computer program recorded on record-medium for executing method thereof

Also Published As

Publication number Publication date
WO2023120831A1 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
KR102389998B1 (en) De-identification processing method and a computer program recorded on a recording medium to execute the same
KR102403169B1 (en) Method for providing guide through image analysis, and computer program recorded on record-medium for executing method therefor
KR102310598B1 (en) Method of creating data for machine learning using metadata, and computer program recorded on record-medium for executing method thereof
KR102343059B1 (en) Data collecting system for artificial intelligence machine learning, and device therefor
KR102343056B1 (en) A method of reducing data load of images for annotation, and computer program recorded on record-medium for executing method thereof
KR102310585B1 (en) Annotation method of assigning object simply, and computer program recorded on record-medium for executing method thereof
KR102356909B1 (en) Annotation method of assigning object and setting object properties for learning data of artificial intelligence, and computer program recorded on record-medium for executing method thereof
CN111598065A (en) Depth image acquisition method, living body identification method, apparatus, circuit, and medium
CN114830177A (en) Electronic device and method for controlling the same
KR102310606B1 (en) Method for correcting difference of multiple sensors, and computer program recorded on record-medium for executing method therefor
KR102310595B1 (en) Annotation method of setting object properties using proposed information, and computer program recorded on record-medium for executing method thereof
KR102395393B1 (en) Method for providing guide through sensing environment analysis, and computer program recorded on record-medium for executing method therefor
KR102403174B1 (en) Method for data purification according to importance, and computer program recorded on record-medium for executing method therefor
KR102343061B1 (en) Method for de-identifying personal information, and computer program recorded on record-medium for executing method therefor
KR102485099B1 (en) Method for data purification using meta data, and computer program recorded on record-medium for executing method therefor
KR102310608B1 (en) Method for processing data of machine learning for automatic driving based on radar and lidar, and computer program recorded on record-medium for executing method therefor
KR102310604B1 (en) Method for processing data collected by multiple sensors, and computer program recorded on record-medium for executing method therefor
KR102310601B1 (en) Control method of multiple sensors for data collection, and computer program recorded on record-medium for executing method thereof
KR102310602B1 (en) Method for correcting difference of multiple sensors, and computer program recorded on record-medium for executing method therefor
KR102439429B1 (en) Annotation method for easy object extraction and a computer program recorded on a recording medium to execute the annotation method
KR102433002B1 (en) Annotation method through multiple binding box selection and a computer program recorded on a recording medium to execute the same
KR102313947B1 (en) Assignment and inspection method of tracking identifier, and computer program recorded on record-medium for executing method thereof
KR102313922B1 (en) A method of increasing quality for data of connected 3D points group, and computer program recorded on record-medium for executing method thereof
KR102546198B1 (en) Method for learning data classification based physical factor, and computer program recorded on record-medium for executing method thereof
KR102531917B1 (en) Method for annotation using boundary transplant, and computer program recorded on record-medium for executing method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant